Tujuan polisi ini adalah untuk menetapkan garis panduan bagi penggunaan Kecerdasan Buatan (AI) yang sesuai di FxScouts. Polisi ini bertujuan untuk menggalakkan penggunaan AI, termasuk program AI generatif dan ChatGPT, dengan cara yang cekap dan selamat sambil mengurangkan risiko yang berkaitan.
Polisi ini terpakai kepada semua kakitangan di FxScouts dan mengawal selia penggunaan semua alat AI yang disediakan oleh syarikat, termasuk tetapi tidak terhad kepada program AI generatif dan ChatGPT.
Semua individu yang dibenarkan oleh FxScouts mesti melengkapkan latihan yang diperlukan untuk dibenarkan menggunakan alat AI. Proses ini memastikan kita menyedari sepenuhnya keupayaan dan batasan alat-alat ini serta menggunakannya secara berkesan dan bertanggungjawab.
Penggunaan yang tidak dibenarkan termasuk, tetapi tidak terhad kepada, penggunaan oleh individu yang tidak diberi kuasa, penggunaan di luar skop kerja, atau menggunakan alat dengan cara yang bertentangan dengan polisi ini atau garis panduan syarikat lain. Sebarang penggunaan yang disyaki tidak sah hendaklah dilaporkan kepada pihak pengurusan atau pasukan keselamatan IT dengan segera. Penggunaan tanpa kebenaran boleh mengakibatkan tindakan disiplin, termasuk penamatan pekerjaan.
Menjaga keselamatan data syarikat, harta intelek, dan kerahsiaan adalah amat penting dalam semua aktiviti, termasuk penggunaan alat AI. Oleh kerana alat ini belajar dan menjana kandungan berdasarkan data input, adalah penting agar pengguna mengelakkan daripada memasukkan atau berkongsi maklumat sensitif, seperti data pelanggan, kontrak sulit, butiran mengenai perkongsian, projek, kenyataan kerja, atau sebarang maklumat proprietari lain.
Selain itu, kita mesti menghormati batasan undang-undang dan etika mengenai privasi data. Jika kita tidak pasti sama ada maklumat tertentu sesuai untuk digunakan dengan alat AI, kita perlu merujuk kepada jabatan undang-undang. Pelanggaran garis panduan keselamatan data dan kerahsiaan boleh membawa kepada tindakan disiplin.
Alat AI bukan penyelesaian tunggal tetapi sebahagian daripada set sumber yang lebih luas untuk membantu kita dalam peranan kita. Mereka harus digunakan untuk melengkapkan, bukan menggantikan, kaedah tradisional penyelesaian masalah dan membuat keputusan.
Hasil yang dihasilkan oleh alat AI mesti sentiasa dilengkapi dengan logik perniagaan. Sebagai contoh, jika alat AI menghasilkan cadangan atau rancangan, pengguna mesti menilai cadangan tersebut secara kritikal menggunakan pemahaman mereka tentang model perniagaan, strategi, dan keadaan pasaran syarikat.
Kerjasama dengan rakan sekerja juga digalakkan untuk mendapatkan perspektif berbeza, memeriksa semula hasil AI, dan mengurangkan risiko kesilapan. Di samping itu, kita perlu mengesahkan hasil alat AI dengan sewajarnya. Ini mungkin melibatkan menyemak silang maklumat dengan sumber lain yang boleh dipercayai, menjalankan ujian menyeluruh jika boleh, atau merujuk kepada pakar apabila perlu.
Penggunaan alat AI sebagai tambahan memastikan kita mengekalkan penilaian dan pengawasan manusia dalam proses kita, sekali gus memaksimumkan nilai alat ini sambil mengurangkan risiko yang berkaitan.
Apabila menggunakan alat AI, kita mesti sentiasa sedar akan risiko yang ada. Risiko ini mungkin termasuk ketidakpastian atau salah tafsir dalam kandungan yang dihasilkan oleh AI disebabkan kekurangan konteks, kekaburan undang-undang mengenai pemilikan kandungan, dan kemungkinan pelanggaran privasi data. Oleh itu, kita perlu mengekalkan sikap kritikal terhadap hasil AI pada setiap masa.
Untuk menguruskan risiko ini dengan berkesan, pihak pengurusan bertanggungjawab untuk mengintegrasikan penilaian risiko khusus AI ke dalam prosedur pengurusan risiko yang lebih luas. Ini melibatkan penilaian dan pengemaskinian protokol secara berterusan untuk mengenal pasti, menilai, dan mengurangkan potensi risiko, dengan mengambil kira perubahan dalam teknologi AI, aplikasi, dan persekitaran risiko luaran. Di samping itu, sesi latihan dan kesedaran berkala untuk kakitangan diperlukan bagi memastikan mereka dimaklumkan tentang risiko ini dan langkah-langkah yang perlu diambil.
Kita harus berhati-hati apabila menggunakan platform AI pihak ketiga kerana potensi kerentanan keselamatan dan pelanggaran data. Sebelum menggunakan sebarang alat AI pihak ketiga, kita mesti mengesahkan keselamatan platform tersebut dengan memeriksa sijil keselamatan yang sesuai, menyemak dasar pengendalian data dan privasi vendor, serta merujuk kepada pasukan IT atau keselamatan siber jika perlu.
Selain itu, sebarang data yang dikongsi dengan platform pihak ketiga mesti mematuhi garis panduan yang dinyatakan dalam bahagian 2, Keselamatan Data dan Kerahsiaan. Jika kita tidak pasti tentang penggunaan platform pihak ketiga, kita perlu mendapatkan panduan daripada penyelia atau pasukan keselamatan IT.
Setiap kali penggunaan AI dicadangkan, pencipta kandungan, kurator kandungan, atau pasukan produk mesti mempertimbangkan sama ada penggunaan AI secara prinsip dan produk atau alat tertentu itu sesuai untuk tugas yang dikehendaki.
Mereka juga harus menyedari bahawa AI mungkin diintegrasikan ke dalam alat yang disediakan oleh pembekal luaran atau alat yang tersedia secara terbuka di internet.
Sebarang penggunaan AI oleh FxScouts dalam penciptaan, penyampaian, atau pengedaran kandungan mesti konsisten dengan Garis Panduan Editorial, termasuk prinsip ketidakberpihakan, ketepatan, keadilan, dan privasi.
Sebarang penggunaan AI oleh FxScouts dalam penciptaan, penyampaian, atau pengedaran kandungan mesti termasuk pengawasan dan kelulusan editorial manusia yang aktif, sesuai dengan sifat penggunaannya dan konsisten dengan Garis Panduan Editorial.
Hasil yang dihasilkan oleh AI ditentukan oleh algoritma di belakangnya dan data yang telah dilatih. Kedua-duanya mungkin memperkenalkan bias atau ketidaktepatan dalam hasil AI.
Sebarang cadangan penggunaan AI mesti mempertimbangkan sama ada terdapat sebarang bias yang boleh menjejaskan penggunaannya di FxScouts dan sama ada ia adalah alat yang sesuai.
AI generatif beroperasi dengan meramalkan tindak balas yang mungkin kepada pertanyaan berdasarkan algoritma dan data latihannya, bukan dengan menyediakan kandungan yang semestinya tepat secara faktual.
Penggunaan AI generatif mesti mempertimbangkan kemungkinan bahawa kandungan yang disampaikan sebagai tepat mungkin sebenarnya adalah "halusinasi" atau ciptaan algoritma yang tidak mempunyai asas dalam fakta.
Begitu juga, AI generatif mungkin hanya menyesuaikan kandungan daripada carian web atau pangkalan data kandungan yang dipercayai dan menyampaikannya sebagai asli.
FxScouts juga mempunyai tanggungjawab untuk mempertimbangkan bukan sahaja hak pencipta dan artis dalam penggunaan AI tetapi juga untuk tidak menjejaskan peranan mereka dalam komuniti kreatif yang lebih luas. Sebarang penggunaan AI mesti mempertimbangkan hak bakat dan penyumbang, sambil membenarkan penggunaan kreatif bentuk ekspresi baru.
Pematuhan terhadap polisi ini akan dipantau secara berkala oleh FxScouts. Sebarang pelanggaran polisi yang dikenal pasti akan ditangani dan diperbaiki dengan segera.
Polisi ini akan disemak dan dikemas kini dari semasa ke semasa untuk menampung perubahan dalam teknologi, keperluan perniagaan, atau keperluan undang-undang.