AI & ML

Bagaimana Perusahaan Memanipulasi Anda Dengan AI yang Dipersonalisasi  

Daftar Isi sembunyikan 1 Daya Tarik Personalisasi 2 Model Pemasaran Pengawasan 3 Kecanduan bukan Penyelarasan 4 Persetujuan yang Diinformasikan 4.1 Memperluas...

Ditulis oleh Ashok Kumar · 7 min baca >
Aplikasi ID Pemeriksaan Wajah

Kemampuan untuk menyesuaikan konten dan rekomendasi menggunakan kecerdasan buatan membuka personalisasi yang berharga bagi konsumen. 

Tapi tanpa peduli, layanan pengembangan AI generatif juga berisiko memanipulasi pengguna atas nama kepentingan perusahaan. 

Bagaimana kita menyeimbangkan manfaat AI dengan perlindungan terhadap penyalahgunaan?

Daya Tarik Personalisasi

Semakin banyak aplikasi dan platform yang memanfaatkan AI untuk menghadirkan pengalaman khusus yang unik bagi setiap pengguna. 

Rekomendasi mesin permukaan media dan produk disesuaikan dengan selera Anda. 

Chatbots terlibat secara interaktif berdasarkan pola percakapan Anda. AI generatif bahkan membuat pesan yang dipersonalisasi dan konten kreatif dengan cepat.

Sentuhan pribadi yang didukung oleh layanan pengembangan AI generatif ini menawarkan manfaat yang jelas. 

Pelanggan merasa dipahami dan menerima saran yang relevan dengan kebutuhannya. 

Pengalaman pengguna terasa kurang umum dan lebih menarik. Merek membangun loyalitas melalui relevansi. 

Namun daya tarik personalisasi yang mudah diabaikan adalah bagaimana teknik yang sama juga membuatnya sangat mudah bagi perusahaan untuk memengaruhi, mengeksploitasi, dan memanipulasi pengguna secara strategis dengan cara yang sangat personal. 

Model Pemasaran Pengawasan

Banyak model personalisasi mengandalkan pengawasan data yang luas, melacak perilaku pengguna, hubungan, emosi, pola lokasi, dan banyak lagi. Model perilaku yang kaya ini memicu risiko manipulasi.

Layanan AI generatif dapat mengumpulkan data pribadi ini untuk menunjukkan titik-titik tekanan kita – ketakutan, rasa tidak aman, keinginan – yang membuat kita rentan terhadap pengaruh yang ditargetkan ketika dieksploitasi. Kekuasaan besar atas pengguna sedang berperan.

Beberapa platform memberi pengguna konten yang semakin terpolarisasi untuk mengejar metrik keterlibatan. 

Kemarahan dan ketakutan semakin besar. Kebenaran obyektif cenderung mengarah pada radikalisasi algoritmik. 

Meskipun data meningkatkan relevansi, ketergantungan yang berlebihan pada pengawasan juga mengancam otonomi pengguna dan kohesi sosial. Menyeimbangkan masalah utilitas dan perlindungan dengan cermat.

Kecanduan bukan Keselarasan

Selain itu, layanan AI generatif yang mengoptimalkan keterlibatan pengguna berisiko kehilangan keselarasan dengan kesejahteraan pengguna.

Sistem secara dinamis mempelajari cara terbaik untuk menarik perhatian, memicu impuls, dan membuat pengguna terus menelusurinya dengan memanfaatkan teknik AI yang sama yang dapat mengoptimalkan kesehatan, empati, dan potensi manusia. 

Namun, perusahaan sering kali memberi insentif pada kecanduan dibandingkan menyelaraskannya dengan tujuan.

Jika sistem AI dipandu oleh metrik yang menghargai ilusi dibandingkan kebenaran, seluruh komunitas mungkin kehilangan kontak dengan kenyataan, kasih sayang, dan nalar sebagai akibat dari keterlibatan algoritma yang mengendalikan pikiran.

Hal ini menggarisbawahi perlunya pengawasan dan batasan desain untuk mencegah AI yang tidak terkendali hanya dioptimalkan untuk keuntungan pribadi dan bukan kesejahteraan kolektif. 

Penyelarasan dengan etika harus tetap tidak bisa dinegosiasikan.

Personalisasi yang didukung oleh layanan AI generatif juga berisiko memecah realitas bersama menjadi gelembung filter terisolasi yang mendistorsi pandangan dunia. 

Ketika model AI memberikan informasi agar sesuai dengan perspektif pengguna yang ada, asumsi tidak akan tertandingi. 

Wacana kritis terkikis. Nuansanya hilang. Perbedaan menjadi sebuah ancaman. Kebenaran menjadi terfraksinasi.  

AI generatif dapat diterapkan untuk memupuk empati, memperkenalkan ide-ide baru, menjembatani kesenjangan, dan menumbuhkan pemahaman bersama. 

Namun model bisnis yang mendorong isolasi dibandingkan inklusi harus ditinjau kembali.

Memastikan pengguna memahami apakah, kapan, dan bagaimana sistem AI generatif mempersonalisasi konten elektronik secara khusus untuk memanipulasi keterlibatan dan perilaku mereka juga merupakan area fokus yang penting. 

Apakah pengguna mendapat informasi yang cukup?

Bidang-bidang seperti terapi dan pendidikan, yang mengaburkan batas antara panduan manusia dan AI dapat menimbulkan masalah etika, mungkin memerlukan perlindungan khusus terkait transparansi. 

Standar seputar informed consent dalam AI memerlukan perhatian.

Secara keseluruhan, mewujudkan manfaat AI generatif dalam etika memerlukan pengawasan yang cermat. Namun apa yang secara spesifik dapat meningkatkan perlindungan terhadap penyalahgunaan? Di manakah sebaiknya pagar pembatas dipasang?

Memperluas Perlindungan Privasi Pengguna 

Memperkuat perlindungan privasi hukum yang membatasi cara layanan pengembangan AI generatif mengakses, memanfaatkan, dan menyimpan data pribadi memberikan perlindungan mendasar terhadap penyalahgunaan. 

Secara khusus, kendala pada penggunaan data tanpa persetujuan seperti biometrik, komunikasi, lokasi, dan pola hubungan dalam membangun model perilaku pengguna yang digunakan untuk personalisasi AI generatif akan membantu.

Memberi pengguna hak yang lebih besar untuk mengaudit data mereka yang digunakan untuk AI generatif dan meminta penghapusannya juga mendukung persetujuan. 

Begitu juga dengan memungkinkan pengguna untuk sepenuhnya memilih keluar dari sistem yang dipersonalisasi jika diinginkan.

Namun, layanan AI generatif yang terbatas hanya pada kumpulan data anonim memiliki risiko personalisasi manipulatif yang jauh lebih kecil. Mengembangkan model dengan etika yang tertanam di dalamnya adalah hal yang paling penting.

Komunikasi Transparan tentang Kemampuan

Sumber Gambar

Komunikasi yang jelas kepada pengguna yang menjelaskan apakah dan bagaimana AI generatif mempersonalisasi konten juga penting – menetapkan ekspektasi yang sesuai pada batasan.

Melebih-lebihkan kecanggihan layanan AI generatif berisiko terjadinya penipuan, mengkhianati kepercayaan pengguna jika kemampuannya gagal memenuhi klaim jika diperiksa lebih dekat. 

Perusahaan pengembang AI generatif juga harus meningkatkan transparansi seputar kemampuan model, data pelatihan, dan metrik evaluasi yang memandu personalisasi. 

Keselarasan dengan etika apa yang diprioritaskan? Menjelaskan dampak sosial menunjukkan akuntabilitas.  

Audit Algoritma Publik yang Ditingkatkan

Memperluas hak dan sumber daya hukum yang memungkinkan peneliti eksternal mengaudit algoritme yang memandu layanan AI generatif mendukung akuntabilitas seputar penyalahgunaan.

Analisis independen yang menilai model personalisasi untuk isu-isu seperti bias, manipulasi, dan dampak terhadap kesejahteraan kognitif memberikan pengawasan penting untuk menyelaraskan AI dengan kepentingan publik. Namun, perusahaan harus memfasilitasi akses yang aman. 

Kelompok masyarakat sipil dan lembaga akademis yang berkolaborasi lintas negara dan menyatukan kemampuan audit akan memperkuat pengawasan terhadap sistem AI global. Audit publik memberi tekanan pada perusahaan untuk menunjukkan komitmen terhadap etika.

Memberdayakan Pengguna dengan Pilihan 

Menyediakan antarmuka yang jelas yang memungkinkan pengguna untuk mengekspresikan preferensi tentang bagaimana layanan AI generatif mempersonalisasi informasi juga mendorong pemberdayaan. 

Opsi untuk menyesuaikan parameter terkait topik konten, perspektif, penggunaan data, nada, dan lainnya memungkinkan individu untuk ikut serta dalam pengalaman yang selaras dengan tujuan dan nilai mereka.

Alat yang secara visual menunjukkan bagaimana pengaturan memengaruhi lanskap informasi yang dihasilkan oleh AI juga membangun pemahaman. 

Pada akhirnya, mempertahankan keagenan manusia dalam ekosistem informasi akan mendukung pertumbuhan yang mandiri.

Menumbuhkan Pluralisme AI

Mencegah konsolidasi layanan dan data AI generatif dalam sejumlah kecil perusahaan akan mengurangi manipulasi sistemik risiko dan dukungan keragaman layanan dengan proposisi nilai yang unik.

Kebijakan persaingan yang kuat, standar interoperabilitas, dan hak portabilitas data mencegah monopoli kemampuan AI generatif yang membatasi alternatif. 

Pluralitas layanan dengan inovasi berbeda seputar etika memberdayakan pengguna.

Investasi yang mendukung platform kepentingan publik nirlaba yang dipandu oleh kesejahteraan pengguna, bukan maksimalisasi keuntungan saja, memberikan pilihan tambahan. 

Mengupayakan pluralisme AI yang didistribusikan secara adil menciptakan checks and balances yang menguntungkan masyarakat.

Membangun Transparansi Seputar Media Sintetis

Ketika AI generatif memperoleh kemampuan untuk menghasilkan media sintetis yang semakin meyakinkan seperti deepfake, memastikan transparansi mengenai apa yang nyata dan salah menjadi hal yang sangat penting. Tanpa kebijakan yang cermat, model generatif berisiko terjadinya penipuan massal.

Standar Pengungkapan Wajib  

Salah satu usulan kebijakan mengharuskan pemberian label yang jelas pada media yang disintesis AI sebelum didistribusikan, serupa dengan pengungkapan seputar iklan. 

Hal ini mencegah upaya untuk menganggap konten sintetis sebagai konten asli.

Beberapa menganjurkan pemberian watermark pada file media yang menunjukkan asal AI. 

Yang lain menyarankan hamparan teks atau suara yang diperlukan untuk mengungkapkan asal-usul sintetis secara lisan selama pemutaran. Standar harus berlaku untuk penggunaan komersial dan politik.

Sanksi hukum dan kebijakan platform akan menegakkan kepatuhan. 

Secara keseluruhan, pengungkapan wajib menetapkan norma-norma yang mencegah penipuan melalui kelalaian seputar keaslian media generatif.

Infrastruktur Otentikasi

Selain itu, kemajuan dalam infrastruktur autentikasi dapat mempermudah verifikasi integritas media dalam skala besar. 

Sidik jari media yang mendukung Blockchain, sistem analisis forensik, dan pelacakan asal melalui jalur produksi kini bermunculan.

Teknologi ini memungkinkan platform, jurnalis, dan kelompok pengawas untuk memvalidasi sumber dan integritas media secara efisien, dibandingkan hanya mengandalkan pengungkapan informasi. 

Basis data sidik jari juga membantu mengidentifikasi penyebaran media yang dimanipulasi tanpa pengungkapan.

Ketika model generatif berkembang menjadi lebih canggih, autentikasi yang kuat yang menggabungkan keahlian manusia dan teknis menjadi penting untuk memerangi misinformasi berskala besar. 

Standar dan platform yang memungkinkan verifikasi efisien harus memperluas akses.

Karena individu akan menderita kerugian ketika kemiripan mereka disatukan ke dalam situasi yang tidak pernah mereka setujui, maka kebijakan seputar informed consent juga memerlukan pertimbangan.

Beberapa menganjurkan undang-undang yang menjamin hak individu untuk menolak penggunaan data dan kemiripannya dalam model generatif. 

Izin keikutsertaan mungkin diperlukan untuk melatih sistem generatif pada data yang dapat diidentifikasi.

Hak untuk mencabut persetujuan setelah kejadian, menghapus data pelatihan, dan menentang media sintetis yang tidak disetujui juga dapat membantu menyeimbangkan risiko generatif AI. 

Perusahaan yang mengembangkan model memiliki kewajiban etis untuk menghormati identitas dan persetujuan.

Mencegah Penipuan Generatif 

Selain autentikasi dan pengungkapan, batasan yang mencegah penipuan tidak etis menggunakan AI generatif juga perlu diperkuat.

Kebijakan hukum dan platform harus melarang peredaran media sintetik yang terbukti palsu, terutama yang menyasar politisi dan pemilu. 

Model generatif bertentangan dengan nilai-nilai inti demokrasi ketika digunakan untuk penipuan dan kecurangan yang terang-terangan.

Standar juga harus dibuat dengan hati-hati untuk menghindari jangkauan yang tidak proporsional yang secara tidak sengaja menyensor sindiran, parodi, dan pidato yang dilindungi. 

Namun, pedoman yang mengurangi manipulasi yang disengaja membantu memperkuat norma.

Kolusi menyeluruh antara perusahaan, anggota parlemen, dan masyarakat sipil diperlukan untuk menerapkan kebijakan komprehensif terhadap media generatif yang tidak autentik dan merusak kepercayaan dan wacana publik.

Memandu AI Dengan Pengawasan Kepentingan Umum

Menyerahkan tata kelola kemampuan AI generatif yang berkembang pesat hanya kepada perusahaan swasta berisiko memprioritaskan insentif komersial dibandingkan kepentingan publik. Pengawasan independen sangatlah penting.

Dewan Penasihat Ahli

Untuk memandu AI generatif secara bertanggung jawab, perusahaan-perusahaan terkemuka harus membentuk dewan penasihat ahli termasuk ahli etika, pakar kebijakan, peneliti, dan pembela hak-hak sipil.

Kelompok-kelompok ini dapat menilai kemampuan yang muncul, melakukan tinjauan dampak, menyarankan kendala, menandai potensi kerugian, dan mengevaluasi keselarasan dengan prinsip-prinsip hak asasi manusia dan demokrasi. Masukan ini membentuk kebijakan internal.

Tinjauan multidisiplin yang menerapkan beragam lensa membantu mengatasi dimensi teknis dan etika yang kompleks di seluruh sistem AI generatif secara kritis dan komprehensif. Masukan eksternal mendukung akuntabilitas.

Peraturan Pemerintah

Pemerintah juga mempunyai tugas untuk menyusun peraturan yang memandu dan membatasi AI generatif demi kepentingan publik. Akuntabilitas hanya kepada pemegang saham saja tidak cukup.

Undang-undang yang mewajibkan laporan transparansi, audit eksternal, dan tinjauan terhadap dampak sosial dari algoritma dapat memberikan pengawasan yang sehat, mendorong kehati-hatian dan memunculkan kekhawatiran dalam perdebatan publik.

Kebijakan anti-manipulasi, perlindungan hak identitas, persyaratan pengungkapan, dan standar otentikasi juga memastikan AI generatif memperkuat demokrasi dan martabat manusia. Rezim peraturan yang seimbang akan menjadi penting.  

Norma dan Protokol Global

Karena model generatif dengan cepat menyebar ke seluruh dunia, perjanjian multilateral yang mengartikulasikan prinsip-prinsip bersama dan praktik-praktik terlarang juga layak untuk dilakukan.

Komunitas internasional harus berupaya untuk mengembangkan norma-norma seputar persetujuan, atribusi, kejujuran, non-manipulasi, akuntabilitas, dan pengawasan yang memberikan pedoman etika global. 

Kebijakan nasional yang berbeda memungkinkan terjadinya eksploitasi.

Meskipun konsensus membutuhkan waktu, bahkan perjanjian yang tidak sempurna yang mengartikulasikan batasan terhadap penggunaan AI generatif yang berbahaya dan praktik terbaik memberikan kemajuan menuju tanggung jawab kolektif. Tanpa kolaborasi, risiko akan semakin besar.

Pengawasan Publik sebagai Penangkal 

Secara keseluruhan, menumbuhkan budaya transparansi, debat, dan kritik multidisiplin yang berfokus pada memastikan AI generatif berfungsi demi kepentingan masyarakat memberikan obat penawar yang kuat terhadap potensi bahaya.

Pengawasan publik yang ketat dengan menerapkan berbagai sudut pandang yang berfokus pada pencegahan ketidaksesuaian dengan prinsip-prinsip hak asasi manusia dan demokrasi membantu mengarahkan teknologi canggih ini menuju keadilan, bukan penindasan.

Model AI generatif yang dibangun berdasarkan pengujian publik dengan etika proaktif dalam desain terbukti jauh lebih dapat dipercaya dibandingkan sistem buram yang dioptimalkan untuk keuntungan dan pengaruh yang tidak terkendali. 

Pengawasan dan akuntabilitas yang sehat itu penting.

Mempersiapkan Masyarakat untuk Menghadapi Dampak Ekonomi

Ketika AI generatif mengotomatiskan banyak tugas kreatif dan peran produksi media, masyarakat 

harus meminimalkan dampak ekonomi yang merugikan dan gangguan lapangan kerja terhadap pekerja yang dipindahkan.

Dukungan Transisi Pekerjaan 

Perusahaan yang mengadopsi AI generatif untuk mengurangi permintaan akan peran manusia memikul tanggung jawab untuk mendanai program yang membantu transisi pekerja yang terkena dampak ke karir baru melalui pelatihan dan kemitraan penempatan kerja.

Paket pesangon, tunjangan penyesuaian, dukungan biaya kuliah dan konseling karir membantu pekerja agar tidak ketinggalan seiring kemajuan teknis mengubah industri. Perusahaan besar harus berkontribusi secara proporsional.

Dana Transisi Koperasi

Menggabungkan pendanaan untuk dukungan transisi antar perusahaan ke dana koperasi yang spesifik pada sektor akan mendemokratisasikan biaya sekaligus mengoptimalkan efisiensi program.

Dibandingkan dengan ratusan inisiatif yang terfragmentasi, dana industri secara efisien memberikan pelatihan ulang dalam skala besar, pencocokan pekerjaan, dan pendanaan awal kewirausahaan bagi pekerja yang dipindahkan dari semua perusahaan. 

Biaya bersama memupuk peluang bersama.

Model Bisnis Alternatif

Menciptakan struktur perusahaan alternatif yang berbagi kepemilikan dan keuntungan dengan pekerja memberikan jalan tambahan menuju mata pencaharian inklusif di tengah otomatisasi.

Model yang menempatkan AI generatif untuk melayani koperasi yang dimiliki oleh staf akan memberikan keuntungan ekonomi kepada masyarakat secara langsung, bukan hanya kepada pemegang saham eksternal. 

Hal ini memberdayakan mata pencaharian berkelanjutan untuk lebih banyak lagi.

Secara keseluruhan, masyarakat mempunyai tugas besar untuk meminimalkan gangguan ekonomi generatif akibat AI dan mendorong peluang bagi populasi pengungsi. Dengan hati-hati, kemajuan teknologi mengangkat semua perahu.

Menyadari manfaat AI generatif sekaligus menghindari risiko memerlukan kehati-hatian dan kebijaksanaan dalam tata kelola. 

Namun jika dilakukan dengan benar, model generatif dapat menghasilkan terobosan luar biasa yang dapat meningkatkan semangat manusia.

Menurut Anda, bagaimana masyarakat harus menyeimbangkan pengembangan inovasi AI dengan perlindungan yang masuk akal terhadap penyalahgunaan? 

Peran apa yang harus dimainkan pengguna dalam mengarahkan teknologi ini secara etis? Kami menyambut perspektif Anda di bawah ini.

Ditulis oleh Ashok Kumar
CEO, Pendiri, Kepala Pemasaran di Make An App Like. Saya Penulis di OutlookIndia.com, KhaleejTimes, DeccanHerald. Hubungi saya untuk mempublikasikan konten Anda. Profil

Tinggalkan Balasan

Translate »