Kecerdasan Buatan dari Microsoft

Untuk perusahaan seperti Google dan Microsoft, kecerdasan buatan adalah bagian besar dari masa depan mereka, menawarkan cara untuk meningkatkan produk yang sudah ada dan membuat aliran pendapatan baru. Tetapi, seperti yang diungkapkan oleh laporan keuangan baru-baru ini, kedua perusahaan juga mengakui bahwa AI – terutama AI yang bias membuat keputusan yang buruk – berpotensi membahayakan merek dan bisnis mereka.

Pengungkapan ini, terlihat oleh Wired, dibuat dalam bentuk 10-K perusahaan. Ini adalah dokumen terstandardisasi yang diharuskan oleh perusahaan secara hukum setiap tahun, yang memberi para investor tinjauan luas tentang bisnis mereka dan keuangan terkini. Di segmen berjudul “faktor risiko,” baik Microsoft dan Alphabet, perusahaan induk Google, membesarkan AI untuk pertama kalinya.

Dari Alphabet’s 10-K, diajukan minggu lalu:

“[N] ew produk dan layanan kami, termasuk yang menggabungkan atau memanfaatkan kecerdasan buatan dan pembelajaran mesin, dapat meningkatkan baru atau memperburuk tantangan etika, teknologi, hukum, dan lainnya yang ada, yang dapat berdampak negatif terhadap merek kami dan permintaan akan produk dan layanan kami dan berdampak buruk terhadap pendapatan dan hasil operasi kami. ”

Dan dari Microsoft 10-K, diajukan Agustus lalu:

“Algoritma AI mungkin cacat. Kumpulan data mungkin tidak mencukupi atau mengandung informasi yang bias. Praktik data yang tidak pantas atau kontroversial oleh Microsoft atau pihak lain dapat mengganggu penerimaan solusi AI. Kekurangan ini dapat merusak keputusan, prediksi, atau analisis yang dihasilkan aplikasi AI, yang menyebabkan kami mengalami kerugian persaingan, tanggung jawab hukum, dan kerugian merek atau reputasi. Beberapa skenario AI menyajikan masalah etika. Jika kami mengaktifkan atau menawarkan solusi AI yang kontroversial karena pengaruhnya terhadap hak asasi manusia, privasi, pekerjaan, atau masalah sosial lainnya, kami mungkin mengalami kerusakan merek atau reputasi. ”

Pengungkapan ini, secara keseluruhan, sangat mengejutkan. Gagasan segmen “faktor risiko” adalah untuk memberi informasi kepada investor, tetapi juga mengurangi tuntutan hukum di masa depan yang mungkin menuduh manajemen menyembunyikan masalah potensial. Karena itu, mereka cenderung menjadi sangat luas dalam pengirimannya, bahkan mencakup cara yang paling jelas dari sebuah bisnis yang bisa salah. Ini mungkin termasuk masalah seperti “seseorang membuat produk yang lebih baik daripada kita dan sekarang kita tidak punya pelanggan,” dan “kita menghabiskan semua uang kita jadi sekarang tidak punya”.

Tapi, seperti yang ditunjukkan Tom Wired, agak aneh bahwa perusahaan-perusahaan ini hanya mencatat AI sebagai faktor potensial sekarang. Bagaimanapun, keduanya telah mengembangkan produk-produk AI selama bertahun-tahun, dari inisiatif mobil self-driving Google, yang dimulai pada 2009, hingga persembahan lama Microsoft dengan platform percakapan seperti Cortana. Teknologi ini memberikan banyak peluang untuk kerusakan merek, dan, dalam beberapa kasus, sudah ada. Ingat ketika chatbot Microsoft Tay ditayangkan di Twitter dan mulai menyemburkan omong kosong rasis dalam waktu kurang dari sehari? Bertahun-tahun kemudian, ini masih dikutip sebagai contoh AI yang salah.

Namun, Anda juga bisa berargumen bahwa kesadaran publik tentang kecerdasan buatan dan potensi dampak buruknya telah tumbuh sangat besar selama setahun terakhir. Skandal seperti pekerjaan rahasia Google dengan Pentagon di bawah Project Maven, perangkat lunak pengenalan wajah yang bias dari Amazon, dan ketidakmampuan algoritmik Facebook dengan skandal Cambridge Analytica semuanya membawa masalah implementasi AI yang buruk menjadi sorotan. (Menariknya, meskipun paparan yang sama, baik Amazon maupun Facebook tidak menyebutkan risiko AI dalam 10-K terbaru mereka.)

Dan Microsoft dan Google melakukan lebih dari banyak perusahaan untuk mengikuti bahaya ini. Microsoft, misalnya, berpendapat bahwa perangkat lunak pengenalan wajah perlu diregulasi untuk menjaga dari kemungkinan bahaya, sementara Google telah memulai bisnis yang lambat dengan melibatkan para pembuat kebijakan dan akademisi tentang tata kelola AI. Memberi investor perhatian juga sepertinya adil.

Leave a Reply

Your email address will not be published. Required fields are marked *