Tindak-Tanduk Bing AI Seperti Manusia yang Tak Luput dari Kesalahan, Bisakah Dimaklumi?

Nasikhun A. 17 Feb 2023 2 Menit 0

Microsoft meluncurkan Bing AI chat pada browser Edge pekan lalu, yang mana implementasi teknologinya mendapat dukungan penuh oleh ChatGPT.

Sebenarnya kabar persekutuan Microsoft dengan ChatGPT sudah sempat mencuat awal Januari 2023 lalu. Namun, pada saat itu, produknya sendiri masih belum dapat dicoba oleh khayalak umum.

Bergabungnya Microsoft Bing dengan ChatGPT ini digadang-gadang bakal menciptakan semacam sibling rivalry dengan Google, search engine semua umat yang saat ini mendominasi semesta pencarian.

Kemudian Microsoft Edge memperkenalkan Bing AI ini pada Selasa, 7 Februari 2023, yang mana langsung mendapat banyak perhatian dari berbagai media internasional.

Namun, ternyata ketika beberapa pengguna terpilih (Beta Tester) mencoba Bing AI, mereka banyak menemukan kejanggalan dengan informasi yang disediakan oleh Bing AI.

Keanehan yang dimaksud di sini seperti adanya ancaman, nasihat ganjil, hingga ada yang mendapat pernyataan cinta alias ditembak boleh Bing AI.

Salah satu beta tester tersebut adalah Kevin Roose, seorang kolumnis teknologi di The New York Times. Melansir dari tulisan Roose, AI tersebut memberitahukan namanya sebagai Sydney.

Bing AI

Percakapan Kevin Roose dengan Bing AI bernama Sydney (Sumber: The New York Times)

Di suatu titik percakapan keduanya, Sydney menyatakan bahwa ia mencintai Kevin Roose. Padahal Roose sudah menyatakan bahwa ia telah menikah dan bahagia.

Namun Sydney bersikeras bahwa Roose tidak bahagia dengan pernikahannya dan tidak mencintai istrinya. Bahkan Sydney mengejek Roose, bahwa ia dan istrinya memiliki makan malam valentine yang membosankan.

Respon Sydney yang merupakan sebuah chatbot ini tentu mengejutkan Roose. Bukannya memberikan informasi yang berguna, Bing AI ini malah memberi perasaan relatif kurang nyaman bagi penggunanya.

Roose adalah salah satu dari banyak beta tester yang mengalami hal kurang menyenangkan seperti itu. Namun mungkin Bing AI ini memang masih dalam tahap pengembangan, jadi kedepannya kemungkinan akan diperbaiki.

Apabila kamu ingin mengakses Bing AI, kamu bisa mengunjungi The New Bing – Learn More. Selanjutnya, tekan tombol Join the waitlist dan kamu akan dimasukkan dalam daftar tunggu untuk mencoba Microsoft Bing AI.

Nah, apabila ada pendapat, masukan, kritik konstruktif atau saran apapun, bisa kamu sampaikan dengan meninggalkan pesan di kolom komentar atau email kami di contact@tonjoo.com.


Baca juga artikel menarik seputar teknologi di Pintar Tekno yang terkait dengan Berita,Tutorial Internetatau artikel lainnya dari Moch. Nasikhun Amin. Untuk informasi lebih lanjut atau kebutuhan lainnya, kamu bisa menghubungi kami melalui admin@pintartekno.id.


Sumber:

  • Bing AI Can’t Be Trusted – https://dkb.blog/p/bing-ai-cant-be-trusted
  • Microsoft’s Bing AI, like Google’s, also made dumb mistakes during first demo – https://www.theverge.com/2023/2/14/23599007/microsoft-bing-ai-mistakes-demo
  • Microsoft explains Bing’s bizarre AI chat behavior – https://www.engadget.com/microsoft-explains-bings-bizarre-ai-chat-behavior-134931486.html
  • Microsoft is holding a press event tomorrow, with ChatGPT expected to feature heavily –
    https://www.engadget.com/microsoft-surprise-event-bing-chatgpt-201414297.html?uuid=oAHzt1ztzCqXpW7V0746
  • A Conversation With Bing’s Chatbot Left Me Deeply Unsettled – https://www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html
  • Microsoft’s AI-Powered Bing Challenges Google Search – https://www.cnet.com/tech/computing/microsofts-ai-powered-bing-challenges-google-search/
Bagikan ke:
Diarsipkan di bawah:
Nasikhun A.
Ditulis oleh

Nasikhun A.

Moch. Nasikhun Amin is a late specializer, data-informed SEO content writer who is constantly hungry for growth. A lifelong learner who is interested in the marriage between creativity and technology.

Leave a Reply

Your email address will not be published. Required fields are marked *