Pentagon bosh ofitseri sunʼiy intellekt xavfidan “oʻlguday qoʻrqib ketdi”

AQSh armiyasi sunʼiy intellektdan foydalanishga intilayotgan bir paytda, bu ishga masʼul boʻlgan Pentagon bosh ofitseri SI yolg‘on xabar tarqatish uchun “mukammal vosita” boʻlishidan ogohlantirmoqda.

Mudofaa vazirligining raqamli va sunʼiy intellekt boʻyicha bosh mutaxassisi, Kreyg Martell, AFCEA TechNet Cyber ​​konferensiyasida generativ sunʼiy intellekt haqidagi fikrlari soʻralganida: “Ha, men oʻlguday qoʻrqaman”, dedi.

“Men ChatGPTʼdan qoʻrqishimning sababi — sunʼiy intellekt oʻz fikrlarini erkin ifoda etishga oʻrgatilgan”, dedi Kreyg Martell. “U erkin va ishonarli gapiradi. Natijada, siz uning gaplariga notoʻgʻri boʻlsa ham ishonasiz ...va bu yolgʻon maʼlumot tarqatish (dezinformatsiya) uchun eng qulay vosita boʻlishi mumkin...”

Martell, sunʼiy intellektlar ichida “qiziqarli muammo” tugʻdiruvchi ChatGPT generativ SI tili modelini nazarda tutgan: ular kontekstni tushunmaydilar va odamlar oʻzlarining aytganlarini haqiqat sifatida qabul qiladilar, dedi Martell.

Avvalroq xuddi shunday qo‘rquv va xavf to‘g‘risida Giglink.uz “Sun’iy intellekt asl tarixni yo‘q qilishi mumkin” nomli maqolada fikr yuritgan edi.

“Bizga xabarlarni haqiqatan ham sodir boʻlayotganini aniqlash va real voqealar sodir boʻlganda ogohlantirib turuvchi vositalar kerak. Bizda esa bunday vositalar yoʻq”, deb davom etdi u. “Biz bu kurashda ortda qoldik.“

Konferensiyada u barcha generativ AI modellaridan olingan maʼlumotlarning aniqligini taʼminlash uchun zarur vositalarni yaratishga chaqirdi.

Oʻtgan yili Mudofaa vazirligi tomonidan ishga qabul qilingan ofitser Martell sunʼiy intellekt sohasida katta tajribaga ega. Vazirlikka qoʻshilishdan oldin u Lyft va Dropboxʼda Mashinalarni oʻrganish boʻlimi boshligʻi boʻlgan, LinkedInʼda bir nechta sunʼiy intellekt guruhlarini boshqargan va oʻn yildan koʻproq vaqt davomida harbiylar uchun sunʼiy intellektni oʻrgatuvchi dengiz aspiranturasi professori boʻlgan.

Martellning xavfdan ogohlantirishi Pentagon rasmiylari razvedka maʼlumotlarini toʻplash va kelgusida harbiy harakatlarni olib borish maqsadida generativ SIdan foydalanish yoʻllarini koʻrib chiqayotgan bir paytga toʻgʻri keldi. Seshanba kuni boʻlib oʻtgan konferensiyada Mudofaa axborot tizimlari agentligi (DISA) direktori general-leytenant Robert Skinner oʻz nutqini uning ovozini klonlashtirgan va ochilish nutqini soʻzlagan generativ AI haqida so‘zlash bilan boshladi.

Maʼlum boʻlishicha, Skinnerning nutqlaridan biri sunʼiy intellekt tomonidan generatsiya qilingan boʻlib, bir qarashda oʻta real qilib ishlangan.

“Generativ SI — bu, ehtimol, juda uzoq vaqtlardan beri yaratilgan eng buzgʻunchi texnologiya va tashabbuslardan biri”, dedi. “Endilikda uni ishlatadigan va undan qanday qilib yaxshiroq foydalanishni hamda himoyalanishni biladiganlar yuqori oʻrinlarni egallaydilar.“

Lekin Skinner SI boʻyicha bosh ofitser Martellning qoʻrquvi haqida “u generativ sunʼiy intellektdan qoʻrqmaydi. Lekin uning bu gapi Mudofaa vazirligi uchun yangi texnologiyalar ishlab chiqarishga yetarli signal boʻladi” dedi.

Avvalroq “sun’iy intellektning choʻqintirgan otasi” oʻzining sunʼiy intellektdagi faoliyatidan afsus va qoʻrquvi tufayli Googleʼni tark etgani haqida xabar berilgandi.

Mavzuga oid

Soʻnggi yangiliklar

Telegram mini-ilovalari endi telefoningizda to‘liq ekran rejimida ishlashi mumkin
Endi Telegram mini-ilovalari uchun yorliqlarni to‘g‘ridan-to‘g‘ri telefoningizning bosh ekraniga joylashtirishingiz mumkin.
Ijtimoiy tarmoqlar
18 noyabr, 23:55
Vivo Y18t yangi smartfoni atigi $90 bilan sotuvga chiqdi
Lekin tezkor quvvatlanish imkoniyati yo'q.
Smartfon
13 noyabr, 10:23
iPhone 15 - dunyodagi eng ko'p sotilayotgan smartfon, Samsung Galaxy S24 esa 10-o'rinda
Samsung smartfonlar bozorida yetakchilik o'rnini yo'qotmoqda - kompaniyaning jahon bozoridagi ulushi 21 foizdan 18 foizga tushdi
Smartfon
09 noyabr, 10:22
Galaxy S25 Slim modeli 200 megapiksellik "ultra kamera"ga ega bo'ladi - Insayderlar
Ushbu ma'lumot model rasmiy texnik xususiyatlari e'lon qilinishidan oldin paydo bo'ldi
Smartfon
09 noyabr, 10:04