Алаяқтар жасанды интеллектпен түрлі фотосурет, бейнежазба, дауыс, т.б. жасап, теріс мақсатта пайдаланады.
Сурет: avatars.dzeninfra.ru
Ғылым-білімнің қарыштап дамуы – қуанарлық жетістік. Алайда, тек адамзат игілігі үшін қолданылса ғана. Өкінішке орай, заманның оң өзгерістері мен технологиялардың жетілуін теріс пиғылда қолданушылар қатары күн санап артып барады. Қазір адамдар барлық жерде аяғын аңдап баспаса, алданып-арбалып қалу әп-сәтте. Жасанды интеллект жүйесінің жетілуі алаяқтықты одан әрі ушықтырып жатыр деп дабыл қағуда жан-жақтан. Ендеше, екі шоқып, бір қарайтын сақтық бәрімізге қажет.
Жасанды интеллект тек мәтін арқылы диалогты қолдайтын ғана емес, сонымен қатар адамның сөзін және тіпті бейнесін видео форматында имитациялай алатын деңгейге жетті. Бұл мүмкіндіктен қалыс қалғысы келмейтін алаяқтар дереу іске кірісіп, жасанды интеллект көмегімен алдаудың сан алуан сценарийін құрап үлгерген. Мысалы, Гонконгта қылмыскерлер deepfake технологиясымен тұтас бейнеконференция ұйымдастырған. Олар бірнеше адамның бейнесі мен даусын имитациялап, нәтижесінде бір үлкен корпорацияның қызметкерінен 25 миллион долларды қаржы директорының атынан алдап алған. Барлығы соншалықты шынайы көрінгендіктен, қызметкер фейк бейнелер мен нақты адамдарды ажырата алмаған.
Алаяқтар жасанды интеллект көмегімен түрлі фотосурет, бейнежазба, дауыс, т.б. жасау арқылы оларды келесі мақсаттарда пайдалана алады:
•Жеке тұлғаны анықтау үшін, мысалы, әлеуметтік желілерге немесе банк аккаунттарына кіру үшін.
•Сіздің қатысуыңызбен ұят немесе қорлайтын мазмұнды фото-бейнені жариялаумен қорқыту.
•Дезинформация тарату және жалған жаңалықтар жариялау.
•Белгілі бір адамның атынан күмәнді жобаларды жарнамалау.
•Бейнемазмұн жасау, онда таныстарыңыз немесе туыстарыңыз сізден шұғыл түрде ақша аударуды сұрайды.
Кейбір құпия лайфхактарды білсеңіз және мұқият болсаңыз, әңгімелесу барысында жанды адам емес, жасанды интеллект екенін анықтау мүмкін.
Әлеуметтік желіде...
Әлеуметтік желілерде жанды пайдаланушының мінез-құлқын имитациялайтын арнайы бағдарламалық қамтамасыз ету «әлеуметтік бот» деп аталады. Мұндай боттарды ресми мекемелер мен компаниялардың SMM бөлімдері жұмысты жүргізу, қызмет пен өнімін сату үшін қолданады. Сонымен қатар алаяқтар да фейк ақпарат тарату, тыйым салынған идеяларды насихаттау, пікірлерде агрессияны қоздыру және пайдаланушылардың жеке деректерін ұрлау үшін қолданады. Егер аккаунттың шынайылығына күмәндансаңыз, келесі кеңестерді пайдаланыңыз:
•Контенттің жариялану жиілігіне назар аударыңыз. Бір тақырыпта аптасына немесе тіпті күніне бірнеше посттың болуы, үнемі репосттар жариялап, түпнұсқа контенттің болмауы бұл аккаунтты жасанды интеллект басқарып отырғанының белгісі болуы мүмкін.
•Пайдаланушы жайлы жеке ақпарат бар-жоғын тексеріңіз. Егер ол көрсетілмесе және сурет орнына абстрактілі бейнелер қойылған болса, бұл аккаунттың шынайылығына күмән туғызады.
•Әртүрлі пайдаланушылардан бірдей мазмұндағы жарнамалық немесе провокациялық жарияланымдарға назар аударыңыз. Мысалы, бірқатар қауымдастықтарда бірдей посттар кездессе, бұл бірнеше бағдарланған аккаунттардың ұйымдасқан, жоспарлы жұмысы болуы мүмкін.
•Жеке хабарламалар арқылы сөйлесіп көріңіз. Примитивті жауаптар, бір-біріне қарама-қайшы сөздер немесе мүлде жауап болмауы – бот екендігін көрсетеді. Мысалы, жаңа танысқан адамнан оның қанша үй жануары барын сұрасаңыз, ол «7» деп жауап беріп, олардың есімдерін айта алмайды. Немесе бауырлары бар ма деп сұрасаңыз, ол «Білмеймін» деп жауап беруі кәдік.
Мәтіндік диалогта...
Жоғарыда аталған әлеуметтік боттар өздері де пайдаланушылармен жеке хабарламаларда, пікірлерде және қоғамдық талқылауларда сөйлесе алады. Міне, оларды анықтаудың жолдары.
•Стильге назар аударыңыз. Егер тым ресми тілде сөйлесе, ұзақ сөйлемдерді тез жазса, орфографиялық қателіктер мен эмодзилерді қолданбаса, онда бұл жасанды интеллект болу ықтималдығы жоғары. Себебі роботтар сөздер мен сөз тіркестерін жаттау арқылы коммуникацияны үйренеді. Сондықтан сөз арасында грамматикалық қате жіберуі сирек кездеседі.
•Алдағы күтілетін оқиғалар туралы ойын сұраңыз. Мысалы, жаңа фильмнің шығуы немесе енді өтетін спорттық ойын. Жасанды интеллектің өз пікірі болмайды, ол тек базаға сақталған ақпаратты қолданады. Егер сұрақ болашаққа қатысты болса, «жасанды» оны түсінбеуі немесе тым ресми жауап беруі мүмкін.
•Өткір әзіл айтып көріңіз. Кейбір боттар қарапайым әзілді түсінеді. Бірақ өткір ойлы сарказм немесе күрделі каламбурды түсіну қиын. Мысалы, егер: «Сен менің ең сенімді жақынымсың» деп айтсаңыз, бот бұл сөзді комплимент ретінде қабылдап, сізге «Мен де саған шексіз сенім артамын» деген сияқты мәтінде жауап қайтаруы мүмкін.
•Қателермен жазып көріңіз. Мысалы, «С2!ем! Сен мән6 т8сініз 9ұрсың ба?» деген секілді. Жанды адам болса, басқа әріптеріне қарап сөзді түсіне алуы мүмкін. ал бот оны елемейді немесе қайта сұрайды.
Әңгімелесу кезінде...
Генеративті жасанды интеллект адам дауысына ұқсас дыбыстарды тиімді түрде имитациялай алады. Дауыстың диапазоны, тембрі және эмоциялары нақты адам дауысына өте ұқсас болып келеді. Осы технологияны ірі компаниялар жиі пайдаланады, мысалы, онлайн дүкендерде немесе қолдау қызметтерінде, өйткені бұл қызметкерлердің уақытын айтарлықтай үнемдеуге көмектеседі. Бірақ мұндай дауыстар кейде клиенттің мәселесін шешу үшін емес, алдау мақсатында да пайдаланылуы мүмкін.
•Диалогтағы үзілістерге назар аударыңыз. Егер сөйлесу кезінде репликалар арасында үзіліс болмаса, бұл күмән тудырады. Жасанды интеллект адамнан бірнеше есе тез ақпарат өңдейтіндіктен, оны да тез жеткізеді. Кейбір боттар арнайы үзілістерді қосады, бірақ шынайы адамның реакциясында сөздер ұзартылып айтылуы немесе жаргон, қыстырма сөздер қолданады.
•Сұхбаттың тақырыбын аяқ асты өзгертіңіз. Мысалы, әңгімелесушінің әлеуметтік жағдайы, оқу орны немесе әке-шешесі туралы сұраңыз. Егер ол сасқалақтап қалса, екіұшты жауап берсе немесе мүлде не айтарын білмесе, бұл боттың белгілері.
•Қолдау қызметіне хабарласқанда мәселені нақты әрі егжей-тегжейлі сипаттаңыз. Жасанды интеллект қарапайым сұрақтарға жылдам жауап береді, бірақ күрделі мәселелерді түсіну мен шешуде ол адасып, маңызды ақпаратты өткізіп жіберуі мүмкін.
•Жасанды интеллектің дауысын пайдалану негізінен ойын-сауық саласында, видео жасау немесе дыбысты өңдеу үшін қолданылады. Бірақ, өкінішке орай, алаяқтар да бұл технологияны пайдаланады. Олар қолданушының аккаунтын бұзып, ескі аудио хабарламаларын тыңдап, соларды негізге ала отырып, туыстарынан ақша сұрайтын жалған хабарламалар жасайды. Мұндай хабарламаларды тексеру үшін адаммен басқа байланыс арналарынан байланысып, анықтап көріңіз. Әдетте хакерлер тек бір байланыс арнасына қол жеткізеді. Бұл алаяқтықтың жаңа түрі екенін ескеріп, балалар мен қарттар туыстарға ескерту жасалуы керек.
Бейнежазбаларда...
Жасанды интеллект тек дауысты ғана емес, адамдардың сыртқы келбетін де имитациялай алады — мысалы, бейнеқоңырауларда. Егер сізге күмәнді бейнеқоңырау келсе және сізден ақша аудару немесе банк картасының деректерін сұраса, тіпті дауыс пен сыртқы келбеті таныс адамға ұқсаса да, бет әлпеті мен қимылдарға назар аударыңыз. Фейк бейнелерде кей тұстарда ерін қимылы сөздермен сәйкес келмеуі мүмкін, эмоцияларға мимика сәйкес келмейді, бірдей қимылдар қайталануы мүмкін. Адам денесінің контурының анық болмауы және бұрмалануы да алаңдаушылық туғызуға тиіс. Дәл қазіргі уақытта жасанды интеллект саусақ қимылдары, басқа да ұсақ дене мүшелерінің қозғалысын дәлме-дәл қайталай алмайды. Сонымен қатар, жарықтың біркелкі болмауы, тері түсіндегі айырмашылықтарды да дабыл белгілері деп қабылдаңыз.
Алаяқтардың сізді алдауына қарсы негізгі қорғауыңыз – сын тұрғысынан ойлау, білім және ақыл-парасат. Әлеуметтік желілерде, мессенджерлерде, электрондық поштада алған ақпараттың барлығына күмәнмен қарап, ең алдымен сыни ойлау сүзгісінен өткізіңіз. Сену-сенбеуді сосын шешерсіз. Ешқашан асығыс шешімдер қабылдамаңыз және қандай да бір әрекетке жетелейтін ақпаратты мұқият тексеріңіз.
Дайындаған: Б. ЕРМАН,
ТАҒЫ ДА ОҚЫҢЫЗ: