Будь в центре событий с нами!

Найден способ поймать ИИ на лжи

Найден способ поймать ИИ на лжи

Nature: ИИ можно поймать на лжи, если соотносить его ответы меж собой

Английские ученые научились буквально опрелелять, когда чат-боты на базе искусственного ума (ИИ) врут. Исследование было размещено в журнальчике Nature.

По словам профессионалов, к современным чат-ботам нередко можно использовать термин конфабуляция — проигрывание мемуаров, в каких настоящие факты смешиваются с полностью измышленным событиями. Ученые отыскали способ поймать ИИ на лжи, используя новейший способ анализа.

В материале говорится, что ChatGPT и подобные ему инструменты практически не могут лгать, но они могут выдавать неточные данные — в случае, если не владеют всей полнотой инфы. Также на почти все вопросцы можно ответить по-разному, из-за чего же может произойти статистическая неопределенность. Таковая ситуация возникает, когда чат-бот не уверен, как сконструировать верный ответ, либо не понимает ответа в принципе.

Исследователи решили сосредоточиться на том, что они именуют семантической энтропией. Спецы задают ИИ один и этот же вопросец пару раз, а потом определяют, сколько ответов семантически эквивалентны. Если огромное число имеет одно и то же значение, то модель ИИ, быстрее всего, не уверена в формулировке, но имеет верный ответ. В неприятном случае чат-бот может лгать.

«Наш способ работает методом подборки нескольких вероятных ответов на любой вопросец и их алгоритмической кластеризации в ответы», — растолковали ученые. По их словам, если из предложения А следует, что предложение Б поистине, и напротив, то можно считать, что они находятся в одном семантическом кластере.

В конце июня спецы издания Lifewire раскритиковали модель искусственного ума (ИИ), представленную компанией Apple. По их воззрению, модель может злоупотреблять авторским правом — в этом смысле она не ужаснее, да и не лучше подобных ИИ на рынке.