ChatGPT – «Це ідеальний інструмент для дезінформації»
Глава відділу Пентагону, який відповідає за розробки, пов’язані зі штучним інтелектом, заявив, що генеративний штучний інтелект може стати ідеальним інструментом для дезінформації.
“Так, я наляканий до смерті. Це моя думка”, – заявив Крейг Мартелл, головний фахівець Міністерства оборони з цифрових технологій і штучного інтелекту, коли його запитали про генеративний штучний інтелект.
Він заявив, що такі мовні моделі ШІ, як ChatGPT, створюють реальну проблему: вони не розуміють контексту, а люди сприйматимуть їхні слова як факт.
“Це мій найбільший страх перед ChatGPT, – сказав він. – Він був навчений вільно висловлювати свої думки. Говорить вільно й авторитетно. Таким чином, ви вірите в те, що говорить ChatGPT, навіть коли інформація неправильна. І це означає, що це ідеальний інструмент для дезінформації… Нам дійсно потрібні інструменти для виявлення подібних ситуацій. І в нас немає цих інструментів. Ми відстаємо в цій боротьбі”.
Він закликав фахівців створити інструменти, необхідні для забезпечення точності інформації, отриманої з усіх генеративних моделей ШІ – від тексту до зображень.