Співробітники OpenAI попередили керівництво про відкриття, яке може нести загрозу - ЗМІ

Серед комп’ютерників давно точиться дискусія про небезпеку, яку становлять високоінтелектуальні машини.

Напередодні звільнення генерального директора OpenAI Сема Альтмана кілька дослідників написали лист до ради директорів, попереджаючи про потужне відкриття штучного інтелекту, яке, за їхніми словами, може загрожувати людству.

Про це повідомляє Reuters з посиланням на два джерела, знайомих із цим питанням.

Джерела назвали цей лист одним із факторів у довгому списку скарг правління, які призвели до звільнення Альтмана, серед яких були занепокоєння щодо комерціалізації авансів до розуміння наслідків.

OpenAI, який відмовився від коментарів, визнав у внутрішньому повідомленні для співробітників проект під назвою Q* і лист до правління перед подіями на вихідних, сказав один із співрозмовників.

Представник OpenAI сказав, що повідомлення, надіслане давнім керівником Мірою Мураті, попередило персонал про певні історії ЗМІ, не коментуючи їх точність.

Деякі співробітники OpenAI вважають, що Q* (вимовляється як Q-Star) може стати проривом у пошуках надінтелекту, також відомого як загальний штучний інтелект (AGI). 

Враховуючи величезні обчислювальні ресурси, нова модель здатна вирішувати певні математичні завдання, повідомила людина на умовах анонімності.

Попри те, що задачі вирішуються лише на рівні початкової школи, це дало дослідникам дуже оптимістичні очікування щодо майбутнього успіху Q*, повідомив співрозмовник агентства.

Дослідники вважають математику меже. розвитку генеративного ШІ. Наразі генеративний штучний інтелект добре справляється з написанням і перекладом мови, статистично передбачаючи наступне слово, і відповіді на те саме запитання можуть сильно відрізнятися. 

На відміну від калькулятора, який може виконувати обмежену кількість операцій, AGI може узагальнювати, вивчати та розуміти.

У своєму листі до правління дослідники відзначили майстерність і потенційну небезпеку штучного інтелекту, повідомили джерела, не уточнюючи точних проблем безпеки, зазначених у листі. 

Серед комп’ютерників давно точиться дискусія про небезпеку, яку становлять високоінтелектуальні машини, наприклад, якщо вони вирішать, що в їхніх інтересах знищення людства.

Недостаточно прав для комментирования. Выполните вход на сайт

Please publish modules in offcanvas position.