ШІ-систему DeepCom від Microsoft розкритикували за дезінформацію

Дослідники з Прінстонського університету і Google Brain Research розкритикували алгоритм, який розроблений Microsoft Research Asia і Бейханскім університетом в Китаї. Алгоритм навчений генерувати коментарі до новин. Як вважають деякі експерти, технологія небезпечна тим, що її можна використовувати в ході кампаній по дезінформації.

«У статті пекінських дослідників представлена ​​нова техніка машинного навчання, основними застосуваннями якої, мабуть, є тролінг і дезінформація», – написав у своєму пості в твіттері Арвін Нараянан, фахівець з обчислювальної техніки з Центру політики в області інформаційних технологій Прінстонського університету .

Його підтримав Девід Ха, вчений з Google Brain Research. Ха з сарказмом запитав, чи випустять дослідники алгоритм під назвою DeepTroll або DeepWumao (Wumao – це назва для китайських інтернет-коментаторів, проплачених Комуністичною партією Китаю).

Алгоритм DeepCom може ефективно читати і коментувати новинні статті, написані англійською та китайською мовами. Генерація коментарів під статтями може зацікавити реальних читачів, стверджувалося в статті. Автори проекту також вважають, що «відкритий діалог дозволяє людям обговорювати свою думку і ділитися новою інформацією. Це, на їхню думку, добре і для видавців, оскільки коментарі також підвищують увагу читачів до написаної інформації і стимулюють перегляд сторінок , наводить слова авторів DeepCom газета The Register.

«Такі системи можуть забезпечити можливість коментування для новинного веб-сайту з нуля, розширити можливості читання менш коментованих новин статей і збагатити списки навичок інших додатків штучного інтелекту, таких як чат-боти», – заявляють розробники.

Як зазначено в статті на Ieee Spectrum, в документі, присвяченому алгоритму, який був завантажений на arXiv 26 вересня, не згадували етичні проблеми, які може викликати використання технології. Це упущення викликало дискусії в дослідницькому співтоваристві. У підсумку на arXiv завантажили оновлену статтю, присвячену цим проблемам. В оновленій версії, наприклад, було видалено заяву про те, що «автоматичне створення коментарів може бути корисно для реальних додатків».

«Ми знаємо про потенційні етичні проблеми, які може викликати застосування цих методів для створення новинних коментарів, що сприймаються як людські, – написали дослідники в підсумку оновленої статті. – Ми сподіваємося стимулювати обговорення кращих практик і засобів контролю за цими методами для більш відповідального використання технології».

Документ дослідники планують представити на конференції EMNLP, присвяченій обробці природної мови (напрямок штучного інтелекту і математичної лінгвістики, який вивчає проблеми комп’ютерного аналізу і синтезу природних мов), яка відбудеться в Гонконгу 7 листопада. Арвін Нараянан закликав учасників конференції задати питання авторам технології.

Джерело: habr.com

Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

*