Может ли искусственный интеллект помочь предотвратить самоубийство?

«Я не хочу больше жить :( :( :(» Это были последние слова, отправленные 14-летним ребенком из Майами, за год до того, как она запустила прямой эфир в Facebook. Ее двухчасовой эфир, где она была еще жива, посмотрели тысячи людей, включая друга, который вызвал полицию. К сожалению, полиция приехала слишком поздно и не успела спасти ее.

К сожалению, эта история не уникальна. Самоубийство является второй по значимости причиной смерти среди подростков в США, Европе и Юго-Восточной Азии. Каждый день миллионы сообщений в социальных сетях, чатов и запросов на Facebook, Snapchat, Google, Siri и Alexa отправляются людьми с разными психическими заболеваниями. При помощи социальных сетей можно отслеживать людей, наиболее подверженных риску самоубийства. Можно ли найти способ, чтобы технологические компании могли использовать эту информацию и вмешаться? Как Google или Сири должны ответить тому, кто ищет информацию о самоубийстве? Как должен Snapchat реагировать, когда два подростка тайно говорят о том, как покончить жизнь самоубийством?

Некоторые технические компании уже принимают меры. В США любой поиск в Google о симптомах клинической депрессии теперь запускает панель знаний и тест для депрессии (PHQ-9). Google заявила, что не будет связывать личность человека с их тестовыми ответами, но будет собирать анонимные данные для улучшения работы пользователей. Поскольку миллионы людей проводят такие онлайн-тесты, создается огромное количество данных, которые в конечном итоге могут быть полезны в сочетании с другой информацией о каждом пользователе для создания цифрового отпечатка депрессии.

В ответ на самоубийства в прямом эфире Facebook запустил алгоритм искусственного интеллекта (ИИ), который сканирует сообщения людей (в некоторых странах) на изображения или слова, которые могут сигнализировать о самоповреждении. Если они обнаруживают такое поведение, то принимают соответствующие меры. Люди не могут отказаться от этой инициативы Facebook. В первый месяц после его запуска генеральный директор Facebook Марк Цукерберг говорил, что алгоритм помог более чем 100 людям.

Однако сегодня способность алгоритмов ИИ анализировать настроение людей в социальных сетях по сообщениям несовершенна. Существуют широкие культурные различия в том, как выражаются психические заболевания, и, как известно, многие люди, планирующие самоубийство, отрицают это, усложняя исследования. Один из анализов 55 миллионов текстовых сообщений текстовой службы психического здоровья Crisis Text Line показал, что люди, рассматривающие самоубийство, с большей вероятностью используют слова, такие как «мост» или «таблетки», чем слово «самоубийство».

Несмотря на эти проблемы, Цукерберг был прав, когда он предвидел, что искусственный интеллект может обнаружить суицидальное поведение в Интернете быстрее, чем друг. Настало время для многостороннего партнерства между государственным и частным секторами стремительно наращивать эту инновацию, чтобы помочь всему обществу. Чтобы добиться успеха, такое партнерство должно вращаться вокруг ответственных руководящих принципов исследований, прозрачности алгоритмов и обеспечения открытого доступа к результатам исследований. Исследователи всего мира могут внести свой вклад и помочь предотвратить эрозию общественного доверия ко всем вовлеченным технологическим компаниям.

Достижения в области науки о мозге и ИИ имеют огромный потенциал для повышения благосостояния людей и психического здоровья, если они установлены в правильной этической и научной структуре.