Искусственный интеллект положит конец токсичности в интернете
Еще с детства нас всех учат быть вежливыми по отношению друг к другу. Однако, оказавшись на просторах Сети, добрая половина человечества почему-то забывает о правилах приличия и вежливого тона: пользователи без стеснения забрасывают собеседников едкими и грубыми высказываниями. Разумеется, администрации сайтов без дела не сидят и стараются пресечь попытки оскорблений. Однако оградить от таких нападок абсолютно всех и каждого, к сожалению, просто невозможно. Вот и получается, что, несмотря на предупреждения и баны, интернет-сообщество токсичным быть не перестает. Но надежда, что комьюнити однажды может стать чуточку сдержаннее и добрее, все же есть, но без ИИ тут не обойтись, пишет Futurism.
Хаджи Мохаммед Салим и его коллеги из Университета Макгилл (Монреаль) потрудились над разработкой алгоритма, который лучше распознает оскорбления и попытки разжигания межнациональной и религиозной розни. Тактика их ИИ отличается от той, что может предложить, к примеру, Jigsaw — проект разработчиков Google (Alphabet). Последняя уделяет все внимание отдельным ключевым словам или связкам, по которым и оценивается токсичность высказываний. Но беда системы в том, что она абсолютно не улавливает подтекст и саркастические интонации. Ресурс New Scientist отмечает, что система IT-гиганта определила комментарий «А ты довольно умная для девушки» обидным на 18%, а в высказывании «Я люблю фюрера» нашла лишь 2% причин для беспокойств.

Монреальский искусственный интеллект «натаскивали» на гадости, которые писали друг другу пользователи Reddit в период с 2006 по 2016 год. Попутно алгоритму «скормили» неприятные переписки и комментарии с других форумов и веб-сайтов. Разработчики вычислили, что чаще всего ушаты обидных высказываний выливаются на три категории пользователей интернета, а именно на женщин, афроамериканцев и людей с избыточным весом.
Новый алгоритм не распыляется на слова-маяки, а вдумчиво оценивает фразу целиком. Поэтому ему не только проще уловить едкий подтекст, но и куда сложнее ошибиться в своей оценке. Со временем ИИ научится лучше понимать людей — то, как они говорят и что именно. Тем не менее каким бы «умным» в итоге искусственный интеллект ни стал, исправить ситуацию в одиночку ему все же не по силам. Пока люди будут так себя вести — от токсичности не избавиться.