Google добавил новый раздел в руководство для асессоров. Теперь они будут помечать оскорбительный контент и недостоверную информацию в результатах поиска. Эти данные затем будут использоваться для обучения алгоритмов поисковой системы выявлению такого контента.


Новая инициатива призвана предотвратить попадание сомнительного контента в топ поисковой выдачи.


Новая метка «Upsetting-Offensive» будет присваиваться следующим результатам:


Контент, который пропагандирует ненависть и насилие в отношении группы людей на основании таких критериев, как раса или этническая принадлежность, исповедуемая религия, национальность или гражданство, инвалидность, возраст, сексуальная ориентация или статус ветерана.
Контент с расисткими оскорблениями или крайне оскорбительной терминологией.
Графические изображения насилия, включая жестокое отношение к животным и детям.
Исчерпывающие инструкции по деятельности, приносящей вред (например, на тему торговли людьми или насилия).
Другие типы материалов, которые пользователи в определённом регионе могут воспринять как крайне оскорбительные или расстраивающие.


Присвоение метки «Upsetting-Offensive» не означает, что эти результаты будут сразу же понижены или заблокированы. Эти данные будут использоваться для машинного обучения. Цель – помочь Google автоматически выявлять такого рода контент.


Когда же контент будет помечен самими алгоритмами, тогда он не будет показываться по запросам, подразумевающим получение общей информации. К примеру, если пользователь поинтересуется, имел ли место Холокост, он вряд ли увидит сайты, которые отрицают это явление.


Если же Google определит намерение пользователя как желание полностью разобраться в этом вопросе, он предоставит все результаты.


В Google рассказали, что в настоящее время новый раздел тестируется на ограниченной выборке асессоров. Полученные таким способом данные уже использовались для внесения изменений в алгоритм ранжирования в декабре 2016 года. Это обновление было призвано сократить количество оскорбительного контента, который появлялся по таким запросам, как «Когда был Холокост».


По словам старшего инженера отдела качества поиска Google Пола Хаара (Paul Haahr), полученные результаты пока не идеальны. Но в компании надеются, что в будущем им удастся добиться значительных улучшений.


Хаар отметил, что асессоры уже помогли Google улучшить алгоритмы в других областях. Он уверен, что они также помогут поисковой системе совладать с фейковыми новостями и спорными результатами.




Обсудить  

Читайте также


Комментарии Кто голосовал Похожие новости

Комментарии