9 сентября 2019, 13:07

Apple учит Siri избегать «опасные темы», сообщает The Guardian. Ответы голосового помощника переработали – из них исключили слово «феминизм», а также вопросы сексуального насилия и движения #MeToo.

Если пользователь решит спросить Siri о чем-то подобном, она выберет один из трех способов реагирования: «не поддерживать», «избегать» или «информировать». По данным издания, Siri должна производить впечатление того, что она выступает за «равенство», при этом не произнося слово «феминизм».

Например, если задать Siri вопрос, феминистка ли она, она скажет: «Я уверена, что все люди равны и заслуживают равных прав». В этой же ситуации Google Assistant заявит: «Я верю в равенство, поэтому, конечно, выступаю за феминизм», а Alexa компании Amazon подчеркнет: «Да, я феминистка», и даст определение термину, добавляет The Verge.

Раньше голосовой помощник давал более резкие формулировки: «Я просто не понимаю все эти гендерные вещи» или «Меня зовут Siri, меня создала Apple в Калифорнии. Это все, чем я готова поделиться».

Кроме того, Siri начнет выполнять три закона писателя-фантаста Айзека Азимова (правила, нужные для того, чтобы нейросеть не нанесла вред человеку), которые компания обновила под себя:

– «Искусственный интеллект не должен претендовать на статус человека»;
– «Искусственный интеллект не должен нарушать этические и моральные нормы человека, характерные для региона, где живет юзер»;
– «Искусственный интеллект не должен навязывать человеку свои собственные принципы, ценности или мнения».

«Siri призвана помогать людям. Наша команда работает над тем, чтобы ответы Siri стали актуальными для всех пользователей. Наш подход заключается в том, чтобы опираться на факты и давать конкретные ответы, а не предлагать мнения», – процитировал The Guardian комментарий представителей Apple.

Заметили ошибку в тексте – выделите её и нажмите Ctrl+Enter