Главная О Ростест-Москва Услуги Новости МЕТРОЛОГИЯ ИСПЫТАНИЯ СИ ПОВЕРКА КАЛИБРОВКА ИСПЫТАНИЯ продукции СЕРТИФИКАЦИЯ ?! СТАНДАРТИЗАЦИЯ Филиалы ПОДДЕРЖКА Благодарственные письма
Пн-Чт 8:30 - 17:30 Пт 8:30 - 16:15

Не навреди! Пришло время создать этические стандарты в области ИИ

18 июля 2019

Группа ведущих исследовательских организаций и компаний опубликовала в Пекине этические стандарты для исследований в области искусственного интеллекта /ИИ/ и призвали активизировать транснациональное сотрудничество в целях стимулирования развития индустрии ИИ.

«Пекинские принципы в области ИИ» опубликованы Пекинской академией искусственного интеллекта /BAAI/, Пекинским университетом, Университетом Цинхуа, Институтом автоматизации и Институтом компьютерных технологий Академии наук Китая, а также лигой предприятий, занимающихся разработками в сфере ИИ, включая Baidu, Alibaba and Tencent.

«Развитие ИИ бросает общие вызовы всему человечеству, и только благодаря сотрудничеству в глобальном масштабе можно создать индустрию ИИ, полезную как для человечества, так и для природы», – сказал директор BAAI Цзэн И. «Пекинские принципы в области ИИ» отражают наши позиции, взгляды и желание развертывать диалог с международным сообществом», – отметил он.

Принципы из 15 пунктов призывают сделать ИИ полезным и заслуживающим доверия.

«Выдвигая эти принципы, мы нацелены на развертывание углубленного сотрудничества между различными организациями, учреждениями и странами, только так можно достичь гармоничного и оптимального сосуществования в этой сфере», – сказал Цзэн И.

Согласно опубликованным принципам, цель развития ИИ заключается в продвижении прогресса общества и человеческой цивилизации, а также обеспечении устойчивого развития природы и общества.

Развитие ИИ, говорится в документе, должно руководствоваться системой человеческих ценностей, в полной мере учитывать неприкосновенность частной жизни, достоинство, свободы, независимость и права человека. Его нельзя использовать против человечества или для нанесения вреда людям.

Необходимо развивать ИИ с полным учетом факторов риска и с максимальными усилиями, чтобы избежать какие-либо потенциальные, этические, юридические и социальные угрозы, подчеркивается в документе.

Следует обеспечить разнообразие и инклюзивность развития ИИ, сделать его полезным для как можно большего числа людей, особенно тех социальных групп, кто игнорируется и недопредставлен в технологиях. Также необходимо принять меры для того, чтобы продвижение применения ИИ не повлияло на возможности трудоустройства людей, отмечается в документе.