
Исполнительный орган Европейского Союза (ЕС) внес на рассмотрение проект постановления, которое облегчит физическим и юридическим лицам возможность подавать иски против компаний, чьи продукты – включая дроны – причинили ущерб, вред или травмы из-за неисправности или неправильного использования интегрированных технологий искусственного интеллекта (ИИ).
Европейская комиссия вчера представила Директиву по ИИ для решения общественных опасений не только относительно потенциальных проблем, которые могут возникнуть у продуктов, таких как дроны, оснащенных интеллектуальными возможностями, но и относительно текущих юридических трудностей с успешным предъявлением исков по таким происшествиям. Таким образом, предложение перекладывает бремя юридического доказательства ответственности с истцов на компании, создавшие приложения ИИ, которые стали причиной аварий, или, применительно, на производителей или пользователей товаров, вызвавших претензии.
Важно отметить, что пакет правил ЕС позволит жертвам случаев сбоя ИИ – например, при крушении автономного дрона, повлекшем травмы, или при оценке имущества, неверные выводы которой привели к снижению стоимости – подавать иски на основании нарушений основных прав, включая конфиденциальность. Основываясь на этих священных принципах ЕС, предложение предоставляет истцам более сильную юридическую позицию с самого начала разбирательства и перекладывает на компанию-разработчика обязанность доказывать, что задействованный ИИ не был виновником.
Читайте: Число инцидентов с дронами снизилось в годовом отчете EASA о безопасности за 2021 год
Действующее законодательство требует от пострадавших нанимать дорогостоящие юридические команды для доказательства вины «умных» приложений – задача трудная, если не невыполнимая, учитывая сложную, сверхсовременную «черную» природу систем ИИ. В случае принятия новых правил суды смогут предписывать раскрывать эту неизвестность компаниям, занимающимся ИИ, предоставляя подробную информацию, подтверждающую, что их технологии и меры контроля рисков функционировали как задумано.
«Новые правила предоставят жертвам ущерба, причиненного системами ИИ, равные шансы и доступ к справедливому судебному разбирательству и возмещению ущерба», – заявил комиссар ЕС по вопросам юстиции Дидье Рейндерс, описывая инициативу. «Если мы хотим, чтобы потребители и пользователи по-настоящему доверяли приложениям ИИ, мы должны быть уверены, что есть возможность такого доступа к компенсации и доступа к реальному судебному решению, если оно потребуется, без слишком большого количества препятствий, таких как непрозрачность систем».
Учитывая распространение ИИ не только в платформах дронов, но и в растущем числе технологически продвинутых автоматизированных систем, потенциал для будущих судебных разбирательств в ЕС в рамках предлагаемого закона огромен. Представьте, например, студента, чьи экзамены пострадали от ошибочной машинной оценки, идеальное заявление соискателя работы, отклоненное подозрительным компьютерным анализом, или человека, пострадавшего от беспилотного автомобиля.
Читайте: Польша инициирует общеевропейские испытания городских дронов и UAM
Однако предложение также позволяет разработчикам ИИ избежать юридического преследования, представляя доказательства того, что компании, интегрировавшие их приложения, или конечные пользователи, эксплуатировавшие их во время возникновения проблем, не использовали технологию должным образом.
У лоббистов технологических компаний, на которых могут повлиять предлагаемые правила ЕС, будет время оказать давление на чиновников, прежде чем они вступят в силу – если, конечно, они вообще вступят.
Инициатива сначала должна быть одобрена всеми 27 национальными правительствами в Совете ЕС и пройти одобрение в Европарламенте – крайне независимом органе, который может выступить против текущего текста, посчитав его ослабленным аспектом корпоративной ответственности, содержавшимся в его предыдущих рекомендациях.
Фото: Christian Lue/Unsplash