베트남어 원문 라오동AI에 의해 번역됨
과학기술부에 따르면 AI가 피해를 입혔을 때 법적 책임의 공백 문제는 제기되는 심각한 과제입니다. 그래픽: 깟띠엔
과학기술부에 따르면 AI가 피해를 입혔을 때 법적 책임의 공백 문제는 제기되는 심각한 과제입니다. 그래픽: 깟띠엔

AI로 인한 피해 시 법적 책임 문제의 심각성

Trí Minh (báo lao động) 03/03/2026 08:39 (GMT+7)

인공 지능(AI)이 피해를 입힐 때 법적 책임의 격차 문제는 제기되는 심각한 과제입니다.

법무부는 최근 인공 지능법의 일부 조항 및 시행 조치를 상세히 규정하는 정부 법령 초안 심사 서류를 공개했습니다.

보고서 초안에서 과학기술부는 AI 시행 실태가 윤리적 위험, 알고리즘 편견, 개인 정보 침해, 개인 데이터 보호, 영업 비밀 및 AI 응용 분야에서의 차별과 같은 많은 문제를 야기할 수 있다고 밝혔습니다. AI 시스템 위험 분류 및 통제 메커니즘 부족; AI 시스템, 특히 고위험 AI 시스템에 대한 검증, 허가 및 감독 메커니즘 부족; AI 시스템이 손해를 입혔을 때 책임 추적의 어려움; AI 계산 인프라 구축 및 공유에 효과적인 협력 메커니즘 부족;...

이 모든 것이 베트남에서 인공 지능 시스템의 연구, 개발, 구현 및 사용에 큰 장벽을 만듭니다.

기능 기관은 다음과 같은 몇 가지 일반적인 문제를 식별합니다.

AI의 핵심 자원인 데이터 관리, 활용 및 보호의 부적절성: 결의안 57-NQ/TW는 "데이터를 주요 생산 자료로 전환"하고 "데이터 경제, 데이터 시장을 개발"해야 한다고 명시했습니다.

그러나 AI 모델 교육을 위한 데이터 수집, 처리, 공유 및 사용의 실제는 많은 어려움에 직면해 있습니다. 개인 데이터 보호에 대한 현재 규정은 있지만 AI의 특정 문제(예: 집계 데이터, 익명 데이터, 해석 권한)를 해결하기에는 충분히 상세하지 않습니다. 국가 데이터베이스, 산업 데이터베이스 간의 데이터 연결 및 공유가 여전히 느리고 대규모 AI 시스템 개발 요구 사항을 충족하지 못하고 있습니다.

주목할 만한 점은 AI가 피해를 입혔을 때 법적 책임의 공백 문제입니다. 이것은 실제 상황에서 가장 심각한 법적 문제 중 하나입니다. AI 시스템이 피해를 입혔을 때(예: 자율 주행차 사고, 의료 진단 소프트웨어가 잘못된 결과를 제공, 신용 시스템이 차별적으로 자동으로 대출을 거부), 누가 책임을 져야 합니까? 개발자, 제조업체, 사용자 또는 AI 시스템 자체입니까? 현행 민법, 형법은 이러한 상황에 대한 만족스러운 답변이 없습니다. 이것은 소비자에게 혼란을 야기하고 기업에 위험을 초래합니다.

또한 국가 안보, 사회 질서 및 윤리적 가치에 대한 과제가 있습니다. AI의 발전은 매우 긴급한 비전통적 안보 위험을 제기합니다. 딥페이크 기술은 허위 정보, 비방, 사기 또는 사회 정치적 불안정을 유발하는 데 남용됩니다.

따라서 과학기술부에 따르면 베트남에서 인공 지능 연구, 개발, 구현 및 사용 활동을 관리하고 촉진하기 위한 견고한 기반을 마련하기 위해 인공 지능법 시행 지침에 대한 세부 규정을 구축하는 것이 필요합니다.

포괄적인 법률 시스템을 갖추는 것은 베트남이 도전을 극복하고 역동적인 AI 경제를 구축하며 기술 자립 능력이 있는 국가로서의 위상을 확고히 하는 데 도움이 되는 지렛대가 될 것입니다.

원본은 여기에서 보기

같은 카테고리