2021-04-21 / European Commission website / European Commission
원문보기 :
proposal-regulation-laying-down-harmonised-rules-artificial-intelligence
The Commission is proposing the first ever legal framework on AI, which addresses the risks of AI and positions Europe to play a leading role globally.
2021년 4월 21일 European Commission AI Act 발표
적용대상 : 역내 AI 시스템이 배치되어 있거나, 역내에 위치하는 사람들에게 영향을 미치는 모든 AI 시스템에 적용
- AI 시스템 공급자(개발자) 및 사용자 모두에게 적용됨
- 매출액 / 회사 규모에 따른 예외가 없음
- 개인적 비전문적(private, non-professional uses) 활용에는 미 적용
Risk-based approach : 인간의 기본권리 및 생명에 미치는 위험 정도에 따라 4가지로 구분
- Unacceptable risk: A very limited set of particularly harmful uses of AI that contravene EU values because they violate fundamental rights (e.g. social scoring by governments, exploitation of vulnerabilities of children, use of subliminal techniques, and – subject to narrow exceptions – live remote biometric identification systems in publicly accessible spaces used for law enforcement purposes) will be banned.
- 금지된 유형 : 기본권을 침해하는 매우 제한된 유형
- 예: 정부에 의한 scoring, 아동 취약점 이용, 잠재의식 사용 기술, 공개적 접근 가능한 실시간 원격 생체 인식(live remote biometric identification systems)
- High-risk: A limited number of AI systems defined in the proposal, creating an adverse impact on people’s safety or their fundamental rights (as protected by the EU Charter of Fundamental Rights) are considered to be high-risk.
- e.g. biometric identification and categorisation, critical infrastructure, education, recruitment and employment, provision of important public and private services as well as law enforcement, asylum and migration and justice
- 높은 위험 유형 : EU Charter of Fundamental Rights으로 보호되는 기본권에 악영향을 미치는 유형, Annex 3참조
- 생체인식 및 분류, 중요 인프라, 교육, 채용 및 고용, 주요 공적/사적 서비스, 법집행, 망명, 이민 등
- Limited risk: For certain AI systems specific transparency requirements are imposed, for example where there is a clear risk of manipulation (e.g. via the use of chatbots). Users should be aware that they are interacting with a machine.
- 사용자에게 AI 시스템임을 알려야 하는 유형
- e.g. 사람과 상호작용 하는 인터페이스 (챗봇, 딥페이크 등), 감정인식 시스템
- Minimal risk: All other AI systems can be developed and used subject to the existing legislation without additional legal obligations. The vast majority of AI systems currently used in the EU fall into this category. Voluntarily, providers of those systems may choose to apply the requirements for trustworthy AI and adhere to voluntary codes of conduct.
- 위의 사항들을 제외한 대부분의 AI 시스템으로 추가적 법적 의무 없이 사용 가능한 범주
- 자발적으로 AI 요구사항 준수를 선택 가능함
침해 처벌
- 금지 조항 위반 : Up to €30m or 6% of the total worldwide annual turnover of the preceding financial year (whichever is higher) for infringements on prohibited practices or non-compliance related to requirements on data;
- 주의 의무 위반 : Up to €20m or 4% of the total worldwide annual turnover of the preceding financial year for non-compliance with any of the other requirements or obligations of the Regulation;
- 인증 및 감시기구에 부정확 정보 제공시 : Up to €10m or 2% of the total worldwide annual turnover of the preceding financial year for the supply of incorrect, incomplete or misleading information to notified bodies and national competent authorities in reply to a request.
AI 전략 채택 국가
- 현재 총 19개 회원국 (불가리아, 키프로스, 체코, 덴마크, 에스토니아, 핀란드, 프랑스, 독일, 헝가리, 라트비아, 리투아니아, 룩셈부르크, 몰타, 네덜란드, 포르투갈, 슬로바키아, 스웨덴, 스페인, 폴란드) 참여