인공지능(AI) 기술의 역동적인 발전과 사회, 경제, 정치 생활에 미치는 영향력의 증대는 유럽연합(EU)이 이 분야를 규제하는 세계 최초의 포괄적인 법적 틀을 마련하도록 이끌었습니다. 그 결과, 인공지능에 관한 조화로운 규칙을 정하고 유럽연합 규정(EC) 제300/2008호, 유럽연합 규정(EU) 제167/2013호, 유럽연합 규정(EU) 제168/2013호, 유럽연합 규정(EU) 제2018/858호, 유럽연합 규정(EU) 제2018/1139호, 유럽연합 규정(EU) 제2019/2144호 및 지침(EU) 제2014/90/EU호, 유럽연합 규정(EU) 제2016/797호, 유럽연합 규정(EU) 제2020/1828호를 개정하는 2024년 6월 13일 유럽의회 및 이사회 규정(EU) 2024/1689호(이하 "인공지능법")가 제정되었습니다. 인공지능법의 목표는 혁신과 책임 사이의 균형을 맞추고, 기본권 보호와 유럽 시장 경쟁력 증진을 조화시키려는 시도로 요약할 수 있습니다. 따라서 인공지능법은 유럽 입법자들이 판단하기에 기술이 인간에게 위협이 될 수 있는 영역에 대한 경계를 설정합니다. 유럽연합은 신뢰할 수 있는 인공지능을 촉진하는 윤리적 기준 분야에서 세계적인 선도자가 되는 것을 목표로 합니다. 주목할 만한 점은 유럽연합, 미국, 중국이 현재 인공지능에 대해 근본적으로 다른 개발 및 규제 모델을 채택하고 있다는 것입니다.
유럽의 비전은 EU 기본권 헌장에 명시된 가치를 기반으로 개인의 보호와 공익을 최우선으로 하는 강력한 규제 접근 방식에 바탕을 두고 있습니다. 유럽은 AI 시스템의 분류를 의무화하고, 정확성, 안정성
, 사이버 보안 등을 포함한 다양한 요건을 부과하며, 소셜 스코어링 및 조작과 같은 행위를 금지합니다. AI 관련 위험성을 점점 더 인식하고 있는 미국은 여전히 최소한의 규제와 최대한의 혁신이라는 원칙을 고수하고 있는 반면, 중국은 국가 차원에서 AI 개발을 적극적으로 지원하면서도 이를 국가 이익 추구 및 사회 통제 메커니즘 강화의 도구로 간주합니다. 이러한 다양한 모델의 공존은 AI 표준의 세계적 조화 가능성과 국제 디지털 질서의 미래에 대한 의문을 제기합니다. 법, 시장, 아니면 무력 중 어느 쪽이 승리할 것인가?
위에서 설명한 가정에 따라, 인공지능법은 특정 인공지능 관행을 금지하고 있으며, 제5조에서는 기본권을 침해하고 사회에 높은 위험을 초래한다는 이유로 유럽 연합에서 용납될 수 없는 것으로 간주되는 관행들을 열거하고 있습니다. 예를 들어 다음과 같은 것들이 포함됩니다
- 잠재의식적, 조작적 또는 기만적인 기법(예를 들어, AI 기반 광고 시스템은 소비자가 인지하지 못하는 사이에 시각적 또는 청각적 자극을 사용하여 소비자의 의사 결정에 영향을 미치고, 결과적으로 부정적인 구매 결정을 유도할 수 있습니다.)
- 사회적 점수 시스템은 시민들의 "모범적인 행동"(예: 규정 준수)에 점수를 부여하고 "낮은 점수"를 받은 사람들의 공공 서비스 이용을 제한합니다
- 구체적인 증거 없이 인구통계학적 또는 사회적 특성을 기반으로 범죄를 저지를 가능성을 예측하는 시스템, 즉 프로파일링에만 의존하여 범죄 위험을 평가하는 것
- 예를 들어, 직장 및 교육 기관에서 감정을 추론하는 행위, 즉 음성이나 얼굴 표정 분석을 통해 콜센터 직원의 감정을 모니터링하여 업무 성과를 평가하는 시스템은 금지됩니다
동시에, 인공지능법은 제6조 및 부록 III에 정의된 고위험 인공지능 시스템에 대해 여러 가지 의무를 부과합니다. 이러한 시스템은 기본권, 건강, 안전 또는 시민의 자유에 미칠 수 있는 잠재적 영향 때문에 가장 엄격한 규제 요건을 적용받습니다. 특히 중요한 것은 인공지능법 제15조로, 고위험 인공지능 시스템은 적절한 수준의 정확성, 견고성 및 사이버 보안을 달성하도록 설계 및 개발되어야 하며, 수명 주기 전반에 걸쳐 이러한 측면에서 일관된 성능을 보여야 한다고 규정하고 있습니다. 따라서 이러한 시스템은 다음과 같은 요건을 충족해야 합니다
- 견고하여 오류, 결함 또는 불일치에 강해야 하며, 중복성이나 시스템을 안전한 상태로 전환하는 소위 "페일세이프"와 같은 기술적 및 조직적 조치 덕분에 중단 및 고장에도 불구하고 올바르게 작동할 수 있어야 합니다
- 정확성, 즉 알고리즘은 목적과 사용 맥락에 적합한 높은 수준의 결과 정확도를 유지해야 합니다
- 훈련 데이터셋에 대한 공격(데이터 오염) 또는 사전 훈련된 훈련 요소에 대한 공격(모델 오염), AI 모델에 오류를 유발하기 위한 입력(적대적 예제 또는 모델 우회), 기밀성 공격 또는 모델 결함에 대한 공격을 예방, 탐지, 대응, 해결 및 제어하는 조치를 구현하여 사이버 위협에 대한 복원력을 확보합니다.
실제로 이는 AI 시스템 생산자와 공급업체가 구현 전 테스트, 감사 메커니즘 도입, 훈련 및 테스트 데이터의 모니터링 및 안전한 관리, 그리고 포괄적인 기술 문서 유지 관리 등 여러 가지 활동을 수행해야 함을 의미합니다
규제 요건 이행 비용 평가와 인공지능법에 사용된 일반 기준을 올바르게 해석할 가능성은 혁신
과 규제 간의 균형이 유지될지, 그리고 지나치게 엄격한 요건이 궁극적으로 유럽 인공지능 분야의 경쟁력을 저해할지 여부를 결정할 것입니다.
미국의 기업가이자 컴퓨터 과학자, AI 전문가
, 미래학자인 제리 카플란은 그의 저서 "생성형 AI(Generative AI)"에서 우리가 현재 새로운 르네상스, 즉 기계로 향하는 거대한 문화적 변화의 문턱에 서 있다고 예측합니다. 이는 "미래에 가장 전문적이고 객관적이며 신뢰할 수 있는 조언을 구할 때 인간이 아닌 기계에 의존하게 될 것"임을 의미합니다. 그의 견해에 따르면, AI 혁명은 주로 의료 시스템, 법률 시스템, 교육, 소프트웨어 엔지니어링 및 창의적인 직종에 영향을 미칠 것입니다. SET 보안-에너지-기술 재단은 그 사명에 따라 보안 요구 사항에 부합하는 혁신을 지원하고, 토론과 분야 간 협력을 촉진하며, 전문적인 지식을 제공할 것입니다.


