인공 지능 기술 (AI)의 역동적 인 발전과 사회, 경제 및 정치 생활에 대한 영향이 증가함에 따라 유럽 연합은이 분야를 규제하는 최초의 포괄적 인 법적 틀을 만들려고 시도했다. 결과는 2024 년 6 월 13 일 유럽 의회와 협의회 (EU) 2024/1689의 규제로 인공 지능 및 규정에 대한 조화 조정 조항 (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/119 I (eu) 2018/119 I의 조화 조항을 수립했습니다. (EU) 2019/2144 및 Directive 2014/90/EU, (EU) 2016/797 I (EU) 2020/1828 (인공 지능에 관한 행위), 이하 INAFTER : AI ACT. AI ACT 목표는 책임과 혁신의 균형을 유지하고 유럽 시장의 경쟁력을 증진시켜 기본 권리 보호를 조정하려는 시도로 포함될 수 있습니다. AI Act는 유럽 의회 의원의 의견에 따라 기술이 사람을 위협 할 수있는 경계를 설정합니다. 유럽 연합은 인공 지능을 신뢰할 수있는 윤리 표준 분야의 세계 지도자가되기를 원합니다. 유럽 연합, 미국 및 중국은 현재 AI와 관련하여 급격히 다른 개발 및 규제 모델을 취하고 있음을 주목할 가치가 있습니다.
유럽 비전은 EU의 기본 권리 카드에 주로 포함 된 가치에 기초하여 개인 및 공익의 보호의 우선 순위, AI 시스템의 강제 분류를 인식하고, 정확성, 신뢰성
및 사이버 보안과 관련된 많은 요구 사항을 포함하여 많은 요구 사항을 설정하는 어려운 규제 접근법을 기반으로합니다. 사회적 점수 또는 사회적 점수 조작. 미국은 AI와 관련된 위협에 대해 점점 더 잘 알고 있지만 여전히 최소한의 규제와 최대 혁신의 원칙을 준수하지만 중국은 국가 차원에서 AI 개발을 집중적으로 지원하지만 국가의 관심을 실현하고 사회 통제 메커니즘을 개선하는 도구를 보았습니다. 이러한 서로 다른 모델의 공존은 AI 표준의 글로벌 조화 가능성과 국제 디지털 질서의 미래에 대한 의문을 제기합니다. 법, 시장 또는 강도가 승리 할 것인가?
위에서 설명한 가정에서 나오는 AI Act는 인공 지능 분야의 특정 관행을 금지하고 예술에서 언급합니다. 5 기본 권리 위반과 사회에 대한 높은 위험으로 인해 유럽 연합에서 용납 할 수없는 것으로 간주되는 사람들. 예를 들어 다음과 같이 적용됩니다.
- 잠재 의식, 조작 또는 오해의 소지가있는 기술 (예를 들어, 의식없이 소비자 결정에 영향을 줄 수있는 무의식적 인 시각적 또는 건전한 자극을 사용하여 AI 광고 시스템을 기반으로 할 수 있습니다.
- 소셜 스코어링 시스템, "좋은 행동"에 대한 시민 포인트 (예 : 규정 준수) 및 "결과가 낮은"사람들에게 공공 서비스 접근을 제한하는 소셜 스코어링 시스템,
- 프로파일 링에 기초 하여만 범죄를 저지르는 위험을 평가, 즉 구체적인 증거없이 인구 통계 학적 또는 사회적 특징에 기초하여 범죄를 저지르는 경향을 제공하는 시스템,
- 직장 및 교육 기관의 감정에 대한 추론, 즉 음성 또는 얼굴 표현을 사용하여 콜센터 직원의 감정을 모니터링하는 시스템과 같은 시스템의 성능을 평가합니다.
동시에, 예술에 설명 된 높은 위험 AI 시스템에 비해. 6 및 부록 III에서 AI 법, 즉 기본 권리, 건강, 안보 또는 시민의 자유에 대한 잠재적 영향으로 인해 가장 엄격한 규제 요건의 대상이되는 AI Act는 많은 의무를 소개합니다. 미술. 15 AI Act에 따르면, 높은 리스크 AI 시스템이 적절한 수준의 정확도, 신뢰성 및 사이버 보안을 달성하고 수명주기 동안 이러한 측면에서 일관되게 작동하는 방식으로 설계 및 개발된다. 그래서 그들은 다음과 같아야합니다.
- 견고하고 오류, 결함 또는 불일치에 대한 내성 및 중복성 또는 시스템 전환과 같은 기술 및 조직 측정 덕분 (소위 "실패-안전")로 간섭 및 실패에도 불구하고 올바르게 작동 할 수 있어야합니다.
- 정확하고 즉, 알고리즘은 결과의 높은 수준의 정확성을 유지해야하며, 사용의 목적과 컨텍스트에 적합합니다.
- 사이버 션에 저항하여 훈련 데이터 세트 (데이터 중독) 또는 훈련에 사용 된 요소를 조작하는 공격을 방지함으로써 미리 표시 (모델을 중독), AI 모델에서 오류를 일으키는 입력 데이터를 입력하는 (모델을 우회하거나) 이러한 위협에 대한 공격을 측정하는 데 오류를 일으키는 입력 데이터를 입력하는 공격을 방지하는 수단을 구현함으로써.
실제로 이것은 AI 시스템의 제조업체와 공급 업체가 예를 들어 사전 전송 테스트, 감사 메커니즘 소개, 교육 및 테스트 데이터의 모니터링 및 안전한 관리, 포괄적 인 기술 문서 유지
AI ACT가 사용하는 일반 표준을 올바르게 해석 할 가능성뿐만 아니라 규제 요구 사항의 구현 비용에 대한 평가는 혁신
과 규제 사이의 균형이 유지 될지 여부와 너무 엄격한 요구 사항이 유럽 AI 부문의 경쟁력을 제한하지 않을지 여부를 결정할 것입니다.
미국 기업가, IT 전문가, AI 전문가
및 미래 학자 인 Jerry Kaplan은 우리의 저서 "Generative AI"의 전문가이자 미래 학자로서 현재 새로운 르네상스의 가장자리에 있으며, 우리는 미래에 "가장 전문적이고 객관적이고 신뢰할 수있는 조언을 찾을 때 사람들이 아닌, 사람들이 아니라"기계에 중점을 둡니다. " 그의 의견으로는, AI 혁명은 주로 의료 시스템, 법률 시스템, 교육, 소프트웨어 엔지니어링 및 창의적인 경쟁에 의해 경험 될 것입니다. 미션에 따르면, Set Security-Energy-Technology Foundation은 보안 요구 사항에 따라 토론 및 부문 간 협력을 애니메이션하고 전문적인 전문 지식을 제공 할 것입니다.