![]() |
▲ 유럽연합(EU) 집행위원회는 2020년 2월 19일 디지털 변화에 대응하기 위한 경쟁력 강화방안과 미래전략을 담은 정책을 발표했다. 이 정책은 유럽 데이터 공동체(데이터 단일시장) 구축을 목적으로 하는 ‘유럽 데이터 전략’과 인공지능(AI) 기술의 안전한 활용과 도입을 촉진하기 위한 ‘인공지능 백서’로 구성됐다.(이미지=Korea-EU Research Centre) |
유럽연합(EU) 집행위원회는 2020년 2월 19일 디지털 변화에 대응하기 위한 경쟁력 강화방안과 미래전략을 담은 정책을 발표했다. 이 정책은 유럽 데이터 공동체(데이터 단일시장) 구축을 목적으로 하는 ‘유럽 데이터 전략’과 인공지능(AI) 기술의 안전한 활용과 도입을 촉진하기 위한 ‘인공지능 백서’로 구성됐다.
권오성 성신여대 교수 겸 변호사는 지난 11월 22일 라이더유니온·플랫폼희망찾기·공공운수노조·정의당 이은주 의원·노회찬재단이 국회 의원회관에서 공동 주최한 ‘플랫폼 알고리즘, 어떻게 볼 것인가?’ 토론회에서 ‘플랫폼 기업의 알고리즘 통제 문제에 대한 노동법적 쟁점’이란 주제로 발표하면서 플랫폼노동자를 위한 공정한 근로조건, 권리·사회적 보호 결의안을 채택한 EU의 정책 등을 소개했다.
AI 백서는 AI 이용에 대한 대중과 이해관계자, 유럽 의회, 유럽 이사회 등의 토론을 위한 자료다 AI의 수월성 생태계 구축과 관련해 민간과 공공 파트너십을 촉진하기 위한 정치적·기술적 측면을 제시하는 부분(EU의 AI 연구개발 투자를 촉진하기 위한 일반적인 정책 제안이 주된 내용)과 AI의 신뢰성 생태계 구축을 위한 향후 규제 프레임워크의 핵심 요소를 제안하는 부분(AI 분야에 적용 가능한 규제 프레임워크의 주요 기능을 제시)으로 나눠어 있다.
백서는 “AI 규제 프레임워크와 관련, 규제 개입이 위험에 비례해 이루어지기 위해서는 위험 기반 접근 방식이 유효하며 AI 적용이 고위험에 해당하는지를 판단할 수 있는 명확한 기준이 필요하다”고 했다.
또 중대한 위험이 발생할 것으로 예상되는 분야에서 AI 제품과 서비스가 사용되는 경우로서 법에 따라 구체적이고 명확하게 열거된 분야와 AI 제품 또는 서비스가 중대한 위험을 일으킬 수 있는 방식으로 사용될 것 등 두 가지 기준이 충족되는 경우 고위험으로 간주했다.
아울러 “이러한 기준 외에도 그 위험성으로 특정 목적의 AI 애플리케이션의 사용을 위험성이 높은 것으로 간주하는 예외적인 사례도 있을 수 있다”며 “개인과 EU 조약에서 고용 평등의 중요성에 비추어 볼 때 채용 과정과 근로자의 권리에 영향을 미치는 상황에서 AI 애플리케이션의 사용은 항상 고위험으로 간주할 수 있다”고 예시했다.
이러한 ‘고위험 AI 애플리케이션’에 부과되는 법적 의무 요구사항으로는 ‘학습용 데이터 관리 및 기록 보관, 사용자에게 인공지능 시스템에 관한 정보(능력과 한계 등) 제공, 견고성 및 정확성 확보, 시스템의 목적과 영향을 고려한 인간의 감독 등 6가지를 제시하고 있다.
즉, AI 시스템 훈련에 사용되는 데이터 세트와 관련해서는 AI 시스템을 광범위하게 훈련하고 위험한 상황을 피하기 위한 모든 시나리오를 포괄하는 데이터 세트를 준비할 것, 해당 데이터 세트로 훈련받은 AI 시스템이 부당한 차별을 일으키지 않도록 합리적 조치를 취할 것, 인공지능 기반의 제품 및 서비스를 사용하는 동안 프라이버시와 개인정보를 보호할 수 있도록 할 것, AI 시스템의 복잡성과 불투명성을 고려해 AI의 훈련과 테스트에 사용되는 데이터 세트에 대해 정확한 기록을 유지할 것 등을 제시하고 있다.
이외에 투명성 확보를 위해 고위험 AI 시스템 사용에 대한 적절한 정보를 사전에 제공하도록 하고, 신뢰성 확보를 위해서는 AI 시스템과 고위험 AI의 응용 프로그램이 기술적으로 견고하고 정확해야 하며 이를 위해 피해 발생 가능성을 최소화할 합리적인 조치를 취해야 한다고 했다.
AI 시스템이 인간의 자율성을 훼손하거나 부작용을 유발하지 않도록 때에 따라 다양하고 적절한 수준에서 인간의 감독 활동을 인정할 것과 EU집행위원회는 원격 생체인식 기술의 사용이 정당화될 수 있는 상황과 이때 적용할 수 있는 안전장치에 대한 광범위한 공개 토론을 개시할 예정이라는 것도 제시했다.
![]() |
▲ EU 인공지능 우수성과 신뢰도 제고 방안(자료=정보통신기획평가원) |
◇ EU 의회, 플랫폼노동자 위한 사회적 보호 결의안 채택
유럽연합 의회는 지난해 9월 16일 디지털 발전과 연계된 새로운 고용 형태인 플랫폼노동자를 위한 공정한 근로조건, 권리·사회적 보호 결의안을 채택했다.
해당 결의안의 24항은 ‘노동에서 알고리즘을 이용하는 것은 노동자들에 대해 투명하고 비차별적이며 신뢰할 수 있고 윤리적이어야 한다. 알고리즘의 투명성과 비차별성은 업무 배정과 배분, 가격 책정, 광고, 평점 및 상호작용에 적용돼야 한다.’고 규정하고 있다.
또 알고리즘 관리 기능은, 특히 업무 배정·평점·정지 절차·가격책정 또는 이에 대한 모든 변경은 이해할 수 있게 설명되고 명확하며 최신 방식으로 전달돼야 하고 사회적 대화의 일부여야 하는 한편 영업비밀을 존중해야 한다고 했다.
모든 알고리즘에 의한 결정은 윤리적이고 설명할 수 있으며 적절한 경우 철회될 수 있어야 한다는 점도 강조했다. 이러한 점에서 잘못된 AI 출력을 방지하기 위해 주기적으로 통제하는 것이 중요하며 모든 알고리즘에 의한 결정은 자동화된 절차에만 근거한 결정의 적용을 받지 않을 권리를 지켜야 하는데 이는 인간의 감독이 있어야 한다는 의미라고도 했다.
이와 함께 예외적 보너스와 같은 장려 관행이나 노동시간에 영향을 미쳐 일거리 배정이 줄어들게 되는 평점과 같은 징벌적 관행은 정신건강을 포함한 위험한 행동이나 보건 안전상의 위험으로 이어져서는 안 된다고 했다. 비차별적 알고리즘은 다양한 집단의 선정과 처우에서 젠더, 인종, 기타 사회적 편견을 방지하고 불평등과 고정관념을 강화하지 않는 것이어야 한다고도 했다.
29항은 ‘모든 온라인 플랫폼은 비차별 및 데이터 보호법을 포함한 EU 제정법을 완전히 준수해야 한다. 플랫폼노동자들과 단체협약상 그들의 대표는 자신들의 활동과 관련한 모든 데이터에 전면적으로 접근할 수 있어야 하고 자신의 개인정보가 어떻게 처리되는지 이해해야 하며 자신의 고용조건이나 노동조건에 영향을 미칠 수 있는 플랫폼의 노동자에 대한 분류나 평가를 알아야 하며 자신의 평점을 이출(移出)할 권리가 있어야 한다. 위원회와 회원국들에 플랫폼노동자들이 GDPR 20조와 88조에 명시된 대로 유효한 데이터 이동성에 대한 권리를 가지도록 보장할 것을 요청한다. 유사한 플랫폼 간에 인정되는 이동 가능한 기술, 의뢰인 평가정보와 평판 평점 인증에 대한 가능성을 탐구해야 한다.’라고 규정하고 있다
해당 결의안에 따라 지난해 12월 9일 EU 플랫폼 노동 입법지침안이 공개됐다.
권 변호사는 “EU 플랫폼 노동 입법지침은 노동자 분류와 종업원 지위 추정뿐 아니라 노동조합의 역할과 권리, 알고리즘 결정에 대한 투명성, 협의와 노동자, 노동자 대표의 이의제기권, 노동자 간의 소통 권리 등과 관련해 발생할 수 있는 분쟁 해결에 필요한 데이터를 확보하기 위한 수단도 규정하며 의무 위반이 있을 때 효과적인 벌칙 규정을 도입하도록 요구한다”며 “특히 알고리즘과 관련한 규제를 통한 보호는 노동자가 독립적 계약자인지 종업원인지 아닌지에 상관없이 적용할 수 있게 돼 있고, 독립적 계약자는 단체협상 등의 행위에 대해 반독점규제로부터 면제되도록 제안돼 있다”고 말했다.
소상공인포커스 / 김영호 기자
[저작권자ⓒ 소상공인포커스. 무단전재-재배포 금지]