[노동자 인권 보호 모색] “사용자 알고리즘 관리 구현, 근로자 단체 협상 참여 필요”

김영호 기자 / 기사승인 : 2022-12-17 17:08:14
  • -
  • +
  • 인쇄
-“알고리즘 관리 도입 전 노조 등에서 협의하는 방안 모색해야”
-의견표명 권리·이의제기권 보장·알고리즘 점검 등 보호조치 의무 규정 필요

▲ 알고리즘은 컴퓨터 프로그램을 통해 구현되거나 구현되지 않을 수 있는 문제의 해법을 찾을 수 있도록 하는 순서화된 유한한 작업 또는 규칙 집합이다. 결과적으로 자동화된 의사 결정 시스템은 의사 결정을 최적화하기 위해 데이터와 알고리즘을 사용하는 자동화된 프로세스다. (이미지=freepik)

 

알고리즘은 컴퓨터 프로그램을 통해 구현되거나 구현되지 않을 수 있는 문제의 해법을 찾을 수 있도록 하는 순서화된 유한한 작업 또는 규칙 집합이다. 결과적으로 자동화된 의사 결정 시스템은 의사 결정을 최적화하기 위해 데이터와 알고리즘을 사용하는 자동화된 프로세스다. 자동화된 의사결정 시스템은 하나 이상의 알고리즘으로 구성될 수 있다.


권오성 성신여대 교수 겸 변호사는 지난 11월 22일 라이더유니온·플랫폼희망찾기·공공운수노조·정의당 이은주 의원·노회찬재단이 국회 의원회관에서 공동 주최한 ‘플랫폼 알고리즘, 어떻게 볼 것인가?’ 토론회에서 “노동과정에서 알고리즘 사용의 근본적인 문제는 사용자의 통제와 책임 사이의 불균형”이라고 했다.

권 변호사는 “보통 강력한 통제에는 책임이 따라야 하지만, 알고리즘에 의한 노동 통제는 세밀화돼 있고 강력하다. 이에 대한 책임은 분산되는 현상을 보인다”면서 “즉, 알고리즘을 활용해 사실상 노동과정을 통제하지만 그러한 통제가 은닉되어 책임이 회피되는 현상이 문제가 된다”고 지적했다.

이어 “그러나 알고리즘의 개발과 구매, 이용에 관한 결정은 모두 사용자인 인간이 하는 것이므로 알고리즘을 활용한다는 이유만으로 통제에 따르는 책임이 희석돼서는 안 된다”고 강조했다.

◇ 국가인권위, AI 개발·활용 인권 가이드라인 공개


국내에서는 최근 국가인권위원회가 인공지능(AI) 개발과 활용에 관한 인권 가이드라인을 공개했다. AI와 알고리즘의 공개·설명에 관한 내용을 담은 복수의 법률안도 국회에 제출됐다.

인권위는 올해 5월 11일 AI 개발과 활용 과정에서 발생할 수 있는 인권침해와 차별을 방지하기 위해 AI 개발과 활용에 관한 인권 가이드라인을 마련하고, 국무총리에게 해당 가이드라인에 기초해 AI 관련 정책이 수립·이행되고, 관계 법령이 제·개정되도록 관련 부처를 유기적으로 조정·통할할 것을 권고했다.

가이드라인에 따르면 우선 AI는 인간으로서의 존엄과 가치, 행복을 추구할 권리에 부합하는 방향으로 개발‧활용돼야 하며 개인의 선택과 판단·결정을 강요하거나 자율성을 침해하여서는 안 된다.

AI 기술을 활용한 판단 과정과 그 결과에 대해 적절하고 합리적인 설명이 보장돼야 한다. 특히 AI가 개인의 생명이나 안전 등 기본적 인권에 중대한 영향을 미칠 때는 사용한 데이터와 알고리즘의 주요 요소를 일반에 공개하고 설명할 수 있어야 한다.

AI의 개발‧활용 시 개인 정보는 목적달성에 필요한 최소한의 범위에서 처리해야 하며 그에 필요한 최소한의 기간만 보관하고, 이러한 개인정보 처리 방침은 정보 주체가 확인할 수 있도록 공개해야 한다.

또 AI의 결정이 특정 집단이나 일부 계층에 차별적이거나 부당한 영향을 초래하지 않고 개인의 안전이나 권리에 차별적 영향을 미치지 않도록 필요한 조치를 해야 한다.

아울러 국가는 AI 개발·활용과 관련해 인권침해나 차별이 발생할 가능성을 고려한 인권 영향 평가제도를 마련하고, 평가 결과 부정적 영향이나 위험성이 드러나면 이를 방지할 수 있는 조치사항을 적용하며 그 내용을 공개해야 한다.

이와 함께 AI가 개인의 인권과 안전에 미치는 위험성을 단계별로 구분하고, 그에 걸맞은 수준의 규제와 인적 개입이 이루어지도록 법과 제도를 마련해야 한다.

 

▲ ‘인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안 입법공청회’ 개최 (이미지=한국과학기술단체총연합회 홈페이지)

◇ 국회에 제출된 법률안은?

더불어민주당 정필모 의원의 대표 발의로 제출된 ‘인공지능 육성 및 신뢰 기반 조성 등에 관한 법률안’은 그 목적을 ‘AI 산업의 육성을 도모하면서 인간이 AI의 개발·제공 및 이용에 있어서 지켜야 할 윤리적 원칙 등을 규정해 AI를 신뢰할 수 있는 기반을 마련함으로써 AI가 산업과 사회 그리고 인간을 위하는 것이 되도록 이바지함’에 있다고 규정하고 있다.

또 인간의 생명과 안전·존엄성과 직결되는 특수 영역에 활용되는 AI에 관해서는 사용 고지 의무와 사전 신고의무, 설명 요구권을 규정하는 등 AI와 AI 기술이 안전성 기반 구축에 관한 내용을 담고 있다.

더불어민주당 이용빈 의원의 대표 발의로 제출된 ‘인공지능에 관한 법률안’도 ‘AI 기반의 사회에서 국민의 권익과 존엄성을 보호해 국민의 삶의 질 향상’하는 것을 해당 법률안의 목적 일부로 명시하고 있다.

나아가 국가와 지방자치단체는 AI 사업자 간에 개발된 기술이나 이전받은 기술의 실증시험, 성능·신뢰성 검증 등을 촉진하는 데 필요한 시설·장비 등을 구축·운영할 수 있도록 하는 규정과 AI 및 AI 기술을 개발·제작하는 자는 AI의 신뢰성 확보를 위해 노력해야 하며 과학기술정보통신부 장관은 AI 등이 국민의 생활에 미치는 잠재적 위험을 최소화하고 안전한 AI 이용을 위한 신뢰 기반을 조성하기 위해 관련 시책을 마련하도록 한다는 규정 등을 내용에 포함하고 있다.

더불어민주당 윤영찬 의원의 대표 발의로 제출된 ‘알고리즘 및 인공지능에 관한 법률안’ 역시 그 제안이유를 ‘알고리즘 및 AI의 부정적 영향을 최소화하면서 관련 산업을 육성할 수 있는 기반을 마련하려는 것’이라고 밝히고 있다.

해당 법률안의 주요 내용을 보면 ▲알고리즘·AI·고위험 AI·AI 개발사업자 등을 정의 ▲고위험 AI를 개발·이용하는 과정에서 국민의 생명과 안전을 보호하고 고위험 AI와 그 알고리즘의 규율에 관한 기본원칙 및 정책 수립 등에 관한 사항을 심의·의결하기 위해 국무총리 소속으로 고위험 AI 심의위원회를 두도록 했다.

또 고위험 AI를 이용한 기술 또는 서비스에 대한 설명 요구권·이의제기권 또는 거부권 등 고위험 AI 이용자를 보호하도록 규정하고, 이용자는 고위험 AI의 기술 또는 서비스를 이용하면서 손해를 보면 해당 고위험 AI 사업자에 손해배상을 청구할 수 있도록 했다.

권 변호사는 “노동과정에서 알고리즘 활용에 대한 법적 규율은 EU의 GDPR이 시사하듯 개인정보 보호법의 영역에서 출발했지만, 정보 주체의 동의가 있으면 알고리즘을 통한 개인정보의 처리가 허용되는 개인정보 보호법의 특성상 개인정보 보호법제만으로 알고리즘이 초래하는 위험과 악영향, 즉 노동자의 재량·기능 감소, 업무 강도 증가, 안정성의 감소, 스트레스, 건강 악화 등의 문제를 근본적으로 해결하기는 어렵다”고 지적했다.

이어 “알고리즘에 의한 노동 통제에 적절하게 대응하기 위해서는 알고리즘의 공개(투명성)와 설명의무, 더 나아가 알고리즘 활용에 대한 교섭(협상)에 대한 규율을 모색할 필요가 있다”며 “이와 관련해 지난해 9월 13일 유럽연합 의회에서 의결된 ‘라이더, 운전기사 등 플랫폼 노동을 위한 공정하고 평등한 사회적 권리 보장’ 결의안도 알고리즘의 투명성에 관한 내용을 다루고 있다”고 설명했다.

권 변호사는 “해당 결의안은 특히 ‘일감이 어떻게 배정되는지, 등급(평점)이 어떻게 매겨지는지, 계정 정지와 가격(요금)은 어떻게 결정되는지에 대한 알고리즘 작동 관련 최신 정보를 이해할 수 있는 수준으로 제공할 것’이라고 규정해 노동조건·취업에 영향을 미치는 알고리즘을 플랫폼 노동자에게 제공할 것을 요구하고 있다”고 부연했다.

다만, “알고리즘은 기존의 취업규칙처럼 이를 공개한다고 해 근로자들이 자신의 노동조건을 직관적으로 이해할 수 있는 성질의 것이 아니”라며 “따라서 스페인의 라이더법이나 유럽의회 결의안처럼 ‘노동조건과 취업에 영향을 미치는 알고리즘의 매개변수 등에 관한 정보’를 제공하도록 할 필요가 있다”며 “‘알고리즘을 공개하라’는 말보다는 ‘알고리즘을 설명하라’는 것이 더 정확한 의미가 될 것”이라고 부연했다.

권 변호사는 “사용자의 알고리즘 관리 구현에 대해 근로자들이 단체로 협상에 참여할 수 있도록 할 필요가 있다”면서 “구체적으로는 사용자가 알고리즘 관리를 도입하기 전에 노동조합 또는 노사협의회에서 협의하는 방안을 모색할 필요가 있다”고 짚었다.

아울러 “사용자가 근로자 등의 데이터에 대해 분석하기 전에 구직자와 근로자의 정당한 이익을 보호하기 위해 데이터 보호 영향 평가를 하게 하고, 동시에 인간이 관여할 것을 요구할 권리, 의견 표명의 권리, 이의제기권의 보장, 알고리즘이나 시스템의 점검, 데이터의 최소화 등 적절한 보호조치를 취할 의무를 규정할 필요가 있다”고 제언했다. 

 

소상공인포커스 / 김영호 기자 jlist@naver.com 

 

[저작권자ⓒ 소상공인포커스. 무단전재-재배포 금지]

오늘의 이슈

많이 본 기사