-‘플랫폼 기업의 알고리즘 통제 문제에 대한 노동법적 쟁점’
플랫폼 경제 확산으로 플랫폼 노동은 전 세계적으로 중요한 노동문제가 되고 있다. 우리나라에서도 플랫폼노동에 대응하기 위한 다양한 논의가 진행되고 있다. 이러한 플랫폼노동과 관련, 플랫폼 기업이 사용하는 알고리즘에 관해서도 관심이 증가하고 있다. 알고리즘이란 유한개의 잘 정의된 명령의 시퀀스를 의미한다. 주로 수학이나 공학의 영역에서 특정 부류의 문제를 풀거나 계산을 수행하는 데 사용된다.
![]() |
▲사진=픽사베이 |
알고리즘이란 원래는 계산·데이터 처리·자동화된 추론·자동화된 의사결정과 기타 작업을 수행하기 위한 지침이라는 의미가 있다. 이처럼 알고리즘이란 어떤 해결책을 찾기 위해 입력 자료를 토대로 원하는 출력을 유도하기 위한 규칙이다. 최근에는 이러한 알고리즘이 이용자 개인에게 맞춤형 서비스를 제공하기 위해 개별 이용자 개인의 성향을 분석하는 기술을 발전시키는 데 활용되고 있다.
이처럼 개인에 관한 정보를 분석하는 알고리즘을 ‘프로파일링’이라고 한다. 인공지능(AI)이란 인간을 비롯한 동물이 보여주는 자연 지능과 달리 기계가 보여주는 지능을 의미하는 말로 사용된다.
플랫폼 기업은 노동자의 사용은 물론 고객과의 거래조건 등 기업활동의 과정에서 이루어지는 다양한 ‘의사결정’의 과정에서 알고리즘을 활용한다. 플랫폼 기업 이외 기업에서도 알고리즘을 사용하겠지만, 플랫폼 기업은 ‘노동의 개시·노동의 과정·노동에 대한 평가’의 일련의 과정에서 종속을 은폐하는 수단으로 알고리즘을 활용하고 있다.
권오성 성신여대 교수 겸 변호사에 따르면 기업들이 AI 알고리즘이나 시스템을 사용해 고용과 일정 결정, 성과 평가, 생산성 통제, 승진, 해고 등 노동자들에게 영향을 미치는 자동화된 방식으로 의사결정을 내리는 경우가 점점 더 빈번해지고 있다.
이러한 AI와 알고리즘, 자동화된 의사결정 시스템은 인력 관리의 여러 영역과 단계에서 활용되고 있다.
![]() |
▲사진=픽사베이 |
◇ AI 등 데이터 기반 기술, 노동자 모니터링·관리 증가
권 변호사는 “알고리즘의 사용은 때에 따라 근로자나 구직자는 이러한 결정을 인간이 내린 것으로 생각할 수 있다”며 “스마트 기술과 자동화된 의사결정 시스템 사용의 확산은 근로자의 기본권에 대한 위험을 초래할 수 있다”고 했다.
알고리즘과 알고리즘을 활용한 AI가 일의 세계에 미치는 영향에 대해 유엔 인권 고등판무관은 지난해 9월 ‘디지털 시대의 프라이버시 권리’라는 보고서에서 최근 AI 시스템 등 데이터 기반 기술로 노동자 모니터링과 관리가 증가했고, 채용·승진·해고에 대한 자동화된 의사결정이 증가했다고 지적했다.
권 변호사는 알고리즘이 갖는 사실상의 통제력과 편향성을 검토하고 각국의 노동법 영역에서의 알고리즘에 대한 법적 규율의 현황과 국내의 상황과 관련 “플랫폼 기업은 자신이 사용하는 알고리즘을 최적화하기 위해 매개변수 값을 계속 변화시키며 최적의 답을 찾게 된다”며 “이러한 과정에서 기계학습이 활용된다. 기계학습은 데이터셋 내의 변수 간의 관계를 식별하고, 이로부터 예측하는 자동화되는 과정을 의미한다”고 설명했다.
이어 “AI에 의한 분석으로 이용되는 기계학습은 데이터로부터 규칙성이나 판단 기준을 학습하고, 이에 근거해 미지의 것을 예측하는 기술”이라며 “이러한 기계학습에 의한 예측이 채용에 적용되는 사례를 보면 우선 기계학습의 하나인 지도학습은 입력값들에 대한 가중치를 AI 개발자가 지정해 알고리즘을 작성한다”고 했다.
아울러 “그런데 이러한 알고리즘 자체를 인간인 개발자가 작성하게 되므로 알고리즘의 작성 과정에서 개발자의 선입견이나 편견이 무의식적으로 알고리즘에 탑재될 가능성이 있다”고 봤다.
권 변호사는 “비지도 학습은 알고리즘이 스스로 우선해야 할 데이터를 판별하게 된다. 그러나 이러한 분석 수법도 알고리즘에 주어지는 학습용 데이터가 불충분하거나 다양성이 부족한 경우 편견이 학습될 수 있다”며 “즉, 알고리즘에 주어진 데이터 세트 자체에 특정한 특징이 과소하게 포함될 때는 그러한 특징이 경시되는 결과를 초래할 것이고, 반대로 특정한 특징이 과도하게 포함되면 그러한 특징을 중시하는 결과를 초래하게 된다”고 짚었다.
또 “데이터 세트 내에 특정한 집단의 사람들에 대한 데이터가 전혀 포함되지 않거나 소량만 포함될 때는 그러한 집단의 사람들이 평가 대상에서 제외되거나 적정하게 평가되지 않을 수 있다”며 “따라서 비지도 학습의 이처럼 알고리즘에 대한 학습 데이터의 품질에 따라 편견이 알고리즘에 탑재될 수 있다”고 전했다.
권 변호사는 “나아가 컴퓨터가 방대한 데이터를 학습해 사물의 특징이나 패턴을 자동으로 추출해 특정 판단이나 예측하는 심층학습은 컴퓨터가 읽어 들이는 데이터의 종류에 따라 사람이 전혀 예측하지 못한 방향으로 학습이 진행될 우려가 있다”며 “예컨대 컴퓨터가 편견이나 차별 등 부정적인 감정을 포함하는 데이터를 계속 읽어 들이게 되면 학습에 편견이 생겨 독선적이고 배타적인 판단이나 예측을 하게 될 수 있다”고 설명했다.
그는 “심층학습 기술은 그러한 학습의 결과로 만들어 낸 판단이나 예측의 결과에 이르는 과정을 인간의 언어로 설명할 수 없으며 특정한 결과가 발생한 이유를 인간이 이해할 수 없어 AI의 내부 구조와 작동원리를 해명할 수 없는 상태(블랙박스)가 발생한다”고 했다.
소상공인포커스 / 김영호 기자 jlist@naver.com
[저작권자ⓒ 소상공인포커스. 무단전재-재배포 금지]