미래 신직업

미래 직업 인공지능윤리 검수사 (AI Ethics Certification Specialist)

하루하루77 2023. 5. 12. 14:51
반응형

한국고용정보원에서 발간한 '미래 유망 신직업 발굴 및 국내 활성화 방안 연구'에서 밝히는 신직업 중 인공지능윤리 검수사에 대해서 알아보려고 합니다.

 

위 연구에서 신직업은 아래와 같이 정의하고 있었습니다.

  • 우리나라에 없으나 외국에 있는 직업으로 국내 도입 및 활성화 지원으로 일자리 창출이 가능한 직업
  • 국내에 새롭게 나타났거나 인지도가 낮은 직업(혹은 직무)이지만, 향후 시장 확장, 수요 증가, 환경 변화 등으로 일자리 창출이 가능한 직업
  • 기존 직업으로 법․제도적으로 정립되지 않았지만, 종사자의 직업적 안정화 등을 위해 정책적 지원 필요성이 있는 직업

 

 

 

 

 

 

 

 

 

 

 

생성 배경 

202010, 공정거래위원회는 네이버가 쇼핑 서비스를 운영하며 자사 상품과 동영상을 검색 결과 상단으로 올리고 경쟁사는 하단에 내리는 방식으로 검색알고리즘을 조작했다며 과징금 267억 원을 부과한 바 있음.

  • 해외에서는 인공지능(AI)을 이용한 채용 과정에서 여성에게 불리한 판단을 하거나, AI가 흑인의 재범 확률을 더 높게 책정하는 등 AI의 편향성 문제가 수년 전부터 제기됨.
  •  LG 인공지능연구원의 이홍락 최고 AI과학자(전무급)는 알고리즘이 특정한 ‘편견’을 학습하는 것을 방지하는 것이 중요하다고 지적. 예를 들어, ‘CEO’라는 키워드로 검색하면 주로 남성 CEO를 보여주는데, 이는 ‘여성은 리더십이 부족하다’는 편견을 알고리즘이 학습한 결과라는 것.
  • AI전문가인 이경전 경희대 교수는 “AI의 파라미터(매개 변수)를 조정하는방법으로 사람이 AI의 알고리즘에 충분히 개입할 수 있다”라고 함.

 

 

AI 기술이 급격히 발전하면서 AI의 역기능과 위험성 문제가 대두되고 있고,전 세계적으로 인공지능 윤리(AI Ethics)에 대한 연구와 논의가 활발히 진행.

  • 해외 각국은 정부 차원에서 <인공지능 윤리 가이드라인>을 제정하고, 정책화, 제도화하는 추세임.
  • 구글, 마이크로소프트, IBM 등 해외의 많은 AI 선도 기업들은 자체적인 인공지능 윤리 가이드 라인을 발표하고, 준수하기 위해 노력을 하고 있으며, 특히 구글은 2021년에 자체적으로 운영 중인 AI 윤리팀의 연구원 규모를 기존 200명에서 400명으로 2배 이상 대폭 늘리고, 예산도 대폭 상향한다고 발표한 바 있음.
  • 해외 각국은 정부와 대학과 민간이 상호 연계하여 이러한 전문가를 양성할 수 있는 교육과정과 양성 시스템을 개발 중에 있음.

 

 

이와 같은 상황에서 인공지능 윤리 및 안전 전문가에 대한 필요성이 급부상하고 있지만, 현재 인력 수요에 비해 공급이 미치지 못하는 실정.

  • 특히, 인공지능 적용 제품 및 서비스에 대한 기획, 디자인, 개발, 출시, 운영등 전 과정에서 인공지능의 윤리와 안전 부문을 확인하고, 검수 및 인증해주는 업무를 수행하는 인공지능윤리 검수사(AI Ethics Certification Specialist)의경우, 산업현장에서는 바로 현업에 전문가를 투입해야 하지만, 현재 이러한역량을 갖춘 전문가 풀(pool)도 거의 없는 실정임.
  • 2021년 초에 발생한 ‘이루다 챗봇’ 사건(인공지능이 사용자들로부터 비속어,성적 비하 등 나쁜 말을 학습하여 사회적 편견과 혐오적 발언을 서슴지않았던 사건)에서도 볼 수 있듯이, 만약 인공지능윤리 전문가들이 기업들이출시하는 AI 기술 적용 제품과 서비스들에 대해 사전에 검토와 검수를 진행하였다면, ‘이루다챗봇’과같은인공지능윤리관련사건을방지할수있었을것.

 

 

새로운 AI 제품과 서비스뿐만 아니라, 기존 제품군과 산업군에도 AI 기술이기술이 적용되고 있기 때문에 기업들도 자체적으로 인공지능윤리 검수사를 배치하 여기 업 자율적으로 AI 윤리와 안전 준수에 노력할 필요가 있음.

  • 우리 정부도 인공지능 산업을 새로운 미래의 최중점 사업으로 두는 상황이므로 해외와의 AI 격차를 줄이고, AI 선진국들을 빠르게 따라잡기 위해서는인공지능윤리검수사를신직업으로신속히발굴하고, 양성하여정착할필요가있음.

 

 
 
 
 
 
 
 
 

 

수행직무

인공지능윤리 검수사는 인공지능(AI) 적용 제품과 서비스의 기획, 디자인, 개발,출시, 운영의 전 과정에서 AI의 윤리와 안전 부문을 확인하고 검수, 인증해주는인증해 주는 업무를 수행.

  • 직업화 단계 초기에는 AI 제품과 서비스의 출시 직전에 해당 제품과 서비스가AI 윤리와 안전 측면에서 기술적으로 잘 적용되는지, AI윤리 가이드 라인이잘 적용되어 출시되는지를 검토하고, 검수하는 역할을 주로 수행하게 될것임.
  • 장기적으로는 인공지능 제품과 서비스를 개발하려는 기업들과 초기부터 협업하면서, 제품 기획 단계부터, 디자인 단계, 개발 단계, 출시 단계, 이후의 운영단계까지 AI 제품의 전 생애주기단계에서, AI 윤리와 안전 부문을 컨설팅하고,확인․검수․인증해주는 역할로 확대될 것으로 예상.

 

 

인공지능윤리 검수사의 구체적 수행 업무는 다음과 같음.

  • AI 제품, 서비스에 인공지능 윤리와 안전의 기술적 적용 검토 및 검수.
  • AI 제품, 서비스에 인공지능 윤리 가이드라인의 적용 여부 및 수준 평가.
  • AI 제품, 서비스의 기획부터 운영까지 모든 생애 단계별 AI윤리 컨설팅.
  • AI 제품, 서비스의 출시 후 인공지능 윤리 모니터링.
  • 검수결과보고서 작성 및 미흡 부분에 대한 보완 컨설팅.
  • 인공지능 윤리 인증서 발급.
  • AI 제품, 서비스 담당자에 대한 인공지능 윤리 교육 수행.

 

 

인공지능윤리 검수사의 활동 분야는 다음과 같음.

  • AI 제품과 서비스를 개발하는 국내외 대기업, 중소기업, 스타트업의 AI윤리팀
  • AI 제품과 서비스를 도입하는 국가기관, 산하기관, 관공서, 지자체의 AI윤리팀
  • 국내외 AI 및 AI윤리 연구기관 및 민간협회(NGO) 등 인증 관련 단체
  • UN, EU, ISO, ITU 등 글로벌 AI 및 AI 윤리 정책 관련 국제기구

 

 

 

 

 

 

 
 
 
 
 
 

 

 

 

 

 

 

 

 

 

 

 

국내현황

현재, ‘인공지능윤리 검수사직업에 대해 정확히 규정된 법률은 없으나, 유사한, 관련법으로 2021610일부터 시행되고 있는 「지능정보화기본법」이있음.

 

지능정보화기본법62(지능정보사회윤리)

국가기관과 지방자치단체는 지능정보기술을 개발활용하거나 지능정보서비스를 제공ㆍ이용할 때인간의 존엄과 가치를 존중하고 공공성ㆍ책무성ㆍ통제성ㆍ투명성등의 윤리원칙을 담은ㆍ이용할때인간의존엄과가치를존중하고공공성ㆍ책무성ㆍ통제성ㆍ투명성등의윤리원칙을 지능정보사회윤리를 확립하기 위하여 다음 각 호의 사항을 포함한 시책을 마련하여야 한다.한다.

1. 지능정보사회윤리 확립을 위한 교육, 전문인력 양성 및 홍보

2. 지능정보사회윤리 교육 콘텐츠 개발보급

3. 지능정보사회윤리 관련 연구 및 개발

4. 지능정보사회윤리 관련 단체에 대한 지원

  • 「지능정보화기본법」 제62조 1항 1호 ‘지능정보사회윤리 확립을 위한 교육,전문인력 양성 및 홍보’에서 ‘인공지능윤리 검수사’를 양성할 수 있는 법적근거가 부여됐다고 볼 수 있으나, 다만, 본격적으로 이러한 ‘인공지능윤리검수사’의 직업을 확대하고, 활성화하기 위해서는 ‘인공지능윤리 검수사’를정의하고, 교육하고, 양성하고 지원을 독려할 수 있는 신규 법 제정이 필요함.

 

 

한국인공지능윤리협회(KAIEA)는 인공지능(AI) 알고리즘의 편향성을 검증하는 중립적 기구 도입을 촉구하는 성명서 발표

  • 협회는 현 기술 수준에서 AI 알고리즘은 편향된 데이터를 토대로 학습해구현될가능성이높아AI 알고리즘자체도편향될수있기때문에, AI 알고리즘의중립성을판단하고검증할수있는시스템을도입하고, AI 알고리즘의편향성을 검증하고 올바르게 가이드할 수 있는 중립적 기구의 설치 필요성을 강조함.
  • 또한, 협회는 AI 기술은 아직 발전 중에 있는 기술로써 현재 윤리적으로지켜야 할 명확한 개발 가이드 라인과 지침이 매우 부족하므로 정부, 기업,학계, 연구계, 유관단체 등 모든 관련 주체들이 이러한 AI윤리 가이드라인을 만들고 적용하는 데 적극 협력할 것을 촉구함.
 

 

 
 
 
 
 
 

활성화 방안

1) 일정 규모 이상의 AI 제품과 서비스를 개발하는 기업에서는, 안전하고윤리적인 AI 개발을 위해 가칭 인공지능윤리책임자(CAO, Chief AI EthicsOfficer)를 지정하여 배치하도록 하는 법을 제정할 필요가 있음.

  • 이는 「정보통신망 이용촉진 및 정보보호 등에 관한 법률」에 의해, 5인 이상규모의 기업에서는 반드시 임원급의 개인정보 보호책임자를 지정하여 배치하는 것과 유사한 취지임.
  • 인공지능윤리책임자의 자격 조건은 인공지능윤리 검수사 자격을 취득한 후일정 기간 실무 경력과 역량을 쌓은 전문가들로 함.

 

 

2) 둘째, 관련법 제정과 함께 인공지능윤리 검수사 국가자격을 신설하여 인공지능윤리 검수사로 활동하는 자에 대한 역량과 능력을 평가하고 시장에 신뢰를 담보해 주는 제도를 시행할 필요가 있음.

 

 

 

3) AI 관련 기업들이 자체적으로 인공지능윤리책임자를 통하여, AI관련 업무를 담당하는 임직원들이 매년 1회 이상 인공지능윤리 교육을 받도록 하는 제도도 함께 시행할 필요가 있음.

  • 마치 남녀고용평등법상의 성희롱방지 교육과 같이 AI 제품과 서비스를 개발하는 기업들의 임직원들은, 매년 1회씩 인공지능윤리 교육을 받고, 스스로사회적으로 큰 영향을 미칠 수 있는 AI를 담당하는 실무자로서 AI 윤리의적용 실무를 배우고 소양을 배양할 필요가 있음.

 

 

4) 인공지능윤리 검수사 교육훈련과 체계적인 양성 시스템이 필요.

  • 교육훈련과 양성 시스템의 구축은 AI 윤리에 대한 활동과 연구를 활발히 하는민간협회, AI 연구기관, 대학 등 민간에서 수행하는 것이 바람직함.

 

 

5) 정부는 법 제도화와 더불어 대국민 홍보를 통해 기업과 기관들 이인공지능 윤리 검수의 필요성을 인식하여 적극 도입하도록 하고, 많은 AI전문가들이 인공지능윤리 검수사 역할에 관심을 갖고 종사하도록 유도할 필요도 있음.

 
반응형