본문 바로가기

AI Feed
Tech & Product/AI, 더 쉽게

세상을 'AI롭게' 만들기 위해, Responsible AI

여러분은 지난 2023년 연말, 어떻게 보내셨나요? 에디터 SA는 2023년의 기록을 하나씩 꺼내 보면서 반성도 하고, 스스로 칭찬도 하면서 24년의 목표를 세우는 시간을 가졌습니다.😎 보통 연말, 연초에는 지나온 한 해를 반성하고, 다음 해에 얼마나 더 나은 삶을 만들어갈지 계획을 세우곤 하는데요. AI도 그럼 반성하고 앞으로의 일들을 책임지고 이끌어 나갈 각오를 다지는 시간을 가질까요?

물론 답은 ‘아니오’겠지만, 생각해볼 여지는 있습니다. AI가 아니라, AI를 만드는 사람들에게 반성과 책임이 따르기 때문이에요. 우리가 바로 떠올릴 수 있는 저작권이나 개인정보를 보호하는 문제라던가, AI의 환각 현상으로 잘못된 정보가 확산되는 것을 방지하려는 노력 같은 것 말이에요.🤔 고성능의 AI를 만드는 것에만 집중했던 AI 산업의 분위기가 점차 변해서, AI의 ‘책임’에 대해서도 지속적인 논의가 이뤄지고 있습니다.

 

 


[ ‘AI로운’ 세상을 만들기 위한 노력, Responsible AI ]

'AI로운 세상'은 AI로 다양한 가치를 누릴 수 있어, 더 이로운 삶을 살 수 있는 세상인 거예요.

TEN은 ‘AI로운’ 세상을 위해 AI 인프라에 집중한 솔루션과 서비스를 제공하고 있는데요. 여기서 ‘AI로운’은, 누구나 AI로 가치 실현을 할 수 있어, 세상을 이롭게 만드는 것을 의미합니다.🌏 그 과정에서 중요한 것은 AI에 대한 각종 제약을 최소화하여, ‘누구나’ AI 접근할 수 있는 것도 중요할 텐데요. 그 외에, AI를 사용하면서 책임감을 갖는 것 역시 중요할 것입니다. AI는 누가, 어떤 방향으로 개발하고 사용하느냐에 따라 각기 다른 영향력을 발휘할 수 있기 때문이지요.

다양한 AI 모델들이 개발되었고, 특히 2023년은 수많은 모델이 앞다투어 출시되었는데요. 그 결과 우리 산업에도 다양한 변화가 나타나게 되었습니다. 인간의 일자리가 사라질 것이라는 우려, 더 나은 서비스를 누릴 수 있을 것이라는 기대, 사회 소외계층에 맞춘 복지의 실현 등 다양한 관점의 이야기들도 나오게 되었지요.😊

 

그 중 AI와 함께하는 긍정적인 미래를 앞당기기 위해서는, AI를 이용하게 될 사람들과 사회에 긍정적인 영향을 미치기 위해 선한 의도로 AI를 설계, 개발 및 배포하고자 책임을 다하는 관행이 자리 잡아야 할 것입니다. 이 관행을 기반으로 한 AI를, ‘Responsible AI’ 라고 부릅니다. 우리 말로 직역하면 ‘책임 있는 AI’가 될 텐데요. 우리 말로 적절히 대체할 말은 아직 정해져 있지 않습니다.🤔 2023년 3월에 주요 AI 테크 기업들이 만든 가이드라인이 있답니다. 

이 ‘Responsible AI’에 강제성이 있지는 않지만요. 생성 AI의 전체 수명 주기에 있어서, ‘’Responsible AI’의 상태를 유지하는 것이 매우 중요하다는 의견은 점차 힘을 얻고 있습니다. AI의 발전과 확장이 더 빨라지고 있는 지금, Responsible AI를 만들기 위해 노력해야 앞으로 AI를 더 이롭게 누릴 수 있으리라는 거죠.

 

 

 

[ ‘책임 있는 AI’는 어떻게 만들 수 있나요? ]

그럼, ‘Responsible AI’를 만들고 확산하기 위해서는 구체적으로 어떤 노력이 필요할까요? Responsible AI의 정의만 생각하면, 아주 대략적인 원칙만 정해져 있을 것 같기도 한데요. 의외로 구체적인 지침이 논의되고 있습니다. 톰슨 로이터의 부사장인 카터 코시뉴(Carter Cousineau)는, 5가지의 지침🖐️을 기반으로 AI를 설계, 구축, 배포하여 AI의 사회적 책임을 다할 수 있도록 해야 한다고 말하고 있어요.

 

첫째, 다양한 규제, 법안에 대비할 수 있도록 준비하라.

물론, 개인정보 보호나 AI 환각 현상 최소화처럼, AI 모델을 개발하는 과정 그 자체에도 AI의 책임을 다하기 위해 챙겨야 할 것들이 있습니다. 하지만 실질적으로 AI 모델이 사회적 책임을 다할 수 있도록 하는 데에는, AI 모델이 서비스로 확장되어 출시될 사업 부문에 대한 규제를 얼마나 준수하느냐도 중요한 요소가 될 거예요. 이 부분을 미리 준비하는, 개방적이고 유연한 AI 모델 및 서비스의 개발이 필요합니다.🤓 예를 들어, AI 모델을 활용한 의료 서비스가 의료법, 국민건강보험법 등을 충실히 따라야 하는 거죠. 나중에 관련 법안들이 개정되거나 추가 법안이 시행될 때에도, 그에 대비할 수 있도록 준비도 필요하겠지요.

 

둘째, 새로운 데이터의 학습, 데이터 용도의 변화를 수용하라.

생성형 AI 모델은 데이터를 계속 학습하지요. 이때, 데이터는 고정되어 있을까요? 우리가 만들어내는 웹에서의 기록들도 시대적, 사회적 맥락에 따라 의미가 변화하고 용도도 다르게 쓰일 수 있지요. 그런데 만약, 데이터의 변화나 용도의 다양화가 AI를 기획하고 데이터를 학습하는 의도와 맞지 않게 된다면 어떨까요?🤔 처음 기획했던 의도에 따라 일단 AI를 개발하고 데이터를 학습하게 된다면, 그 결과 배포되는 AI 서비스는 사람들에게 유용하게 쓰이기 어렵고, 긍정적인 경험을 주기도 쉽지 않을 거예요. 예를 들어, 장애인을 돕기 위한 AI 서비스가 학습한 데이터 중에 최근 들어 장애인 혐오 표현으로 새로 인식되기 시작한 데이터가 포함되어 있는 것이지요. 워낙 최근에 생긴 변화라도, 이 경우라면 그 변화를 수용해서 AI 모델이 사람들에게 혐오 표현을 사용하거나 안내하지 않도록 해야 사회에 긍정적으로 이바지할 수 있겠지요? 이런 열린 태도가 책임감 있는 AI를 만드는 데 도움이 됩니다.😊

 

셋째, 데이터 영향 평가를 시행하라.

첫 번째, 두 번째 지침과 맥을 같이 하는 것이 바로 ‘데이터 영향 평가’입니다. ‘데이터 영향 평가’는 법무 자문 위원과 제휴해서 개인 정보 보호 요구 사항, 데이터 거버넌스, 모델 거버넌스 및 윤리 지침, AI 서비스 제공 단계에서 발생할 수 있는 불합리함이나 비윤리적인 상황을 미리 점검하는 거예요. 자문 위원에게 평가 내용을 전달받아, 그에 따른 수정 및 추가 작업을 진행하는 거죠. 이 지침을 안내하는 카터 코시뉴의 경우, AI 자동화 서비스를 도입하는 초기부터 이 데이터 영향 평가를 계속 진행한다고 해요.

 

넷째, 신뢰할 수 있는 파트너십을 구축하라.

AI 모델 개발, 서비스 배포에 이르는 프로세스는 다양한 기획자, 개발자들이 협업으로 이루어집니다. 각기 다른 전문 분야에 속해 있어 배경 지식이 다르더라도, 서로 끊임없는 소통과 협력을 통해서 AI의 완성도를 높여 나가게 되는데요. 이때 개인 정보 보호, 보안의 관점에서 신뢰할 수 있는 파트너십을 갖추고 인프라를 구축하는 것이 ‘Responsible AI’를 만드는 데에 중요합니다. 그래야 서로 주고받는 데이터에 대한 신뢰도, 모델의 투명성, 작업 과정에서 발생하는 이슈의 해결 과정 등을 합리적으로 처리할 수 있기 때문이에요.

 

다섯째, 비용을 합리적으로 관리하라.

AI 개발, 학습, 배포에 이르는 과정에서 ‘비용’은 늘 중요합니다. 이 ‘비용’은 AI피드에서 늘 이야기했듯이, AI 인프라와 연관이 있습니다. AI 개발 중간에 클라우드를 교체하는 상황이 발생한다면 어떨까요? 데이터 이전에 기술적 한계가 있다면, 이 부분의 손실 역시 클라우드 교체 비용에 덧붙여 부담이 될 거예요.🤔

혹은 처음부터 GPU를 분할 사용하는 합리적인 방법을 찾지 못해, 이미 구축한 인프라에 GPU를 추가로 더 구매하게 되는 상황이 생긴다면 어떨까요? 또는 생성형 AI를 다른 언어 모델로 전환하려는 계획을 세웠는데, 이 통합 과정이 너무 복잡해서 인적 비용이 많이 드는 경우도 있을 거예요. 이런 비용들이 AI의 질적 측면에서 영향을 줄 수 있고, 심각한 경우 AI 서비스의 출시 자체에 영향을 주기도 합니다. 세상을 이롭게 할 AI 서비스가 출시되었을 때, 안정적으로 운영되어 사회적 책임을 다할 수 있도록 비용에 미리 신경 쓰는 것, 정말 중요하겠지요?🤓

 

 


[ 글로벌 테크 기업들은 Responsible AI를 위해 노력하고 있나요? ]

Google responsible AI practice (https://ai.google/responsibility/responsible-ai-practices/)

AI가 세상에 더 이롭게 작용할 수 있도록 하려면 Responsible AI를 꼭 신경 써야 한다는 점은, 지금까지의 내용을 보셨다면 모두 공감하실 거예요. 하지만 현실에 적용하기에 쉽지 않은 이론으로서의 개념이라는 생각도 듭니다. AI 산업을 선도하고 있는 글로벌 테크 기업은, Responsible AI에 대해 어떤 태도를 보이고 있을까요?

구글에서는 Responsible AI에 대한 별도의 웹페이지를 마련해서, 구글이 지켜나가고자 하는 AI의 바람직한 방향성에 관해 이야기하고, 내부에서 Responsible AI를 위해 지속해서 노력하고 있음을 보여주고 있어요.🙂 구글 내부에서 기획자와 개발자들에게 권장하고 있는 사항, 그리고 그 결과로 제시할 수 있는 AI 서비스 사례들을 정리해 두고 있습니다.

인간 중심의 디자인 접근 방식, AI 학습과 모니터링에 대한 측정항목을 다양화하고, 초기 데이터를 직접 검사하고 테스트를 반복하는 등 가장 기본적으로 지켜야 할 ‘일반적인 권장사항’에 대한 설명과 이를 반영한 구글의 서비스들을 볼 수 있고요. 공정하고 포용적인 AI, 사회적 맥락에서 서비스의 가치를 찾는 AI, 높은 신뢰 수준 유지, 사용자에게 데이터 투명성 및 제어 권한 제공, AI의 안정성과 보안 유지 등 다양한 항목의 관점에 대한 구글의 의견과 권장사항, 반영 사례를 확인할 수 있습니다.🤓

 

Responsible AI (https://www.accenture.com/us-en/services/applied-intelligence/ai-ethics-governance)

AI를 적극 활용하는 글로벌 경영 컨설팅 및 전문 서비스 기업인 액센추어(Accenture)에서도 AI 윤리 및 거버넌스에 대한 별도의 페이지를 마련하고 있습니다. Responsible AI에 대한 액센추어의 해석은 구글과는 좀 다르지만, 구체적인 입장과 행동 지침, 체계를 갖추고 외부에 공개하고 있다는 점은 같은데요.

액센추어에서는 Responsible AI를 “고객과 사회에 공정한 영향을 미치기 위한 선한 의도로 AI를 설계, 개발, 배포”하는 것으로 정의하고 있습니다. 기획자나 개발자가 의도하지 않았더라도 데이터로 편견이 확산되는 경우를 최대한 줄이고, 프로세스와 기능 전반을 투명하게 운영하고, 개인정보 보호와 보안에 신경 쓰고, 사회에 이익을 돌려주도록 하는 등의 원칙도 같이 정해 두었어요. 특히 Responsible AI를 실현해서 HR 측면에서 얻을 수 있는 이점을 따로 다루고 있어 인상적인데요. Responsible AI를 기반으로 해서 조직을 윤리적으로, 효율적으로 운영하고, 채용을 결정할 수 있다는 점을 추가 웹페이지까지 마련해서 설명하고 있습니다.🙂

Responsible AI를 적극 도입, 정착시키기 위해 원칙과 거버넌스를 정하고, 관련된 법률과 규정을 모니터링해서, 미처 발견하지 못했던 AI의 위험요소를 관리하도록 한다거나, AI의 공정성이나 접근성 등을 강화하는 도구나 기술을 개발하고, 기획자와 개발자에 대한 교육을 지속하는 등의 Responsible AI 활성화 정책도 별도 운영하고 있다고 하네요. 내부에서의 정책 운용 사례도 정리해 두고 있고, 액센추어의 전무이사, 북미 지사장 등을 관련 책임자로 지정하고 있어 Responsible AI에 큰 비중을 두고 있음을 확인할 수 있었습니다.🤓

 

 

 

2024년의 AI 산업에 대한 전망 중 하나였던 ‘AI 일상화’를 생각해 본다면, ‘Responsible AI’는 거스를 수 없는 흐름이지 않을까 싶습니다. AI 산업에서 이미 앞서있는 글로벌 테크 기업들이 이미 Responsible AI를 구체적으로 명시하고 다루고 있으니, 후발주자가 될 다른 기업들도 AI를 책임감 있게 다루기 위한 움직임에 동참하지 않을까 싶네요.😊 주식회사 텐에서 이야기하는 ‘AI로움’이 이 ‘Responsible AI’와 닿아 있다고 볼 수 있는데요.😊 세상을 이롭게 하는 다양한 가치를 실현할 수 있도록 AI와 AI 인프라 관점에서 어떤 방향성을 가지면 좋을지, 고민해 볼 수 있는 시간이었습니다. 그럼, 에디터 SA는 흥미로운 AI 이야기를 가지고 다시 찾아오겠습니다!