본문 바로가기

인공지능/생성형 AI

[맥킨지 번역] Superagency in the Workplace (Chapter 3 : Deliveringspeed and safety)

맥킨지가 25년 1월에 발행한 인사이트 "Superagency in the Workplace" 내용의 일부를 번역하고 정리한 포스팅입니다.

 

자세한 내용은 McKinsey & Company의 보고서 원문을 살펴봐 주세요.

 [McKinsey & Company] Superagency in the workplace 원문(영어)


속도와 안전을 함께 실현하기

 

"최초의 자동차가 도로에 등장한 직후 첫 번째 교통사고도 발생했습니다. 하지만 우리는 자동차를 금지하지 않았습니다. 대신 제한 속도, 안전 기준, 면허 요건, 음주운전 규제, 기타 교통 규칙을 도입했죠." _빌 게이츠, 마이크로소프트 공동 창업자

 


 

AI 기술은 기록적인 속도로 발전하고 있습니다. ChatGPT는 약 2년 전 출시되었고, OpenAI는 현재 주간 사용자 수가 3억 명을 넘으며, 포춘 500대 기업의 90% 이상이 해당 기술을 도입했다고 밝혔습니다.

 

인터넷은 이런 수준의 사용자 수에 도달하는 데 거의 10년이 걸렸고, 이는 2000년대 초의 일입니다.

 

직원의 다수는 스스로를 AI 낙관론자라 생각합니다. 줌머(Zoomer)와 블루머(Bloomer)는 전체 직원의 59%를 차지합니다.

 

비교적 비관적인 그룹에 속하는 글루머(Gloomer)조차도 높은 수준의 생성형 AI 친숙도를 보이며, 4분의 1 이상이 내년에 AI 사용을 늘릴 계획이라고 답했습니다.

 

경영진은 이러한 속도와 낙관론을 수용하여 조직이 뒤처지지 않도록 해야 합니다. 그러나 초기의 열광과 실험에도 불구하고, C레벨 리더의 47%는 자사의 생성형 AI 도입 속도가 너무 느리다고 답했으며, 인재의 역량 부족이 주요한 원인이라고 지적했습니다(Exhibit 6 참고).

 

 

경영진은 AI 투자 확대를 통해 자사의 AI 도입 속도에 대한 요구를 충족시키려 하고 있습니다. 조사에 따르면, 응답자 중 92%는 향후 3년 내 AI 지출을 늘릴 계획이며, 그중 55%는 현재보다 최소 10% 이상 투자 확대를 기대하고 있습니다.

 

그러나, 이제는 성과 없이 단순히 AI에 투자하는 시대는 지났습니다. 생성형 AI에 대한 초기의 흥분이 지나간 지금, 경영진은 투자 대비 수익(ROI)을 증명하라는 압박을 받고 있습니다.

 


 

우리는 전환점에 서 있습니다. 초기 AI에 대한 열기는 식어가고 있지만, 기술의 발전 속도는 오히려 가속화되고 있습니다.

 

미래의 성공을 위해서는 과감하고 목적 있는 전략이 필요합니다. 조사에 따르면, 경영진의 4분의 1은 이미 생성형 AI 로드맵을 수립했으며, 절반 이상은 현재 로드맵 초안을 조정 중입니다(Exhibit 7 참고).

 

 

기술이 빠르게 변화함에 따라 모든 로드맵과 계획은 지속적으로 발전해야 합니다. 리더에게 중요한 것은 어떤 기회를 우선적으로 추구할 것인지, 그리고 동료, 팀, 파트너들과 어떻게 협력해 그 가치를 실현할 것인지를 명확히 정하는 것입니다.

 


 

속도와 안전 사이의 딜레마

규제와 안전은 여전히 극복하기 어려운 도전 과제로 여겨지는 경우가 많습니다. 리더들은 AI 투자를 확대하고 개발을 가속화하길 원하지만, 동시에 실무에서 AI를 안전하게 만드는 방법에 대해 고심하고 있습니다.

 

데이터 보안, 환각(hallucination), 편향된 출력, 악용(예: 유해 콘텐츠 생성이나 사기 조장)은 무시할 수 없는 문제입니다.

 

직원들도 이러한 안전 문제를 잘 인식하고 있으며, 주요 우려로는 사이버 보안, 프라이버시, 정확성 등을 꼽고 있습니다(Exhibit 8 참고). 과연 리더들은 이 같은 걱정을 해소하면서도 고속 성장까지 챙길 수 있을까요?

 

 


 

직원들은 경영진을 믿고 있다

직원들은 AI가 자신의 업무 중 상당 부분을 대체할 수도 있다는 가능성을 인정하면서도, 자사의 고용주가 AI를 안전하고 윤리적으로 도입할 것이라고 강하게 믿고 있습니다.

 

특히 직원의 71%는 자사 고용주가 AI를 개발하면서 윤리적으로 행동할 것이라 신뢰하고 있습니다. 이는 대학, 대형 기술 기업, 스타트업보다도 더 높은 신뢰 수준입니다(Exhibit 9 참고).

 

 

조사 결과에 따르면, 직원들은 일반적으로 정부(45%)나 기타 기관보다 고용주(73%)가 더 올바른 일을 할 것이라 믿고 있습니다.

 

이런 신뢰는 경영진이 속도와 안전 사이의 균형이라는 딜레마를 자신감 있게 해결하는 데 도움이 됩니다. 이러한 자신감은 미국 외 지역에서도 유효하며, 다른 지역의 직원들이 규제를 더 강하게 요구하더라도 마찬가지입니다.

 


 

글로벌 규제 관점

호주, 인도, 뉴질랜드, 싱가포르, 영국의 C레벨 리더들 중 높은 비율이 자신을 강력한 규제 감독을 선호하는 글루머(Gloomer)로 생각합니다. 이 5개 국가의 글로벌 C레벨 리더 중 37~50%가 글루머라고 답했으며, 이는 미국의 31%보다 높은 수치입니다.

 

이는 미국 외 국가에서는 상향식(top-down) 규제를 보다 자연스럽게 받아들이는 경향이 있기 때문일 수 있습니다.

 

조사에 참여한 글로벌 C레벨 리더 중 절반 이상은 윤리적 사용과 데이터 프라이버시 문제가 직원들의 생성형 AI 도입을 저해하고 있다고 걱정하고 있습니다.

 

 

하지만, 우리 연구에 따르면 이러한 규제에 대한 인식이 경영진이 갈망하는 경제적 이익을 억누르지는 않습니다. 해외 응답자의 절반 이상은 자사가 AI 도입의 선두주자가 되길 원하며, 특히 인도와 싱가포르의 경영진은 그 열망이 매우 큽니다(Exhibit 참고)

 

이처럼 선두주자가 되고 싶은 의지는 AI를 도입하면 수익이 증가할 것이라는 기대감에서 비롯됩니다.

 

해외 C레벨 리더의 31%는 향후 3년 내 AI로 인해 10% 이상의 수익 성장을 기대한다고 답했으며, 미국 리더 중에서는 17%에 불과합니다. 인도 경영진은 가장 낙관적이며, 55%가 10% 이상의 수익 증가를 기대한다고 응답했습니다.

 


 

생성형 AI의 리스크 관리

『슈퍼에이전시』에서 호프먼은 새로운 역량이 등장하면 그에 따른 새로운 리스크도 자연스럽게 따라오며, 이는 제거할 수는 없지만 반드시 관리되어야 한다고 주장합니다.

 

리더들은 지식재산권(IP) 침해, AI 기반 악성코드, 그리고 AI 도입 과정에서 발생하는 내부 위협 등. 외부와 내부의 다양한 위험 요소에 대응해야 합니다.

 

목적에 맞는 리스크 관리 체계를 구축하려면, 각 사업부의 취약점을 식별하기 위한 포괄적 진단을 먼저 수행해야 합니다. 이후, 강력한 거버넌스 체계를 수립하고, 실시간 모니터링 및 통제 메커니즘을 도입하며, 지속적인 교육과 규제 준수를 확보해야 합니다.

 

 

가장 강력한 통제 수단 중 하나는 신뢰할 수 있는 제3자의 벤치마킹입니다. 예를 들어, 스탠퍼드 CRFM의 HELM(Holistic Evaluation of Language Models) 이니셔티브는 기업의 AI 시스템이 공정성, 책임성, 투명성, 사회적 영향 등을 얼마나 충족시키는지를 평가하기 위한 종합 벤치마크를 제공합니다.

 

이 밖에도, 스탠퍼드 연구진이 함께한 MLCommons의 ALLuminate 툴킷이나, 대형 기업들이 모여 산업 전반의 메타데이터 기준을 수립하는 Data & Trust Alliance의 사례도 있습니다. 이들의 목표는 기업용 AI 모델의 투명성을 높이는 것입니다.

 

벤치마크는 신뢰할 수 있는 통제 수단을 구축하는데 매우 효과적이지만, 실제로 자사 AI 시스템 평가에 이를 사용하는 C레벨 리더는 39%에 불과합니다.

 

또한 벤치마크를 사용하는 리더들도 대부분 운영 지표(확장성, 안정성, 견고성, 비용 효율성 등)나 성능 지표(정확도, 정밀도, F1 점수, 지연 시간, 처리량 등)에 집중합니다. 반면, 공정성, 편향, 투명성, 프라이버시, 규제 문제 등 윤리 및 준법 관점에 초점을 맞추는 리더는 17%에 불과합니다(Exhibit 10 참고).

 

 

운영 및 성능 지표에 집중하는 것은 단기적인 기술 및 비즈니스 성과를 우선시하려는 이해 가능한 욕구에서 비롯된 것입니다.

 

그러나 윤리적 고려를 무시하면 리더들에게 큰 부담으로 돌아올 수 있습니다. 직원들이 AI 시스템을 신뢰하지 않는다면 이를 받아들이려 하지 않기 때문입니다.

 

물론 벤치마크는 모든 위험을 제거할 만능 해결책은 아니지만, 효율적이고 윤리적이며 안전한 AI 시스템 구축을 위한 유용한 도구입니다.

 

기술, 인재, 안전 등 세 가지 AI 준비 범주에서 모두 뛰어난 성과를 내는 기업조차도 AI의 가치를 기대만큼 실현하거나 확장하지는 못하고 있습니다. 그럼에도 불구하고, 리더들은 대담한 목표를 통해 AI로 기업을 혁신할 수 있습니다.