본문 바로가기

인공지능/생성형 AI

[맥킨지 번역] Superagency in the Workplace (Chapter 5 : Technology is not the barrier to scale)

맥킨지가 25년 1월에 발행한 인사이트 "Superagency in the Workplace" 내용의 일부를 번역하고 정리한 포스팅입니다.

 

자세한 내용은 McKinsey & Company의 보고서 원문을 살펴봐 주세요.

 [McKinsey & Company] Superagency in the workplace 원문(영어)


기술이 확장의 장애물은 아니다

“우리가 차세대 AI를 설계하면서, 인간의 주도권을 가장 중요한 요소이자 제품의 중심에 두기로 의식적인 결정을 내렸습니다. 이제 우리는 강력하면서도 사용자의 역량을 확장시켜주는 AI에 접근할 수 있게 되었습니다.” _사티아 나델라, 마이크로소프트 회장 겸 CEO

 


 

AI는 지금까지 보기 드문 대단한 기회를 제공하고 있습니다. 경영진의 약 90%는 AI 도입이 향후 3년 내 매출 성장을 이끌 것으로 기대하고 있습니다.

 

하지만, 이러한 성장을 실현하려면 기업 전반의 변화가 필요하며, 기업들은 이런 변화에 대해 성공적인 실적을 보여온 적이 많지 않습니다. 실제로 거의 70%의 기업 전환 시도는 실패로 끝납니다.

 

이런 상황을 반전시키기 위해선 경영진 스스로를 돌아봐야 합니다. 리더로서의 역할을 제대로 인식하고, 책임을 수용해야 하는 것입니다.

 

설문에 참여한 C레벨 리더들은 AI 도입의 장애물로 ‘직원의 준비 부족’을 자신들의 리더십보다 두 배 이상 많이 지적했습니다. 하지만 앞서 언급했듯이, 실제 직원들은 이미 준비가 되어 있습니다.

 

이 장에서는 리더들이 기술 도입을 넘어 전략적 변화를 어떻게 주도할 수 있는지 살펴봅니다. 기업은 AI와 관련된 여러 도전과제에 직면해 있으며, 이를 극복하려면 리더들이 기업 구조 자체를 다시 설계(rewire)할 각오가 필요합니다.

 


 

AI 실행을 지연시키는 운영상의 난관들

기업의 AI 도입은 여러 가지 운영상 장애물에 직면해 있습니다. 그중 가장 큰 다섯 가지는 다음과 같습니다.

 

Leadership alignment: 리더십 정렬은 어렵지만 반드시 필요한 출발점이다

전략 중심의 생성형 AI 로드맵에 대해 고위 경영진의 합의를 끌어내는 것은 쉬운 일이 아닙니다. 각 부서의 리더들은 목표와 리스크 성향이 서로 다를 수 있기 때문에, 단순하게 합의가 이뤄질 거라고 가정해서는 안 됩니다.

 

이 과정은 지속적인 협의와 조율이 필요합니다. 리더들은 함께 AI가 창출할 수 있는 가치를 명확히 정의하고, 리스크를 어떻게 완화할 것인지, 성과는 어떻게 측정하고 투자 계획은 어떻게 조정할 것인지 결정해야 합니다.

 

이를 위해 AI 가치·위험 담당자를 지정하거나, 조직 전반을 조율할 리더십 팀을 구성할 수도 있습니다. 이처럼 리더십 정렬은 어렵지만, AI 프로젝트가 분산되지 않고 실질적인 변화를 이끌어내는 데 핵심적인 과정입니다.

 

 

Addressing cost uncertainty: 비용 예측의 어려움은 ROI 추산을 어렵게 만든다

기업들은 여전히 외부 기술업체의 솔루션을 그대로 사용할 수 있을지, 아니면 더 많은 비용을 들여 맞춤형으로 구축해야 할지를 고민하고 있습니다.

 

또한 파일럿 프로젝트 수준의 예산은 수립할 수 있지만, AI를 전사적으로 운영하는 데 드는 전체 비용은 여전히 불확실합니다. 제한적인 실험을 계획하는 것과, 수많은 직원이 매일 사용하는 성숙한 솔루션을 구축하는 것은 완전히 다른 이야기입니다.

 

이런 점에서 기업은 많은 선택지를 놓고 고민하게 되고, 기술 리더는 더 빠르고 과감한 의사결정을 내려야 합니다.

 

 

Workforce planning: 인력 계획은 점점 더 복잡해지고 있다

기업은 얼마나 많은 AI 전문가가 필요한지, 그들이 어떤 기술을 갖춰야 하는지, 해당 인재 풀이 실제 존재하는지, 채용은 얼마나 빨리 가능할지, 또 채용 이후 어떻게 회사를 매력적인 근무처로 유지할 수 있을지에 대해 여전히 불확실성을 안고 있습니다.

 

동시에 AI가 다른 기술의 수요를 얼마나 빠르게 줄일지도 알 수 없어, 인력 재조정과 재교육이 필요한 상황입니다.

 

 

Managing supply chain dependencies: 공급망 의존성은 큰 리스크가 될 수 있다

취약한 공급망은 기술적·규제적·법적 문제로 인해 기업 운영에 차질을 줄 수 있습니다.

 

AI 공급망은 전 세계적으로 분산되어 있으며, R&D는 중국, 유럽, 북미에 집중되어 있고, 반도체 및 하드웨어 생산은 동아시아와 미국에 집중되어 있습니다.

 

지정학적 리스크도 복잡하며, 오픈소스 커뮤니티에서 모델과 애플리케이션이 공동 개발되는 사례도 늘어나고 있습니다.

 

 

Meeting the demand for explainability: 설명 가능성 요구는 핵심적인 도전 과제다

AI를 안전하게 도입하려면, 모델이 왜 그런 결과를 도출했는지를 설명할 수 있어야 합니다.

 

하지만, 대부분의 대형 언어모델(LLM)은 일종의 ‘블랙박스’처럼 작동하며, 어떤 데이터로 어떤 판단을 했는지 명확히 알려주지 않습니다. 예를 들어, 신용카드 발급 거절이라는 결과가 어떤 이유에서 비롯됐는지 설명할 수 없다면, 그 AI는 핵심 업무에서 신뢰받기 어렵습니다.

 

이러한 AI 특유의 과제들은 결코 간단하지 않지만, 충분히 해결할 수 있는 문제들입니다.

 

기업들은 이미 실행에 나서고 있으며, 예컨대 NVIDIA 클러스터 확보나 동적인 비용 계획 수립 등이 그 사례입니다. 인사 책임자들은 현직자의 재교육 프로그램을 만들고, 일부 직원이 새로운 역할로 전환할 수 있도록 지원하고 있습니다. 하지만, 진정한 성공을 위해선 이보다 더 근본적인 변화가 필요합니다.

 


 

AI의 가치를 실현하려면, 조직 구조를 다시 설계해야 한다

맥킨지의 ‘Rewired’ 프레임워크는 지속적인 디지털 전환을 위한 여섯 가지 핵심 요소를 제시합니다: 로드맵, 인재, 운영모델, 기술, 데이터, 확장(Exhibit 18 참고).

 

 

이 모델을 잘 구현한 기업은 자율성과 유연성을 높이고, 클라우드 기반의 최신 기술을 도입하며, 다양한 분야의 전문가가 협업하는 애자일 팀을 운영하게 됩니다.

 

AI 도입과 관련해서는 이 여섯 가지에 추가로 고려해야 할 요소들이 있습니다

 

적응력(Adaptability)

AI 기술은 빠르게 발전하고 있기 때문에, 새로운 모범 사례를 신속히 받아들여야 경쟁력을 유지할 수 있습니다.

 

모듈형 아키텍처는 기술 스택을 유연하게 유지할 수 있게 도와줍니다. 자연어가 시스템 통합 수단으로 활용되면서, 모델과 도구 간의 교체와 통합이 쉬워지고 있습니다. 이는 벤더 종속에서 벗어나고, 신기술을 빠르게 도입할 수 있는 기반이 됩니다.

 

 

분산형 거버넌스(Federated governance)

데이터와 모델 관리를 통해 각 팀이 새로운 AI 도구를 개발할 수 있는 자율성을 갖는 동시에, 위험 요소는 중앙에서 통제할 수 있습니다. 고위험 혹은 주목도가 높은 사안은 리더가 직접 관리하고, 성능 관련 요소는 현업 부서에 위임하는 구조입니다.

 

 

유연한 예산(Budget agility)

LLM, SLM, 에이전트 등 다양한 AI 기술 조합이 가능해진 만큼, 예산 계획도 유연하게 설정해 비용과 성능을 모두 고려할 수 있어야 합니다.

 

 

AI 벤치마크(AI benchmarks)

벤치마크는 다양한 AI 모델과 시스템의 성능을 수치화해 평가할 수 있는 도구입니다. 기술 리더들이 공공 벤치마크를 도입하고, 경영진이 윤리 기준을 포함한 벤치마크를 적극적으로 활용한다면, 모델의 투명성과 책임성이 강화되고, 직원들의 신뢰도 향상에 기여할 수 있습니다.

 

 

AI 관련 역량 격차(AI-specific skill gaps)

46%의 경영진이 인재 역량 부족을 AI 도입의 가장 큰 장벽으로 꼽았습니다. AI/ML 엔지니어, 데이터 과학자, 시스템 통합 전문가 등 최고 수준의 인재를 유치하고, 이들이 실험하고 오픈소스에 기여하며 협업할 수 있는 환경을 제공해야 합니다.

 

기존 직원의 재교육도 중요합니다. 예를 들어, 기술팀은 라이브러리 생성 부트캠프를, 실무 부서는 프롬프트 엔지니어링 교육을 받을 수 있도록 맞춤형 프로그램을 운영해야 합니다.

 

 

사람 중심(Human centricity)

공정성과 중립성을 확보하려면, 다양한 배경의 목소리를 AI 개발 초기부터 적극 반영하고, 투명한 커뮤니케이션을 유지해야 합니다. 현재 비기술직 직원의 초기 참여를 계획하는 리더는 48%에 불과합니다.

 

디자인 씽킹, 인간 피드백 기반 학습(RLHF), 애자일 조직 구조 등은 모두 기술자와 현업이 함께 만드는 ‘모두를 위한 AI’를 실현하는 데 중요한 요소입니다.

 

또한, AI로 인한 일자리 변화에 대해 솔직하게 소통하고, 직원의 의견을 반영할 수 있는 공간을 마련하는 것이 신뢰와 투명성을 유지하는 핵심입니다.