SAS의 AI 에이전트 책임성 확보를 위한 노력

(출처: sdecoret/Shutterstock)
SAS Innovate 2025 행사에서 SAS는 에이전틱 AI(agentic AI)에 대한 로드맵을 공개하며, AI 에이전트가 트렌드로 자리 잡기 훨씬 전부터 지능형 의사결정 자동화에 조용히 노력해온 기업으로서의 입지를 강조했습니다. SAS Viya 플랫폼의 최신 개선사항은 기업이 자동화와 윤리적 감독을 결합한 AI 에이전트를 설계, 배포 및 관리할 수 있도록 지원합니다.
많은 기술 공급업체들이 얼마나 많은 AI 에이전트를 동시에 구동할 수 있는지 보여주기 위해 경쟁하고 있지만, SAS CTO 브라이언 해리스는 이러한 수치를 허영 지표에 불과하다고 일축했습니다. 그에 따르면 중요한 것은 에이전트의 수가 아니라 그들이 만들어내는 결과물의 품질입니다.
"진정으로 중요한 지표는 기업에서 어떤 종류의 의사결정을 내리고 있는지, 그리고 그러한 의사결정이 비즈니스에 어떤 가치를 제공하는지입니다."라고 해리스는 말했습니다.
SAS가 정의하는 에이전틱 AI
SAS에서 정의하는 에이전틱 AI는 단순히 작업을 자동화하는 것이 아니라, 추론, 분석 및 내장된 거버넌스를 결합한 의사결정 시스템을 구축하는 것입니다. SAS Viya 플랫폼은 결정론적 모델, 머신러닝 알고리즘 및 대규모 언어 모델을 통합된 오케스트레이션 레이어로 통합하여 이러한 비전을 지원합니다. 목표는 기업이 적절한 경우 자율적으로 행동할 수 있는 지능형 에이전트를 배포하는 동시에, 중요한 상황에서는 투명성과 인간의 감독을 제공할 수 있도록 하는 것입니다.

SAS Innovate 2025
응용 AI 및 모델링 R&D 부사장인 우도 슬라보는 SAS의 에이전틱 추진을 회사의 컨설팅 중심 과거에서 자연스러운 진화로 설명했습니다. "우리는 오랫동안 이런 종류의 모델링 작업을 해왔지만, 일반적으로 일대일 관계였습니다. 문제를 가지고 오면 컨설턴트를 보내고, 그들이 해결하고, 우리는 떠났습니다."라고 슬라보는 말했습니다. "이제 아이디어는 동일한 종류의 문제에 대해 10번, 100번 이 작업을 수행했다면, 이 모든 IP를 가져와 소프트웨어 제품에 넣는 것입니다."
슬라보에 따르면, 서비스에서 확장 가능한 솔루션으로의 이러한 전환은 LLM에 대한 편안함이 커지면서 가속화되었습니다. "마인드셋의 변화가 있었습니다. 고객들은 이제 자신들이 직접 구축하지 않은 모델을 채택하는 데 더 기꺼이 하고 있습니다." 이러한 변화로 인해 사전 패키지된 모델과 에이전트 기반 시스템의 더 넓은 채택이 가능해졌습니다.
대규모 언어 모델의 한계
해리스와 슬라보는 모두 LLM이 널리 선호됨에도 불구하고 기업 AI 분야에서 훨씬 더 큰 그림의 일부에 불과하다고 강조했습니다. SAS에서 LLM은 가치 있지만 제한된 구성 요소로 간주되며, 신뢰할 수 있고 반복 가능한 의사결정을 위해서는 다른 형태의 지능과 결합되어야 합니다.
SAS 임원들은 동일한 입력에 대해 항상 일관된 출력을 반환하는 결정론적 모델과 달리 LLM은 예측 불가능할 수 있다고 설명했습니다. "동일한 조건으로 결정론적 모델을 천 번 실행하면 천 번 같은 답을 얻습니다."라고 해리스는 말했습니다. "대규모 언어 모델의 경우에는 그렇지 않습니다." 이러한 가변성 때문에 감사 가능성과 제어가 중요한 고위험 애플리케이션에는 적합하지 않습니다. 대신 SAS는 LLM을 그들이 뛰어난 분야에서 사용합니다: 반복적인 작업을 가속화하고 나중에 인간이나 더 결정론적인 시스템이 개선할 수 있는 프로토타입 솔루션을 생성하는 것입니다.
반복 작업 가속화의 한 예는 스키마 매핑으로, 종종 도메인 지식과 세심한 수동 검토가 필요한 작업입니다. 메타데이터를 입력으로 사용하면 LLM은 열 일치를 신속하게 제안하고 코드를 생성하여 여러 주가 걸리는 작업을 몇 분으로 줄일 수 있습니다. 그러나 정확도가 다를 수 있기 때문에 SAS는 신뢰도 점수를 통합하고 항상 결과를 검증하기 위한 인간 참여를 포함합니다.
더 고급 사용 사례에서 SAS는 또한 LLM이 이전 단계를 다시 방문하고, 매핑을 재고하고, 초기 가정에 도전함으로써 자체 출력을 반복할 수 있는 기술을 구현했습니다. 이 반복적인 자체 검증 행동은 에이전트가 단순히 첫 번째 답변을 받아들이는 것이 아니라 동적으로 문제를 추론하는 SAS의 에이전틱 AI 프레임워크의 핵심 설계 원칙입니다.
에이전트에게 목표 부여하기
SAS가 전통적인 자동화와 에이전틱 AI 사이에 그리는 핵심적인 차이점은, 목표 지향성에 있습니다. 단순히 미리 정의된 일련의 지침을 실행하는 대신, 에이전트는 정의된 목표를 추구하고 그 목표가 달성될 때까지 동적으로 행동을 조정하도록 설계되었습니다. 이 기능은 조직이 AI를 생각하는 방식의 변화를 반영하며, 부분적으로는 LLM에 대한 초기 열정 이후 찾아온 환멸감에 의해 촉진되었습니다.

Udo Sglavo, SAS VP of Applied AI and Modeling R&D
슬라보는 인터뷰에서 많은 비즈니스 리더들이 처음에는 생성형 모델이 비즈니스 문제를 넣고 솔루션을 얻을 수 있는 일종의 보편적인 지능을 제공할 것이라고 기대했다고 설명했습니다. 대신, LLM은 텍스트 분석과 같은 좁은 작업에 가장 적합한 것으로 판명되었습니다. 그는 에이전틱 AI의 등장은 수십 년에 걸쳐 개발된 통계, 머신 러닝 및 최적화 기술을 LLM과 검색 증강 지식 시스템의 최신 기능과 결합하려는 노력을 나타낸다고 말했습니다.
이 프레임워크에서 에이전트는 이러한 도구의 오케스트레이터가 됩니다. 각 단계에 대해 명시적으로 프로그래밍되는 대신, 이벤트 등록 수 증가와 같은 목표가 주어지고, 그것을 달성하는 방법을 결정하는 임무를 맡습니다. 예를 들어, 에이전트는 이메일을 생성하고, 통계 모델을 사용하여 잠재적 수신자를 식별하고, 정의된 목표에 도달할 때까지 캠페인을 계속 개선할 수 있습니다.
이런 종류의 에이전트는 마케팅 캠페인과 같은 낮은 위험 시나리오에 적합하다고 슬라보는 언급했습니다. 그러나 신용 승인이나 의료 결과와 같은 결정에서 위험이 더 높을 때는 접근 방식이 바뀌어야 합니다. 인간 참여 감독이 필수적이며, 명확한 거버넌스 프레임워크가 자율성이 끝나고 책임성이 시작되는 곳을 정의해야 합니다.
핵심으로서의 거버넌스와 신뢰
SAS 임원들은 에이전틱 AI가 내장된 거버넌스 없이는 책임감 있게 배포될 수 없다고 강조했습니다. SAS Viya에는 편향을 감지하고, 공정성을 평가하며, 의사결정이 어떻게 이루어지는지에 대한 완전한 투명성을 제공하는 메커니즘이 포함되어 있습니다. "우리는 고객에게 모델이 부족할 때 통찰력을 제공합니다," 해리스는 말했습니다. "그리고 그들은 데이터를 개선하거나 모델을 개선하는 선택을 할 수 있습니다."

(출처: Suri_Studio/Shutterstock)
거버넌스에는 또한 에이전트에게 얼마나 많은 자율성이 부여되는지에 대한 제어도 포함됩니다. 이는 금융, 의료 및 공공 서비스와 같은 고위험 도메인에서 특히 중요합니다. SAS는 투명성을 보장하는 가드레일을 포함하고 고객이 에이전트에게 허용되는 자율성을 세밀하게 조정할 수 있도록 합니다.
SAS는 또한 현지화된 지식 소스의 중요성을 강조합니다. 인터넷에서 얻은 정보에 의존하는 대신, 에이전트는 기업 특정 데이터 저장소에서만 정보를 가져오도록 구성될 수 있습니다. 검색 증강 생성(RAG) 설정을 통해 에이전트는 보안이나 정확성을 손상시키지 않고 상황에 맞는 결정을 내리기 위해 내부 지식 기반에 액세스할 수 있습니다.
에이전트 마켓플레이스가 다가오고 있다
앞으로 슬라보는 에이전틱 AI가 기업이 다양한 공급업체의 전문화된 에이전트를 혼합하고 매칭할 수 있는 오픈 마켓플레이스로 발전할 것으로 예상합니다. 그 미래에서 의사결정은 MCP 또는 구글의 오픈소스 A2A와 같은 공유 프로토콜을 사용하여 통신하고 협력하는 상호연결된 에이전트 네트워크 전반에 분산될 것입니다. 이 비전은 또한 기업이 배포에 대해 생각하는 방식을 재정의합니다. 대규모 모놀리식 AI 시스템을 제공하는 대신, 기업은 각각 좁은 초점을 갖지만 깊은 전문성을 가진 민첩한 에이전트를 배포할 것입니다.
"이것이 에이전트의 마켓플레이스가 될 것입니다,"라고 슬라보는 말했습니다. "우리가 최고의 공급망 최적화 에이전트를 가지고 있다고 말할 수 있지만, 다른 공급업체도 같은 주장을 할 수 있기 때문입니다. 그리고 그것은 신뢰, 가격, 실적의 문제가 됩니다. 그들이 이전에 이것을 해 본 적이 있는가? 그들은 단지 기술에는 능숙하지만 실제 고객과 일한 적이 없는 스타트업인가?"
슬라보는 기업이 필요에 따라 에이전트를 선택하고 결합할 수 있는 유연성을 원할 것이라고 덧붙였습니다. "이 에이전트, 저 에이전트, 또 다른 에이전트를 사용하고 싶다고 말하고 - 그냥 그들을 모두 함께 가져오면 됩니다."
책임 있는 AI에 기반한 미래

Bryan Harris, CTO at SAS
생성형 AI가 계속해서 헤드라인을 장식하는 가운데, SAS는 의사결정 중심 AI에 베팅하고 있습니다. 잘못된 결정의 비용이 생명이나 수십억 달러로 측정될 수 있는 규제 산업의 기업에게는 투명성과 신뢰가 실험이나 규모보다 먼저 와야 한다고 회사는 주장합니다.
기업 AI 대화가 실험적 프로토타입에서 더 실용적이고 책임감 있는 시스템으로 전환됨에 따라, SAS는 신뢰, 상호운용성, 의사결정 품질이 우선시되는 공간을 확보하고 있습니다.
"무책임한 행동을 막을 수는 없습니다,"라고 해리스는 말했습니다. "하지만 우리는 올바른 결정을 내릴 수 있는 도구를 제공할 수 있습니다."