최근 Liquid AI에서 출시한 에이전트 워크플로우를 위한 새로운 모델과 애플리케이션은 데이터 프라이버시와 로컬 실행 성능을 중요시하는 기업 환경에 혁신적인 변화를 가져올 것으로 기대됩니다. 기존의 AI 모델들은 클라우드 기반 API를 통해 동작하는 경우가 많아 데이터 유출 및 보안 문제에 대한 우려가 존재했습니다. 이러한 문제점을 해결하기 위해 Liquid AI는 LFM2-24B-A2B 모델과 LocalCowork 애플리케이션을 통해 완전한 온디바이스 실행 환경을 제공하며, 에이전트 기반의 워크플로우를 더욱 안전하고 효율적으로 관리할 수 있도록 지원합니다.
LFM2-24B-A2B 모델은 Sparse Mixture-of-Experts (MoE) 아키텍처를 채택하여 240억 개의 파라미터를 포함하고 있지만, 추론 과정에서 약 20억 개의 파라미터만 활성화하여 효율적인 연산이 가능하도록 설계되었습니다. 이는 모델의 지식 기반을 유지하면서도 계산 오버헤드를 줄이는 중요한 요소이며, 36GB의 통합 메모리와 32개의 GPU 코어를 갖춘 Apple M4 Max에서도 원활하게 작동할 수 있습니다. 이와 더불어 Q4_K_M GGUF 양자화 방식을 통해 메모리 사용량을 약 14.5GB로 줄여, 일반적인 소비자 하드웨어에서도 에이전트를 실행할 수 있도록 했습니다.
LocalCowork: 온디바이스 AI 에이전트의 실질적인 구현
LocalCowork는 Model Context Protocol (MCP)을 기반으로 구축된 데스크톱 AI 에이전트 애플리케이션입니다. 이 애플리케이션은 클라우드 API에 의존하지 않고 완전히 오프라인으로 작동하며, 파일 시스템 작업, OCR, 보안 스캔 등 다양한 작업을 수행할 수 있는 75개의 도구를 MCP 서버를 통해 통합합니다. 특히, LocalCowork는 모든 작업 과정을 로컬 감사 로그에 기록하여 데이터 프라이버시 및 규정 준수를 강화합니다.
성능 벤치마크 및 분석
Liquid AI 팀은 100개의 단일 단계 도구 선택 프롬프트와 3~6개의 개별 도구 실행을 필요로 하는 50개의 다중 단계 체인에 대한 워크로드를 통해 모델의 성능을 평가했습니다. 에이전트의 평균 도구 선택 응답 시간은 약 385ms로, 이는 실시간 상호 작용에 적합한 매우 빠른 속도입니다. 단일 단계 실행의 정확도는 80%에 달하지만, 다중 단계 체인의 성공률은 26%로 제한되었습니다. 이는 모델이 아직까지 완전 자율적인 에이전트로서 작동하기보다는, 사용자 안내가 필요한 환경에서 더 효과적으로 작동한다는 것을 시사합니다.
업계 영향 및 미래 전망
LFM2-24B-A2B 모델과 LocalCowork 애플리케이션의 등장은 데이터 프라이버시를 최우선으로 고려하는 기업들에게 새로운 가능성을 제시합니다. 금융, 의료, 법률 등과 같이 데이터 보안이 중요한 산업 분야에서 온디바이스 AI 에이전트는 규제 준수를 강화하고 데이터 유출 위험을 줄이는 데 기여할 수 있습니다. 또한, 실시간 상호 작용이 중요한 고객 서비스, 생산성 도구 등 다양한 분야에서 활용될 수 있습니다.
향후 모델의 다중 단계 체인 성공률을 높이기 위한 연구와 함께, 더욱 다양한 도구와의 통합을 통해 에이전트의 활용 범위를 확대할 수 있을 것으로 예상됩니다. 또한, Model Context Protocol (MCP)의 표준화는 다양한 AI 에이전트 개발에 기여하고, 사용자 맞춤형 에이전트를 구축하는 데 도움이 될 것입니다.
심층 분석 및 시사점
- Sparse Mixture-of-Experts (MoE) 아키텍처: 모델 크기를 줄이면서도 성능을 유지하여 효율적인 추론을 가능하게 합니다.
- Model Context Protocol (MCP): 다양한 도구와의 통합을 위한 표준화된 인터페이스를 제공하여 에이전트의 확장성을 높입니다.
- Q4_K_M GGUF 양자화: 모델 크기를 줄여 일반적인 소비자 하드웨어에서도 실행 가능하도록 합니다.
- Sub-Second Latency: 385ms의 평균 지연 시간은 실시간 상호 작용 애플리케이션에 적합합니다.
- 온디바이스 실행: API 호출 및 데이터 유출 없이 데이터 프라이버시를 강화합니다.



