블로그 이미지
Peter Note
Web & LLM FullStacker, Application Architecter, KnowHow Dispenser and Bike Rider

Publication

Category

Recent Post

2025. 8. 15. 16:53 [LLM FullStacker]/Agentic AI

LLM이 더 똑똑해 지게 RAG가 나오고, 이어서 내게 필요한 실제 일을 할 수 있는 AI Agent가 나온 다음 이제는 좀 더 복한한 문제를 처리할 수 있는 Agentic AI가 회자되고 있다. 

 

AI Agent 는 

추론하고 도구를 사용하여 답을 생성한다. 여기에 ReAct (Resoning 추론 + Act 실행) 패턴 또는 PlanningAct 패턴등이 사용된다.
- Plan : 작업을 어떻게 수행할지 결정, 문제를 단계로 분해

- Act : 실행하기. 도구호출, API 요청, 행동 실행 - Tool Calling, MCP를 통한 도구의 확장이 가능하다

- Observer : 실행 결과과 또는 외부 환경의 피드백을 관찰하고 이해

 

Tool Calling을 Enterprise 급으로 확장하기 위해 MCP가 필수로 보인다. 두뇌인 LLM이 일을 시킬 수 있는 팔/다리 역할을 하는 MCP 도구가 필요하다. AI Agent가 사용하는 도구로써 MCP는 Pluggable한 확장성 및 모듈화 배포가 필요하다. 

 

Agentic AI

- 목표지향성 : 복잡한 과정을 거쳐야 하는 목표를 달성 한다

- 자율성 : 자율적으로 움직인다

- 협업 : 에이전트끼리 협업한다.

 

 

Agentic AI는 단순한 질의응답형 LLM을 넘어, 목표 지향적이며 자율적이고 협업 가능한 지능형 시스템을 구축하기 위한 접근입니다.

아래는 이를 실현하기 위한 주요 패턴과 LLM 프레임워크를 정리한 것입니다:

 

 

Agentic AI의 3대 핵심 목표와 대응 전략

목표설명요구 기능

🎯 목표 달성 복잡하고 장기적인 작업을 처리할 수 있어야 함 계획 수립, 추론, 반복 실행
🧠 자율성 외부 명령 없이 상황을 인식하고 스스로 결정 상태 기반 추론, 조건 분기, 자기 반성
🤝 협업 복수의 에이전트가 역할 분담하고 협력 다중 에이전트 구조, 메시지 전달, 역할 기반 처리

 

 

1. 목표 달성을 위한 주요 패턴 & 프레임워크

패턴

Planning Pattern 목표를 세분화하여 단계적으로 처리
Hierarchical Agent Pattern 상위 Agent가 하위 작업을 위임하고 통제
Reflect & Retry Pattern 중간 결과를 평가하고 실패 시 수정 실행
Tree of Thoughts (ToT) 여러 가능한 행동 경로를 탐색해 가장 좋은 경로 선택

 

프레임워크

LangGraph 상태 기반 워크플로우 정의 가능. 조건 분기, 반복, 실패 대응에 강함
AutoGen Multi-agent script 기반 목표 달성 처리 (multi-turn에 특화)
CrewAI 목표 중심 Role 기반 Agent 분업 구조
LangChain LLM + Tool + Memory 조합으로 세부 작업 처리에 유리

 

 

 2. 자율성을 위한 주요 패턴 & 프레임워크

패턴

ReAct (Reason+Act) 스스로 사고하고 필요한 행동 수행
Agent Loop / Reflective Agent 목표→실행→관찰→반성→재시도 루프
Event-driven Reactor Pattern 환경 변화에 반응하는 비동기 방식
Stateful Agent 메모리와 상태 저장 후 지속적인 판단 수행

 

프레임워크

LangGraph 상태 머신 구조 기반 자율 분기/반복 처리
LangChain Expression Language (LCEL) 구성 요소 재사용 및 비동기 처리
MetaGPT 역할 기반 협업 + 코드 자동 생성에 강함
AutoGPT 완전한 자율 실행. (다만 오용 위험 있음)

 

 

3. 협업을 위한 주요 패턴 & 프레임워크

패턴

Multi-Agent Pattern 여러 Agent가 역할을 나누어 수행
Role-based Agent System 각 Agent에게 역할/기능 지정
Message Passing Agent 간 의사소통을 통해 협력
Blackboard Pattern 공유 저장소를 기반으로 협업

 

프레임워크

CrewAI Role + Task 분리 구조로 협업 모델링
AutoGen (multi-agent mode) agent끼리 자연어 기반 대화로 협력
LangGraph + NATS/Redis 에이전트간 상태 전파 + Pub/Sub
Swarm AI / OpenDevin 분산형 Agent 협력 시스템 (초기 개발 단계)

 

 

종합: Agentic AI Framework를 구성하는 방법

- LangGraph 기반 상태 흐름 제어

- MCP Server를 통한 Agent 분리 및 독립 실행

- Planner → Executor → Observer 구조를 각 Agent에 적용

- Multi-Agent Registry / Dispatcher 를 두어 협업 기반 처리

 

예시: 제조 AI에 특화된 구성

모듈 패턴 프레임워크

설비 분석 에이전트 ReAct + Tool Use LangChain + LangGraph
작업 분배 매니저 Planner + Multi-Agent CrewAI or LangGraph
품질 진단 Reflection LangGraph + LLMChain
AI 보고서 작성기 Plan → Act → Reflect LangGraph + LangServe
실시간 이벤트 대응 Reactor Pattern LangGraph + Redis

 

결론 요약

목표 필요한 패턴추천 프레임워크

목표 달성 Planning, Hierarchy, Retry LangGraph, AutoGen, LangChain
자율성 ReAct, State Loop, Reflection LangGraph, MetaGPT
협업 Multi-Agent, Role-Based CrewAI, AutoGen, LangGraph

 

 

<참조>

- AI Agent에서 MCP

https://www.youtube.com/watch?v=Ncu588eZR4o

 

- 조대협님의 MCP 10분안에 이해하기

https://www.youtube.com/watch?v=-b0IEN4JAGE 

 

- 안될공학의 Agentic AI 개념 설명

https://www.youtube.com/watch?v=aDukCWkPbeQ

 

 

'[LLM FullStacker] > Agentic AI' 카테고리의 다른 글

Gemini CLI 에 Super Gemini 붙이기  (1) 2025.08.11
Agentic Analytics란?  (1) 2025.08.02
[Agentic AI] 에이젠틱 AI 란 무엇인가?  (0) 2025.06.29
MS AutoGen 개념 정리  (0) 2025.01.21
posted by Peter Note
2025. 8. 11. 10:13 [LLM FullStacker]/Agentic AI

Claude Code에 Super Claude를 설치하여 사용하듯, Gemini Code에 Super Gemini를 함께 사용할 수 있다. 

 

Gemini Code 설치

설치 및 상세가이드는 gemini-cli 참조

// 설치
npm install -g @google/gemini-cli

// 실행
gemini

 

Gemini 상세 가이드를 참조하자.

 

Super Gemini 설치

SuperClaude의 sc 커맨드이고, SuperGemini는 sg 커맨드를 사용한다.

https://github.com/SuperClaude-Org/SuperGemini_Framework

// python 버전에 맞게 설치
pip install SuperGemini

// SuperGemini 를 계정 .gemini 폴더에 설치
SuperGemini install

// 하위는 install 설치 과정이다.
============================================================
              SuperGemini Installation v3.1.4
        Installing SuperGemini framework components
============================================================

[INFO] Initializing installation system...

SuperGemini Installation Options:

Select installation type:
=========================
 1. Quick Installation (recommended components)
 2. Minimal Installation (core only)
 3. Custom Selection

Enter your choice (1-3):
> 3

Available Components:

Select components to install:
=============================
 1. [ ] hooks (integration) - Gemini Code hooks integration (future-ready)
 2. [ ] core (core) - SuperGemini framework documentation and core files
 3. [ ] mcp (integration) - MCP server integration (Context7, Sequential, Playwright active; Magic disabled by default)
 4. [ ] commands (commands) - SuperGemini slash command definitions

Enter numbers separated by commas (e.g., 1,3,5) or 'all' for all options:
> 1,2,3,4

[INFO] Validating system requirements...
[✓] All system requirements met
[!] Installation directory already exists: /Users/peter/.gemini
Continue and update existing installation? [y/N]
>  y

Installation Plan
==================================================
Installation Directory: /Users/peter/.gemini
Components to install:
  1. core - SuperGemini framework documentation and core files
  2. hooks - Gemini Code hooks integration (future-ready)
  3. mcp - MCP server integration (Context7, Sequential, Playwright active; Magic disabled by default)
  4. commands - SuperGemini slash command definitions

Estimated size: 50.2 MB

Proceed with installation? [Y/n]
> y

...

[✓] Installation completed successfully in 0.3 seconds
[INFO] Installed components: commands, core
[INFO] Backup created: /Users/peter/.gemini/backups/supergemini_backup_20250811_100506.tar.gz
[✓] SuperGemini installation completed successfully!

Next steps:
1. Restart your Gemini Code session
2. Framework files are now available in /Users/peter/.gemini
3. Use SuperGemini commands and features in Gemini Code

 

설치가 완료되면 계정의 .gemini 폴더에 commands/sg/*.md 파일과 *.md 파일들이 생성된다. gemini를 다시 실행한다. 

/sg 를 입력하면 이제 SuperGemini 기능을 사용할 수 있다. 

 

VS Code에 Gemini Page Plugin 을 설치하여 편하게 사용하자. 

 

하단의 콘솔창이 아니라, 별도 VS Code에서 채팅창처럼 콘솔을 사용토록 UX를 개선해 준다. 

 

 

<참조>

- SuperGemini

  https://github.com/SuperClaude-Org/SuperGemini_Framework

 

GitHub - SuperClaude-Org/SuperGemini_Framework

Contribute to SuperClaude-Org/SuperGemini_Framework development by creating an account on GitHub.

github.com

 

- https://superclaude-org.github.io/

 

SuperClaude v3 - Advanced Development Framework for Claude Code

16 specialized commands, smart personas, and MCP server integration for enhanced Claude Code development workflows.

superclaude-org.github.io

 

- https://github.com/SuperClaude-Org/SuperClaude_Framework

 

GitHub - SuperClaude-Org/SuperClaude_Framework: A configuration framework that enhances Claude Code with specialized commands, c

A configuration framework that enhances Claude Code with specialized commands, cognitive personas, and development methodologies. - SuperClaude-Org/SuperClaude_Framework

github.com

 

- https://www.youtube.com/watch?v=YxjLqtFGh1c

 

posted by Peter Note
2025. 8. 2. 16:28 [LLM FullStacker]/Agentic AI

다음은 Plotly의 블로그 포스트 “An Introduction to Agentic Analytics” (2025년 5월 14일 게시) 내용을 한국어로 정리한 요약입니다.

 


 

🧠 Agentic Analytics란?

 

Agentic Analytics는 단순한 데이터 시각화를 넘어, AI 에이전트가 목표 중심으로 스스로 데이터 분석, 판단, 행동까지 수행하는 분석 패러다임입니다.

기존의 전통적인 BI 도구가 인사이트를 제공하는 데 그쳤다면, 에이전트는 KPI 변화를 감지하고 자동으로 추가 조사를 시작하거나 워크플로우를 트리거할 수 있습니다  .

 


 

⚙️ Agentic AI 구성 요소

Agentic AI 시스템은 주로 다음 네 가지 핵심 요소로 구성됩니다  :

  • Planning module: 목표를 이해하고 분석 단계를 계획
  • Tool execution interface: 외부 도구 호출 및 실행
  • Memory system: 과거 분석 데이터를 보관하고 재사용
  • Feedback loop: 실행 결과를 평가하고 스스로 개선

이 구조는 초기 목표를 설정하고 이를 자동으로 쪼개 분석하며 재조정하는 방식으로, 마치 주니어 애널리스트처럼 작동합니다.

 

📊 기존 BI / Copilot과의 차이

구분전통 BI / ChatbotAI-assisted CopilotAgentic Analytics

인사이트 생성 수동 탐색 사용자가 주도적 입력으로 생성 자동 모니터링, 판단, 행동 수행
행동 유도 없음 분석 지원 수준 전략에 기반해 독립 행동
실행 시점 사용자 요청 시 사용자 프로세스 중 실시간 스스로 작동
시스템 통합 시각화 중심 일부 본문 기반 분석 외부 시스템 및 워크플로우와 완전 통합 
분석 신뢰성 제한 보조적 정확도 explainable 모델과 거버넌스 기반 정확 분석 

 

✨ Agentic Analytics의 주요 이점

  • 실시간 대응: KPI 이상 징후가 발견되면 에이전트가 사전 정의된 대응을 즉시 실행
  • 운영 효율 향상: 반복 작업을 자동화하여 인력 리소스를 절감
  • 비즈니스 연계력 강화: 데이터 인사이트에서 실행(Action)까지 일괄 처리 가능 
  • 신뢰 가능성: 분석 경로와 의사결정 논리(explainable) 제시, 기업의 거버넌스 준수 

 

🔍 적용 사례 및 활용 시나리오

다양한 산업에서 실제 도입 사례가 증가하고 있습니다:

  • 영업 재고 자동 보충: 재고 부족 감지 → 자동 주문 재요청
  • 금융 이상 트랜잭션 차단: 사기 가능성이 있는 거래를 자동 중지
  • 루트 원인 분석: 이상 징후 발생 시 분석 흐름을 설계해 원인 진단까지 자동화 

 

Plotly는 이러한 트렌드를 바탕으로 Plotly StudioDash Enterprise 환경에서 Agentic Analytics 기반 데이터 앱 생성 플랫폼을 제공합니다:

  • Plotly Studio: 데이터셋 입력만으로 AI가 분석 결과를 시각화 앱으로 자동 변환
  • Python 코드 기반으로 앱 생성 → 쉽게 배포 가능
  • Dash Enterprise와 통합되어 보안, 협업, 확장성 지원 

 

✅ 요약 정리

Agentic Analytics는 데이터 기반 의사결정의 지연과 해석 과정을 단축하고 자동화하여 실질적인 비즈니스 실행으로 연결하는 AI 중심의 분석 혁신입니다.

Plotly는 이를 실현하는 플랫폼으로 자동 앱 생성 및 실행 중심 에이전트 워크플로우 환경을 제공 중입니다.

 

 

참조

- https://plotly.com/blog/introduction-to-agentic-analytics/

 

An Introduction to Agentic Analytics

Explore how agentic analytics uses AI agents to monitor KPIs, generate insights, and trigger actions autonomously in modern data workflows.

plotly.com

 

posted by Peter Note
2025. 6. 29. 14:14 [LLM FullStacker]/Agentic AI

Agentic AI 란?

"에이전트들이 협업하며, 자율적으로 해동 계획을 수립하고, 목표를 달성하는 시스템 전체 또는 프레임워크이다". 보통 AI Agent 라는 부르는 것은 "특정 목표를 수행하는 개별 인공지능 객체"를 의미한다. 

 

Agentic AI 에서 중요한 것은 3가지 이다. 

- 자율적 자기주도적 사고

- 멀티에이전트 협업 능력

- 목표 달성 중심 시스템(프레임워크)

 

AI Engineering 롤을 두개로 나눈다면 AI Solution Engineer와 AI Data Engineer로 나눠 보았을 때, AI Solution Engineer가 Agentic AI 시스템을 구축하는 것이고, AI Data Engineer가 전통적인 ML 및 비즈니스 핵심 알고리즘을 구현하는 부분이라 본다. 

 

그렇다면 AI Solution Engineering의 파트를 구체화 한다면 다음의 7 Layers로 나누어 볼 수 있겠다. 

https://www.linkedin.com/posts/digitalprocessarchitect_the-7-layers-you-need-to-build-an-ai-agent-activity-7343997796842139650-43GX/

 

1. Experience Layer

Where humans interact with the agent - through chatbots, dashboards, or voice assistants. 

It’s the UI layer of agent interaction.

 

2. Discovery Layer

This is how the agent finds and injects relevant knowledge 

- using RAG, vector databases, and memory recall techniques.

 

3. Agent Composition Layer

Defines the internal structure of your agent. 

Combines modular sub-agents into complex, goal-driven workflows.

 

4. Reasoning & Planning Layer

The thinking brain of the agent. It plans actions, reflects, sets priorities, 

and uses strategies like CoT or ReAct.

 

5. Tool & API Layer

Connects reasoning to real-world execution. 

It handles file systems, APIs, shell commands, and function calls.

 

6. Memory & Feedback Layer

Where the agent learns and adapts. 

Stores past interactions, builds self-awareness, and uses memory to improve.

 

7. Infrastructure Layer

The backend engine scales agents, manages models, deploys pipelines, 

and secures the whole system.

 

인프라스트럭처의 LLMOps 에서 부터 A2A 또는 LangGraph와 같은 Framework을 활용하여 Multi Agent를 구현하고, UI를 제공하는 모든 부분을 Agentic AI Framework 또는 System 이라 말할 수 있다. 이부분을 AI Solution Engineer가 해야할 영역으로 본다. 

 

Agentic AI Solution 은 "자기 주도적이면 자율적으로 멀티 에이전트가 협업하여 목표를 달성하는" 것을 목적으로 한다. 여기서 해당 솔루션을 비즈니스에 적용하기 위하여 최근 이야기 되고 있는 Context Engineering 관점의 접근도 필요하다. 

 

Context Engineering 이란?

“Context Engineering”은 특히 대규모 언어 모델(LLM) 시대에 들어서면서 주목받는 개념으로, AI가 정확하게 이해하고 응답할 수 있도록 입력(프롬프트)의 맥락을 설계·조정하는 기술 또는 실천적 전략을 의미한다. 즉 AI Solution Engineer는 Agentic AI System 구축시 (AI Data Engineer가) Context Engineering을 유연하게 적용할 수 있는 시스템을 지향해야 한다. 

 

Context Engineering = Prompting + Memory + Retrieval + Role Control + History 관리의 종합 아키텍처 설계 기술
프롬프트의 시대는 저물고 있습니다.
이제는 더욱 중요한 '컨텍스트'를 설계해야 할 때입니다.

해외 AI 업계에서는 최근 '컨텍스트 엔지니어링'이라는 개념이 주목받고 있습니다. 
단순히 질문(프롬프트)을 잘 던지는 것만으로는 부족하다는 뜻입니다. 
중요한 건, AI가 제대로 이해하고 일할 수 있도록 '맥락'을 설계하는 일입니다.

AI는 신입사원과 같습니다. 업무 지시만으로는 부족합니다. 
조직의 문화, 일하는 방식, 기대 기준 등을 함께 알려줘야 제대로 일합니다.

'맥락'은 단순한 배경정보가 아닙니다. 
우리가 평소 사용하는 리포트 포맷, 문서 스타일, 브랜드의 말투 등이 곧 조직의 언어이자 컨텍스트이죠. 
결국 AI에게 일을 시키려면, 우리가 어떻게 일하는지를 먼저 정의해야 합니다.

AI를 잘 쓴다는 건, 우리 조직의 이상적인 일처리 기준을 정의하고, 그것을 AI에게 정확히 전달하는 것입니다.
이제는 ‘프롬프트’가 아닌 ‘컨텍스트’를 설계하는 시대입니다. 
LLM을 도구 이상으로 활용하려면, 그 배경에 숨어 있는 이 섬세한 맥락 설계의 기술과 감각을 이해하여 사용한다.

 

GPT

 

 

출처

- 7 Layers of Agentic AI : https://www.linkedin.com/posts/digitalprocessarchitect_the-7-layers-you-need-to-build-an-ai-agent-activity-7343997796842139650-43GX/

 

The 7 Layers You Need To Build An AI Agent From Scratch | Vaibhav Aggarwal

The 7 Layers You Need To Build An AI Agent From Scratch 1. Experience Layer Where humans interact with the agent - through chatbots, dashboards, or voice assistants. It’s the UI layer of agent interaction. 2. Discovery Layer This is how the agent finds a

www.linkedin.com

- context engineering: https://simonwillison.net/2025/Jun/27/context-engineering/

 

Context engineering

The term context engineering has recently started to gain traction as a better alternative to prompt engineering. I like it. I think this one may have sticking power. Here's an …

simonwillison.net

 

posted by Peter Note
2025. 3. 11. 11:38 [LLM FullStacker]/Python

설치

계정 글로벌에 설치된다. uv와 uvx 가 설치된다. (uvx는 파이썬으로 제작된 CLI 툴을 사용할 때 사용한다.)

# 맥OS, 리눅스, WSL
curl -LsSf https://astral.sh/uv/install.sh | sh

# 윈도우
powershell -c "irm https://astral.sh/uv/install.ps1 | iex"

 

가상 환경 만들기

가상환경을 적용할 폴더로 이동을 한다. 

uv venv .venv

 

파이썬 특정 버전 지정. "-p <python version>"

uv venv -p 3.11

 

패키지 설치하기

pip 앞에 uv만 붙이면 된다.

uv pip install <packageName>

 

명령어

uv --help

Usage: uv [OPTIONS] <COMMAND>

Commands:
  run      Run a command or script
  init     Create a new project
  add      Add dependencies to the project
  remove   Remove dependencies from the project
  sync     Update the project's environment
  lock     Update the project's lockfile
  export   Export the project's lockfile to an alternate format
  tree     Display the project's dependency tree
  tool     Run and install commands provided by Python packages
  python   Manage Python versions and installations
  pip      Manage Python packages with a pip-compatible interface
  venv     Create a virtual environment
  build    Build Python packages into source distributions and wheels
  publish  Upload distributions to an index
  cache    Manage uv's cache
  self     Manage the uv executable
  version  Display uv's version
  help     Display documentation for a command

Cache options:
  -n, --no-cache               Avoid reading from or writing to the cache, instead using a temporary directory for the
                               duration of the operation [env: UV_NO_CACHE=]
      --cache-dir <CACHE_DIR>  Path to the cache directory [env: UV_CACHE_DIR=]

Python options:
      --python-preference <PYTHON_PREFERENCE>  Whether to prefer uv-managed or system Python installations [env:
                                               UV_PYTHON_PREFERENCE=] [possible values: only-managed, managed, system,
                                               only-system]
      --no-python-downloads                    Disable automatic downloads of Python. [env: "UV_PYTHON_DOWNLOADS=never"]

Global options:
  -q, --quiet
          Do not print any output
  -v, --verbose...
          Use verbose output
      --color <COLOR_CHOICE>
          Control the use of color in output [possible values: auto, always, never]
      --native-tls
          Whether to load TLS certificates from the platform's native certificate store [env: UV_NATIVE_TLS=]
      --offline
          Disable network access [env: UV_OFFLINE=]
      --allow-insecure-host <ALLOW_INSECURE_HOST>
          Allow insecure connections to a host [env: UV_INSECURE_HOST=]
      --no-progress
          Hide all progress outputs [env: UV_NO_PROGRESS=]
      --directory <DIRECTORY>
          Change to the given directory prior to running the command
      --project <PROJECT>
          Run the command within the given project directory
      --config-file <CONFIG_FILE>
          The path to a `uv.toml` file to use for configuration [env: UV_CONFIG_FILE=]
      --no-config
          Avoid discovering configuration files (`pyproject.toml`, `uv.toml`) [env: UV_NO_CONFIG=]
  -h, --help
          Display the concise help for this command
  -V, --version
          Display the uv version
posted by Peter Note