AI-Powered Multi-Agent Technology

AI Agent Frameworks

AutoGen, LangGraph, CrewAI พร้อม Ollama - ระบบตัวแทนปัญญาประดิษฐ์แบบหลายตัว

เนื้อหาในบทความนี้

สถานะบทความ

อัปเดตล่าสุด: กุมภาพันธ์ 2026 | ระดับความยาก: ระดับกลาง (Intermediate) | เวลาอ่าน: 30 นาที

บทความนี้อิงจากงานวิจัย US และfromจาก Microsoft, LangChain, CrewAI ในปี 2024-2025

1 บทนำ: AI Agent คืออะไร?

AI Agent หรือ ตัวแทนปัญญาประดิษฐ์ คือระบบซอฟต์แวร์ที่สามารถรับรู้สภาพแวดล้อม (from environment) ตัดสินใจ (decision making) และดำเนินการ (action) เพื่อไปถึงเป้าหมายที่กำหนด โดย AI Agent แตกต่างจาก Chatbot ธรรมดาตรงที่:

Chatbot แบบเดิม

  • ตอบคำถามตาม prompt ที่ระบุ
  • ไม่มีความสามารถในการวางแผน
  • ไม่มี memory ระยะยาว

AI Agent สมัยใหม่

  • มีความสามารถในการวางแผนและดำเนินการ
  • มี memory และ context ระยะยาว
  • สามารถใช้เครื่องมือ (tools) ได้

สถิติการใช้งาน 2024-2025

15K+
GitHub Stars สำหรับ AutoGen
20K+
GitHub Stars สำหรับ LangGraph
8K+
GitHub Stars สำหรับ CrewAI

โครงสร้างของ AI Agent

Perceptor
รับรู้สภาพแวดล้อม
LLM Brain
ประมวลผลข้อมูล
Action
ดำเนินการ
Memory
จัดเก็บความจำ

2 US Tech Sources Research (2024-2025)

การวิจัยจากแหล่งข้อมูล US ชั้นนำเพื่อเข้าใจสถานการณ์ AI Agent Frameworks ในปี 2024-2025

AutoGen - Microsoft Research

https://microsoft.github.io/autogen/ (2024)

AutoGen Features:
  • Multi-Agent Conversation: สร้างระบบตัวแทนหลายตัวที่สามารถพูดคุยกันได้
  • Human-in-the-Loop: สามารถแทรกแซงโดยมนุษย์ได้ระหว่างกระบวนการ
  • Tool Use: ใช้เครื่องมือต่างๆ เช่น Python interpreter, search, API
  • State Management: จัดการ state ของตัวแทนแต่ละตัว

Reference: Microsoft Research Paper 2024 - "AutoGen: Enabling Next-Gen LLM Applications via Multi-Agent Conversation"

LangGraph - LangChain

https://langchain-ai.github.io/langgraph/ (2024)

LangGraph Features:
  • Graph-Based State Machine: ใช้ graph structure ในการกำหนด workflow
  • Deterministic Recovery: สามารถกู้คืน state ได้แม้เกิด error
  • LangSmith Integration: debug และ monitor workflow ได้ง่าย
  • Durable Execution: บันทึก state ถาวร ไม่หายแม้ restart

Reference: LangChain Documentation 2024 - "Building Stateful and Multi-Actor Applications with LangGraph"

CrewAI - CrewAI Inc.

https://docs.crewai.com/ (2024)

CrewAI Features:
  • Role-Based Agents: กำหนดบทบาท (role) ให้กับตัวแทนแต่ละตัว
  • Task Delegation: ระบบ task delegation และ coordination
  • Sequential & Hierarchical Process: รองรับ workflow ทั้งแบบSequential และHierarchical
  • LangGraph Studio UI: ใช้งานผ่าน UI ที่เป็นมิตรกับผู้ใช้

Reference: CrewAI Documentation 2024 - "Building AI Teams with CrewAI"

Ollama - Local LLM Deployment

https://ollama.ai/docs (2024-2025)

Ollama Features:
  • Simple CLI: ติดตั้งและใช้งานง่ายด้วยคำสั่งเดียว
  • Local LLM Hosting: รัน LLMs บนเครื่องfromโดยไม่ต้องพึ่ง cloud
  • Model Library: รองรับ Llama, Mistral, Mixtral, Phi, และอื่นๆ
  • Docker Integration: ใช้งานร่วมกับ Docker ได้

Reference: Ollama Documentation 2024-2025 - "The easiest way to run LLMs on your machine"

3 เปรียบเทียบ Frameworks: AutoGen vs LangGraph vs CrewAI

ตารางเปรียบเทียบFramework ทั้ง 3 ตัว ตามคุณสมบัติที่สำคัญสำหรับการเลือกใช้งาน

คุณลักษณะ AutoGen LangGraph CrewAI
Best For Enterprise, Research Workflow orchestration Team-based agents
Programming Model Procedural (Python functions) Graph-based (DAG) Role-based
Learning Curve Moderate Steeper (graph concepts) Easier (role-based)
UI / Dashboard None (code only) LangSmith (optional) LangGraph Studio (web)
State Management Manual Automatic (durable) Automatic
Tool Integration Excellent Excellent Good
Community Size Large (Microsoft) Large (LangChain) Growing
Production Ready Yes ( enterprise) Yes ( with LangSmith) Yes ( newer)

เลือก AutoGen ถ้า...

  • ต้องการควบคุมทุกอย่างด้วยโค้ด
  • ทำงานด้าน research หรือ enterprise
  • ต้องการ human-in-the-loop

เลือก LangGraph ถ้า...

  • ต้องการ durability และ recovery
  • ชอบ work กับ graph structures
  • ต้องการ debug และ monitor ได้ง่าย

เลือก CrewAI ถ้า...

  • เริ่มต้นและต้องการง่าย
  • ต้องการ-role based workflow
  • ชอบ UI ที่เป็นมิตรกับผู้ใช้

4 สิ่งที่ต้องเตรียม (Prerequisites)

Hardware Requirements

  • RAM: 16GB+
    สำหรับรัน LLM ขนาดกลาง (Llama 3.2 7B)
  • RAM: 32GB+
    สำหรับรัน LLM ขนาดใหญ่ (Llama 3 70B)
  • GPU (Optional): NVIDIA RTX 3060+
    สำหรับ GPU acceleration (CUDA)

Software Requirements

  • Ubuntu 22.04/24.04 LTS
    หรือ Linux distribution อื่นๆ
  • Python 3.9+
    แนะนำ Python 3.10 หรือ 3.11
  • Docker (Optional)
    สำหรับ containerization
  • Git
    สำหรับ clone repositories

หมายเหตุสำคัญ

สำหรับผู้เริ่มต้น: แนะนำให้ใช้ CPU mode ก่อน (ไม่ต้องใช้ GPU) และเริ่มจาก model ขนาดเล็ก (Llama 3.2 3B) เพื่อเรียนรู้พื้นฐานก่อน

5 ขั้นตอนการติดตั้ง

1

ติดตั้ง Ollama

Ollama คือเครื่องมือสำหรับรัน LLMs บนเครื่องfrom โดยสนับสนุน Llama, Mistral, Phi และอื่นๆ

# ติดตั้ง Ollama
curl -fsSL https://ollama.com/install.sh | sh

# ตรวจสอบการติดตั้ง
ollama --version

# สังเกตโมเดลยอดนิยม
ollama list

# Pull โมเดล (ตัวอย่าง: Llama 3.2)
ollama pull llama3.2

สำหรับ Ubuntu 24.04, Ollama จะติดตั้งเป็น systemd service อัตโนมัติ

2

ติดตั้ง Python 3.11

# อัปเดตระบบ
sudo apt update && sudo apt upgrade -y

# ติดตั้ง Python 3.11
sudo apt install python3.11 python3.11-venv python3.11-dev -y

# ตรวจสอบการติดตั้ง
python3.11 --version

# สร้าง virtual environment
python3.11 -m venv ai-agent-env
source ai-agent-env/bin/activate
3

ติดตั้ง AutoGen, LangGraph, CrewAI

# อัปเดต pip
pip install --upgrade pip

# ติดตั้ง AutoGen
pip install pyautogen

# ติดตั้ง LangChain และ LangGraph
pip install langchain langchain-openai langgraph langsmith

# ติดตั้ง CrewAI
pip install crewai crewai-tools

# ติดตั้ง Ollama Python client
pip install ollama
4

สร้างไฟล์ทดสอบ (Hello World)

#!/usr/bin/env python3
"""AI Agent Frameworks - Hello World Test"""

# ทดสอบการเชื่อมต่อกับ Ollama
import ollama

print("Testing Ollama connection...")
response = ollama.chat(
    model='llama3.2',
    messages=[{'role': 'user', 'content': 'Hello, how are you?'}]
)
print(f"Ollama response: {response['message']['content']}")

บันทึกเป็น test_ollama.py แล้วรันด้วย: python3 test_ollama.py

6 AutoGen - Microsoft Research

AutoGen เป็น framework ที่พัฒนาโดย Microsoft Research สำหรับสร้าง multi-agent conversation applications

Example 1: Basic Assistant Agent

ตัวอย่างพื้นฐานที่สุด - สร้าง agent ที่ช่วยเขียนโค้ด

#!/usr/bin/env python3
"""AutoGen - Basic Assistant Agent Example"""

from autogen import AssistantAgent, UserProxyAgent

# ตั้งค่า configuration
config_list = [
    {
        "model": "llama3.2",
        "base_url": "http://localhost:11434/v1",
        "api_key": "ollama"
    }
]

# สร้าง agent
assistant = AssistantAgent(
    name="assistant",
    llm_config={"config_list": config_list},
    system_message="You are a helpful AI assistant who can write Python code."
)

user_proxy = UserProxyAgent(
    name="user_proxy",
    code_execution_config={"work_dir": "coding"},
    llm_config={"config_list": config_list},
    human_input_mode="NEVER"
)

# เริ่มการสนทนา
user_proxy.initiate_chat(
    assistant,
    message="Write a Python function to calculate the factorial of a number. Return only the code."
)

Example 2: Multi-Agent Team

ตัวอย่างที่ซับซ้อนขึ้น - สร้างทีม agent ที่ทำงานร่วมกัน

#!/usr/bin/env python3
"""AutoGen - Multi-Agent Research Team"""

from autogen import AssistantAgent, UserProxyAgent, GroupChat, GroupChatManager

# Configuration
config_list = [
    {
        "model": "llama3.2",
        "base_url": "http://localhost:11434/v1",
        "api_key": "ollama"
    }
]

# Create agents
researcher = AssistantAgent(
    name="researcher",
    llm_config={"config_list": config_list},
    system_message="You are an expert researcher. Focus on finding accurate information."
)

analyst = AssistantAgent(
    name="analyst",
    llm_config={"config_list": config_list},
    system_message="You are an analyst. Summarize and interpret research findings."
)

writer = AssistantAgent(
    name="writer",
    llm_config={"config_list": config_list},
    system_message="You are a technical writer. Write clear, concise documentation."
)

user_proxy = UserProxyAgent(
    name="user_proxy",
    human_input_mode="NEVER",
    code_execution_config=False,
    llm_config={"config_list": config_list}
)

# Create group chat
groupchat = GroupChat(
    agents=[researcher, analyst, writer, user_proxy],
    messages=[],
    max_round=6
)

manager = GroupChatManager(
    groupchat=groupchat,
    llm_config={"config_list": config_list}
)

# Initiate conversation
user_proxy.initiate_chat(
    manager,
    message="Research and document the latest trends in AI Agent frameworks for 2025."
)

7 LangGraph - LangChain

LangGraph เป็น framework จาก LangChain สำหรับสร้าง stateful, multi-actor applications ด้วย graph-based workflow

Example 1: Simple Chain

ตัวอย่างพื้นฐาน - การสร้าง chain แบบง่าย

#!/usr/bin/env python3
"""LangGraph - Simple Chain Example"""

from langchain_openai import ChatOpenAI
from langchain.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

# Initialize LLM (using Ollama)
llm = ChatOpenAI(
    model="llama3.2",
    base_url="http://localhost:11434/v1",
    api_key="ollama"
)

# Create prompt template
prompt = ChatPromptTemplate.from_template(
    "Explain {topic} in simple terms suitable for a beginner. Keep it under 100 words."
)

# Create output parser
parser = StrOutputParser()

# Create chain
chain = prompt | llm | parser

# Run chain
result = chain.invoke({"topic": "AI Agent Frameworks"})
print(result)

Example 2: State Machine with Memory

ตัวอย่างขั้นสูง - การใช้งาน state และ memory

#!/usr/bin/env python3
"""LangGraph - State Machine with Memory"""

from typing import TypedDict, Annotated
from langgraph.graph import Graph, END
from langchain_openai import ChatOpenAI
import operator

# Initialize LLM
llm = ChatOpenAI(
    model="llama3.2",
    base_url="http://localhost:11434/v1",
    api_key="ollama"
)

# Define state
class AgentState(TypedDict):
    task: str
    result: str
    feedback: list

# Define nodes
def researcher_node(state: AgentState):
    """Researchnode"""
    response = llm.invoke(
        f"Research the following topic and return key points: {state['task']}"
    )
    return {"result": response.content, "feedback": []}

def analyst_node(state: AgentState):
    """Analyze results"""
    response = llm.invoke(
        f"Analyze and summarize: {state['result']}"
    )
    return {"result": response.content}

def writer_node(state: AgentState):
    """Write final document"""
    response = llm.invoke(
        f"Write a technical document based on: {state['result']}"
    )
    return {"result": response.content, "feedback": state.get("feedback", [])}

# Build graph
workflow = Graph()
workflow.add_node("researcher", researcher_node)
workflow.add_node("analyst", analyst_node)
workflow.add_node("writer", writer_node)

workflow.add_edge("researcher", "analyst")
workflow.add_edge("analyst", "writer")
workflow.add_edge("writer", END)

workflow.set_entry_point("researcher")

# Compile and run
app = workflow.compile()

# Run
result = app.invoke({"task": "AI Agent Frameworks 2025"})
print(result["result"])

8 CrewAI - Team-Based Agents

CrewAI เป็น framework ที่เน้นการสร้างทีม agent โดยแต่ละตัวมีบทบาท (role) และหน้าที่เฉพาะ

Example 1: Simple Task Assignment

ตัวอย่างพื้นฐาน - การ Assign งานให้กับแต่ละ agent

#!/usr/bin/env python3
"""CrewAI - Simple Task Assignment"""

from crewai import Agent, Task, Crew, Process
from langchain_openai import ChatOpenAI

# Initialize LLM with Ollama
llm = ChatOpenAI(
    model="llama3.2",
    base_url="http://localhost:11434/v1",
    api_key="ollama"
)

# Create agent: Researcher
researcher = Agent(
    role='Researcher',
    goal='Find accurate and relevant information',
    backstory="""You are an expert researcher with 10 years of experience.
    You specialize in finding the latest information on AI technologies.""",
    llm=llm,
    verbose=True
)

# Create agent: Writer
writer = Agent(
    role='Writer',
    goal='Write clear, engaging technical content',
    backstory="""You are a technical writer who specializes in AI.
    You can explain complex topics in simple terms.""",
    llm=llm,
    verbose=True
)

# Create task
research_task = Task(
    description="""Research the latest AI Agent frameworks in 2025.
    Include: AutoGen, LangGraph, CrewAI, and their key features.""",
    expected_output="A bulleted list of key features for each framework.",
    agent=researcher
)

write_task = Task(
    description="""Write a technical article based on the research.
    Include: Introduction, comparison table, and recommendations.""",
    expected_output="A complete technical article in Markdown format.",
    agent=writer
)

# Create crew
crew = Crew(
    agents=[researcher, writer],
    tasks=[research_task, write_task],
    process=Process.sequential,
    verbose=True
)

# Run crew
result = crew.kickoff()
print(result)

Example 2: Hierarchical Process

ตัวอย่างขั้นสูง - การใช้งาน hierarchical process สำหรับ project management

#!/usr/bin/env python3
"""CrewAI - Hierarchical Process Example"""

from crewai import Agent, Task, Crew, Process
from langchain_openai import ChatOpenAI

# Initialize LLM with Ollama
llm = ChatOpenAI(
    model="llama3.2",
    base_url="http://localhost:11434/v1",
    api_key="ollama"
)

# Create Manager Agent (for hierarchical process)
project_manager = Agent(
    role='Project Manager',
    goal='Coordinate the team and ensure timely delivery',
    backstory="""You are an experienced project manager who specializes
    in AI projects. You coordinate different specialists and ensure
    all tasks are completed on time.""",
    llm=llm,
    verbose=True
)

# Create specialist agents
data_scientist = Agent(
    role='Data Scientist',
    goal='Analyze data and build models',
    backstory="""You are an expert data scientist with strong Python skills.
    You specialize in machine learning and data analysis.""",
    llm=llm
)

developer = Agent(
    role='Developer',
    goal='Write clean, efficient code',
    backstory="""You are a senior developer with experience in AI applications.
    You write production-ready code following best practices.""",
    llm=llm
)

documenter = Agent(
    role='Documenter',
    goal='Create comprehensive documentation',
    backstory="""You are a technical writer who creates clear,
    detailed documentation for AI projects.""",
    llm=llm
)

# Create tasks with dependencies
analyze_data_task = Task(
    description="""Analyze the latest AI Agent framework trends from 2024-2025.
    Create a data summary showing GitHub stars, release dates, and key features.""",
    expected_output="A detailed data analysis report in JSON format.",
    agent=data_scientist
)

develop_prototype_task = Task(
    description="""Create a prototype AI agent using any framework.
    The agent should be able to answer questions about its framework.""",
    expected_output="Working Python code with documentation.",
    agent=developer
)

write_docs_task = Task(
    description="""Create comprehensive documentation for the prototype.
    Include setup instructions, usage examples, and troubleshooting guide.""",
    expected_output="Complete documentation in Markdown format.",
    agent=documenter
)

# Create crew with hierarchical process
crew = Crew(
    agents=[project_manager, data_scientist, developer, documenter],
    tasks=[analyze_data_task, develop_prototype_task, write_docs_task],
    process=Process.hierarchical,
    manager_llm=llm,
    verbose=True
)

# Run crew
result = crew.kickoff()
print(result)

9 การเชื่อมต่อกับ Ollama (Local LLM)

ทั้ง AutoGen, LangGraph และ CrewAI สามารถเชื่อมต่อกับ Ollama ได้ผ่าน API ที่ Ollama ให้มา

Configuration สำหรับ Ollama

config_list = [
    {
        "model": "llama3.2",           # ชื่อโมเดลที่ pull จาก Ollama
        "base_url": "http://localhost:11434/v1",  # Ollama API endpoint
        "api_key": "ollama"            # API key (สามารถใช้ค่าdummyได้
    }
]

API key ไม่จำเป็นต้องเป็นค่าจริงเมื่อใช้ Ollama แต่ framework บางตัวต้องการ key นี้

AutoGen + Ollama Configuration

from autogen import AssistantAgent

config_list = [
    {
        "model": "llama3.2",
        "base_url": "http://localhost:11434/v1",
        "api_key": "ollama"
    }
]

assistant = AssistantAgent(
    name="assistant",
    llm_config={"config_list": config_list}
)

LangGraph (LangChain) + Ollama Configuration

from langchain_openai import ChatOpenAI
from langchain_ollama import ChatOllama

# Option 1: Using langchain-openai (compatible)
llm = ChatOpenAI(
    model="llama3.2",
    base_url="http://localhost:11434/v1",
    api_key="ollama"
)

# Option 2: Using langchain-ollama (native integration)
llm = ChatOllama(
    model="llama3.2",
    base_url="http://localhost:11434"
)

CrewAI + Ollama Configuration

from crewai import Agent
from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    model="llama3.2",
    base_url="http://localhost:11434/v1",
    api_key="ollama"
)

agent = Agent(
    role='Assistant',
    llm=llm
)

ทดสอบการเชื่อมต่อ Ollama

#!/usr/bin/env python3
"""Test Ollama Connection"""

import ollama

# Test 1: Check if Ollama is running
try:
    models = ollama.list()
    print("Connected to Ollama!")
    print("Available models:", [m['name'] for m in models['models']])
except Exception as e:
    print(f"Error connecting to Ollama: {e}")

# Test 2: Simple chat
try:
    response = ollama.chat(
        model='llama3.2',
        messages=[{'role': 'user', 'content': 'Hello!'}]
    )
    print(f"Response: {response['message']['content']}")
except Exception as e:
    print(f"Error in chat: {e}")

10 การประยุกต์ใช้ในบริบทไทย

ตัวอย่างการประยุกต์ใช้ AI Agent Frameworks สำหรับบริบทในประเทศไทย

1. ระบบcustomerอัตโนมัติสำหรับธุรกิจไทย

ใช้ AutoGen สร้างตัวแทนcustomerที่สามารถตอบคำถามเกี่ยวกับสินค้า บริการ และอื่นๆ โดยรองรับทั้งภาษาไทยและภาษาอังกฤษ

  • ตอบคำถามมาตรฐานแบบ real-time
  • -forward คิวที่ซับซ้อนให้ human agent

2. ระบบประมวลผลเอกสารราชการ

ใช้ CrewAI สร้างทีม agent ที่สามารถอ่านและประมวลผลเอกสารราชการ โดยแยกประเภทข้อมูลและสรุปเนื้อหาอัตโนมัติ

  • OCR แยกข้อมูลจากภาพเอกสาร
  • จัดประเภทและส่งต่อไปหน่วยงานที่เกี่ยวข้อง

3. AI Assistant ภาษาไทย

ใช้ LangGraph สร้างผู้ช่วยส่วนตัวที่มี memory สามารถจดจำความจำระยะยาว และช่วยจัดการ work flow ส่วนตัว

  • จัดการ calendar และ reminders
  • สรุปเนื้อหาบทความหรือข่าว

4. DevOps Automation Agent

ใช้ Multi-agent system สำหรับจัดการ infrastructure as code โดยตรวจสอบ configuration และเสนอการปรับปรุง

  • ตรวจส configuration files หา security issues
  • เสนอ optimization สำหรับ cost และ performance

11 แก้ไขปัญหาที่พบบ่อย (Troubleshooting)

Issue 1: Ollama connection refused

ข้อความผิดพลาด: ConnectionRefusedError: [Errno 111] Connection refused

สาเหตุ:
  • Ollama service ไม่ได้รันอยู่
  • Port 11434 ถูกบล็อก
วิธีแก้ไข:
# ตรวจสอบว่า Ollama รันอยู่
systemctl status ollama

# เริ่ม Ollama service
sudo systemctl start ollama

# หรือรันด้วย command line
ollama serve

Issue 2: Out of Memory (OOM) Error

ข้อความผิดพลาด: RuntimeError: CUDA out of memory หรือ Killed

สาเหตุ:
  • โมเดลใหญ่เกินไปสำหรับ RAM ที่มี
  • RAM < 16GB แต่พยายามรันโมเดลขนาด 70B
วิธีแก้ไข:
# ใช้โมเดลขนาดเล็กกว่า
ollama pull llama3.2:3b  # ขนาดเล็ก
ollama pull llama3.2:1b  # เล็กที่สุด

# หรือใช้ CPU mode แทน GPU
OLLAMA_GPU_SIZE=0 python3 your_script.py

# ลด batch size ใน code
batch_size = 1  # ลดจาก 4 หรือ 8

Issue 3: Module not found

ข้อความผิดพลาด: ModuleNotFoundError: No module named 'autogen'

สาเหตุ:
  • ไม่ได้ติดตั้ง package นี้
  • ไม่ได้ใช้ virtual environment
วิธีแก้ไข:
# ใช้ virtual environment
source ai-agent-env/bin/activate

# ติดตั้ง package
pip install pyautogen
pip install langchain langgraph
pip install crewai

Issue 4: Slow Response Time

ข้อความผิดพลาด: Response ใช้เวลา 30 วินาทีขึ้นไป

สาเหตุ:
  • โมเดลขนาดใหญ่ใช้เวลานาน
  • CPU ไม่เพียงพอ
วิธีแก้ไข:
# ใช้ quantized models (GGUF format)
ollama pull llama3.2:3b-q4_K_M  # quantized

# ใช้ CPU แบบ multi-thread
OLLAMA_NUM_THREADS=4 python3 your_script.py

# ลด max_tokens ใน request
response = llm.invoke(prompt, max_tokens=500)

12 สรุปและnext steps

สิ่งที่ได้เรียนรู้

  • AI Agent คืออะไร และต่างจาก Chatbot อย่างไร
  • เปรียบเทียบ AutoGen, LangGraph, CrewAI
  • ติดตั้งและใช้งาน Ollama บน Ubuntu
  • เขียน code ตัวอย่างสำหรับแต่ละ framework
  • การประยุกต์ใช้ในบริบทไทย

next steps (Next Steps)

  • Experiment: ลองสร้าง multi-agent system ด้วยตัวเอง
  • Learn: อ่าน documentation ของแต่ละ framework เพิ่มเติม
  • Build: สร้างโปรเจกต์จริงด้วย AI Agent
  • Join: เข้าร่วม community และถามตอบกับผู้อื่น

Key Takeaways

AutoGen

ดีที่สุดสำหรับ research และ enterprise workflows

LangGraph

ดีที่สุดสำหรับ workflow orchestration และ durability

CrewAI

ง่ายที่สุดสำหรับการเริ่มต้นและ rapid prototyping

Tip: สำหรับผู้เริ่มต้น

เริ่มจาก CrewAI เพราะมี documentation ดีและง่ายต่อการเรียนรู้ จากนั้นลอง LangGraph เมื่อเข้าใจ graph concepts แล้วค่อยเข้าสู่ AutoGen สำหรับ advanced use cases