ขั้นตอนที่ 1: ดาวน์โหลดตัวติดตั้ง
- ไปที่เว็บไซต์ https://ollama.com/download
 - กด Download for Windows
 - รอจนดาวน์โหลดไฟล์ 
.exeเสร็จ 
ขั้นตอนที่ 2: ติดตั้ง Ollama
- ดับเบิลคลิกไฟล์ที่ดาวน์โหลดมา
 - กด Next ไปตามขั้นตอน
 - เมื่อเสร็จ ระบบจะติดตั้ง Ollama ไว้ให้พร้อมใช้งาน
 
ขั้นตอนที่ 3: เริ่มใช้งาน Ollama
- เปิด 
Command PromptหรือPowerShell - พิมพ์คำสั่ง 
ollama run llama3เพื่อเริ่มใช้งานโมเดล LLaMA 3 
      💡 หากต้องการใช้ผ่านโปรแกรม Python หรือเว็บ REST API  
      Ollama จะเปิดพอร์ตไว้ที่ 
    http://localhost:11434 ให้ใช้งานได้ทันที
    🚀 การใช้งาน Ollama บน Windows
✅ รันโมเดล:
    ollama run llama3
    หรือเปลี่ยนเป็นโมเดลอื่น:
ollama run mistral
    ✅ ใช้ผ่าน API:
    curl http://localhost:11434/api/generate -d '{"model": "llama3", "prompt": "อธิบายสั้น ๆ เกี่ยวกับ AI"}'
    🧠 โมเดลที่เหมาะกับการสรุป PDF ภาษาไทย
| โมเดล | เหมาะกับภาษาไทย? | ความเห็น | 
|---|---|---|
| Mistral | ✅ ดีมาก | เข้าใจภาษาไทยพอสมควร สรุปได้ดี | 
| LLaMA 3 | ✅ ดีมาก (โดยเฉพาะ 8B) | เข้าใจภาษาไทยดี ตอบฉลาด | 
| Gemma | ✅ ปานกลาง | พอใช้กับไทย แต่ยังไม่แม่นสุด | 
| Phi | ❌ ไม่แนะนำ | ไม่เข้าใจภาษาไทยดีพอ | 
🔸 แนะนำหลัก ๆ: ใช้ mistral และ llama3 สำหรับสรุป PDF ภาษาไทย
    🔹 mistral เบาและตอบเร็ว เหมาะกับ PDF ทั่วไป
    🔹 llama3 (ถ้าเครื่องแรง) ฉลาดและละเอียดมาก
🧪 ตัวอย่าง Prompt ภาษาไทย
✅ สรุปทั่วไปแบบกระชับ:
    สรุปเนื้อหาต่อไปนี้เป็นภาษาไทยให้สั้น กระชับ และเข้าใจง่าย เหมือนอธิบายให้เพื่อนฟัง:
[ข้อความจาก PDF]
    ✅ สรุปแนววิชาการ/รายงาน:
    ช่วยสรุปบทความต่อไปนี้ให้เป็นภาษาไทยในรูปแบบที่เหมาะกับรายงาน หรือสไลด์นำเสนอ
    คำแนะนำเพิ่มเติม
- ควรใช้ CPU ที่รองรับ AVX
 - โมเดลขนาดเล็กที่แนะนำ: 
phi,mistral,gemma - ถ้าต้องการ UI ใช้งานง่าย แนะนำติดตั้ง Open WebUI
 
 ![]()