คู่มือติดตั้ง Ollama บน Windows

คู่มือติดตั้ง Ollama บน Windows

ขั้นตอนที่ 1: ดาวน์โหลดตัวติดตั้ง

  1. ไปที่เว็บไซต์ https://ollama.com/download
  2. กด Download for Windows
  3. รอจนดาวน์โหลดไฟล์ .exe เสร็จ

ขั้นตอนที่ 2: ติดตั้ง Ollama

  1. ดับเบิลคลิกไฟล์ที่ดาวน์โหลดมา
  2. กด Next ไปตามขั้นตอน
  3. เมื่อเสร็จ ระบบจะติดตั้ง Ollama ไว้ให้พร้อมใช้งาน

ขั้นตอนที่ 3: เริ่มใช้งาน Ollama

  1. เปิด Command Prompt หรือ PowerShell
  2. พิมพ์คำสั่ง ollama run llama3 เพื่อเริ่มใช้งานโมเดล LLaMA 3
💡 หากต้องการใช้ผ่านโปรแกรม Python หรือเว็บ REST API Ollama จะเปิดพอร์ตไว้ที่ http://localhost:11434 ให้ใช้งานได้ทันที

🚀 การใช้งาน Ollama บน Windows

✅ รันโมเดล:
ollama run llama3

หรือเปลี่ยนเป็นโมเดลอื่น:

ollama run mistral
✅ ใช้ผ่าน API:
curl http://localhost:11434/api/generate -d '{"model": "llama3", "prompt": "อธิบายสั้น ๆ เกี่ยวกับ AI"}'

🧠 โมเดลที่เหมาะกับการสรุป PDF ภาษาไทย

โมเดล เหมาะกับภาษาไทย? ความเห็น
Mistral ✅ ดีมาก เข้าใจภาษาไทยพอสมควร สรุปได้ดี
LLaMA 3 ✅ ดีมาก (โดยเฉพาะ 8B) เข้าใจภาษาไทยดี ตอบฉลาด
Gemma ✅ ปานกลาง พอใช้กับไทย แต่ยังไม่แม่นสุด
Phi ❌ ไม่แนะนำ ไม่เข้าใจภาษาไทยดีพอ

🔸 แนะนำหลัก ๆ: ใช้ mistral และ llama3 สำหรับสรุป PDF ภาษาไทย
🔹 mistral เบาและตอบเร็ว เหมาะกับ PDF ทั่วไป
🔹 llama3 (ถ้าเครื่องแรง) ฉลาดและละเอียดมาก

🧪 ตัวอย่าง Prompt ภาษาไทย

✅ สรุปทั่วไปแบบกระชับ:
สรุปเนื้อหาต่อไปนี้เป็นภาษาไทยให้สั้น กระชับ และเข้าใจง่าย เหมือนอธิบายให้เพื่อนฟัง:

[ข้อความจาก PDF]
✅ สรุปแนววิชาการ/รายงาน:
ช่วยสรุปบทความต่อไปนี้ให้เป็นภาษาไทยในรูปแบบที่เหมาะกับรายงาน หรือสไลด์นำเสนอ

คำแนะนำเพิ่มเติม

  • ควรใช้ CPU ที่รองรับ AVX
  • โมเดลขนาดเล็กที่แนะนำ: phi, mistral, gemma
  • ถ้าต้องการ UI ใช้งานง่าย แนะนำติดตั้ง Open WebUI

Loading