ขั้นตอนที่ 1: ดาวน์โหลดตัวติดตั้ง
- ไปที่เว็บไซต์ https://ollama.com/download
- กด Download for Windows
- รอจนดาวน์โหลดไฟล์
.exe
เสร็จ
ขั้นตอนที่ 2: ติดตั้ง Ollama
- ดับเบิลคลิกไฟล์ที่ดาวน์โหลดมา
- กด Next ไปตามขั้นตอน
- เมื่อเสร็จ ระบบจะติดตั้ง Ollama ไว้ให้พร้อมใช้งาน
ขั้นตอนที่ 3: เริ่มใช้งาน Ollama
- เปิด
Command Prompt
หรือPowerShell
- พิมพ์คำสั่ง
ollama run llama3
เพื่อเริ่มใช้งานโมเดล LLaMA 3
💡 หากต้องการใช้ผ่านโปรแกรม Python หรือเว็บ REST API
Ollama จะเปิดพอร์ตไว้ที่
http://localhost:11434
ให้ใช้งานได้ทันที
🚀 การใช้งาน Ollama บน Windows
✅ รันโมเดล:
ollama run llama3
หรือเปลี่ยนเป็นโมเดลอื่น:
ollama run mistral
✅ ใช้ผ่าน API:
curl http://localhost:11434/api/generate -d '{"model": "llama3", "prompt": "อธิบายสั้น ๆ เกี่ยวกับ AI"}'
🧠 โมเดลที่เหมาะกับการสรุป PDF ภาษาไทย
โมเดล | เหมาะกับภาษาไทย? | ความเห็น |
---|---|---|
Mistral | ✅ ดีมาก | เข้าใจภาษาไทยพอสมควร สรุปได้ดี |
LLaMA 3 | ✅ ดีมาก (โดยเฉพาะ 8B) | เข้าใจภาษาไทยดี ตอบฉลาด |
Gemma | ✅ ปานกลาง | พอใช้กับไทย แต่ยังไม่แม่นสุด |
Phi | ❌ ไม่แนะนำ | ไม่เข้าใจภาษาไทยดีพอ |
🔸 แนะนำหลัก ๆ: ใช้ mistral
และ llama3
สำหรับสรุป PDF ภาษาไทย
🔹 mistral
เบาและตอบเร็ว เหมาะกับ PDF ทั่วไป
🔹 llama3
(ถ้าเครื่องแรง) ฉลาดและละเอียดมาก
🧪 ตัวอย่าง Prompt ภาษาไทย
✅ สรุปทั่วไปแบบกระชับ:
สรุปเนื้อหาต่อไปนี้เป็นภาษาไทยให้สั้น กระชับ และเข้าใจง่าย เหมือนอธิบายให้เพื่อนฟัง:
[ข้อความจาก PDF]
✅ สรุปแนววิชาการ/รายงาน:
ช่วยสรุปบทความต่อไปนี้ให้เป็นภาษาไทยในรูปแบบที่เหมาะกับรายงาน หรือสไลด์นำเสนอ
คำแนะนำเพิ่มเติม
- ควรใช้ CPU ที่รองรับ AVX
- โมเดลขนาดเล็กที่แนะนำ:
phi
,mistral
,gemma
- ถ้าต้องการ UI ใช้งานง่าย แนะนำติดตั้ง Open WebUI