อุ้ย… เราต้องเลือก OS ก่อนว่าเราจะใช้ตัวไหน. ใครใช้ตระกูล Apple ก็เลือก MacOS ส่วนใครใช้ Home windows (10, 11) ก็เลือกแถบ Home windows
หลังจากดาวน์โหลดเสร็จเรียบร้อยแล้ว ให้ทำการแตกไฟล์ออกจาก zip.
หลังจากนั้น เราจะเห็นไฟล์ติดตั้งใน Home windows ให้ทำการ Double click on ที่ไฟล์ OllamaSetup.exe เพื่อทำการติดตั้งให้เสร็จสมบูรณ์
หรือใน Apple จะเป็นไฟล์ที่พร้อมใช้งาน ให้เราลากไฟล์ Ollama ไปยัง Purposes ทางด้านแถบซ้ายมือ
มาเริ่มใช้งานกันเถอะ. ถ้าใครใช้ Apple ให้กดเปิดโปรแกรมได้เลยจาก Software ส่วน Home windows อาจจะต้องเปิดจากปุ่ม Begin ถ้าหาไม่เจอให้ search ไปเลยว่า “Ollama”
ทุกคนอาจจะงงว่า “ฉันเปิดโปรแกรมแล้วนะทำไมไม่มีอะไรเกิดขึ้นเลยละ…”
อันที่จริงแล้วโปรแกรมกำลังทำงานอยู่เบื้องหลัง เราจะต้องเปิด Terminal (Apple) หรือ Powershell (Home windows) ขึ้นมาเพื่อจะเริ่มใช้งาน
ก่อนจะเริ่มใช้งาน. เราจะต้องดาวน์โหลดผู้ช่วยที่แสนฉลาดของเรากันก่อน โดยเราจะเข้าไปยัง “https://ollama.com/library” เพื่อดูว่ามี Mannequin อะไรอยู่บ้างที่เป็น Open supply ให้เราใช้งานกัน ยกตัวอย่าง mannequin ที่หลายๆ คนรู้จัก ไม่ว่าจะเป็นของ Google, Fb (Meta), Microsoft, OpenAI (ChatGPT)
แต่ตอนนี้ผมเลือกเป็น Gemma2 เพราะว่า Google พึ่งเปิดตัวยังไงล๊าาาา~~~
เราเสียเวลากันมานานละ. มาเริ่มกันเถอะ โดยเราพิมม์ไปยัง Terminal หรือ Powershell ว่า “ollama run gemma2”
หลังจากพิมม์คำสั่งไป อาจจะต้องรอใจเย็นๆ นะ เพราะไฟล์ค่อนข้างใหญ่ บางคน web อาจจะไม่ดี แต่เราจะดาวน์โหลดแค่ครั้งเดียว จะสามารถใช้งานแบบไม่ต้องพึ่งพา web ได้ด้วยละ
หลังจากดาวน์โหลดเสร็จแล้ว เราจะเห็นว่ามีช่องแชทให้พิมม์ขึ้นมา แปลว่าพร้อมใช้งานแล้วทุกคน~~~
ไหนลองทดสอบพิมม์ภาษาไทยสิ ว่าจะเข้าใจคนไทยอย่างเราไหมนะ
อุ้ย… ตอบกลับเป็นภาษาไทยได้ด้วยละ คราวนี้ทุกคนก็สามารถลองพิมม์ถามได้เลยทั้งภาษาไทยและภาษาอังกฤษ ส่วนใครเก่งภาษาที่ 3,4,5 ก็ลองดูนะ
คราวนี้ผมจะลองทดสอบให้กับชาวโปรแกรมเมอร์ว่า ผู้ช่วยที่แสนฉลาดของเรา จะสามารถช่วยเขียนโปรแกรมได้ไหม
“ช่วยสร้าง kind login โดยใช้ html + tailwindcss”
OMG เอาเรื่องงงงง~~~ ไหนลองเอาไปแปะดูสิว่า โกหกหรือเปล่า ทำได้จริงอ่ะ?
เอาเรื่องงงงง~~~ เก่งใช้ได้นะเนี่ยผู้ช่วย (ปรบมือ)
แต่เดี่ยวก่อน… สำหรับโปรแกรมเมอร์อย่างเรา ใช้งานแค่นี้มันน้อยไป เราต้องการ API ด้วยสิ
OLLAMA บอก “จัดไปสิพี่ นี่เลย Document ทั้งหมดของเรา”
เราจะยกตัวอย่างการใช้งาน โดยใช้เป็น Methodology: POST ไปยัง URL “http://localhost:11434/api/chat”
และใส่ข้อมูลใน Physique ตามรูปล่างข้าง
Response ที่ได้จาก API จะเร็วจะช้า ขึ้นอยู่กับเครื่องของเรามี GPU หรือไม่ ถ้ามีก็จะเร็วสุดๆ ไปเลยละ ถ้าไม่มีก็อาจจะช้าหน่อยนะ
ถ้าเราอยากให้ผู้ช่วยของเราตอบคำถามให้ตรงจุดมากขึ้น เราจะต้องนำคำตอบที่ได้จากผู้ช่วยเรา ใส่เพิ่มเข้าไปใน “messages” และต่อด้วยคำถามเรา คราวนี้จะได้คำตอบที่ไปในทิศทางเดียวกันเสมอ.
เป็นยังไงกันบ้างกับผู้ช่วยของเราที่แสนฉลาด. ถ้าใครเห็นข่าวเรื่อง AI ต่างๆ มีการอัพเดทก็ลองเข้ามายัง “https://ollama.com/library” เพื่อเช็คว่ามี Mannequin อะไรใหม่ๆ ให้ลองเล่นกันเพิ่มไหม
ส่วนใครที่รู้ว่าทำไมสอบสั้นจังเลย ทำไมต้องเลือกใช้ Mannequin ตัวนี้ ลองดูคลิป “Running Phi-3 Models Locally with Ollama (youtube.com)” เป็นช่องทางที่ผมลองทำตามแล้วรู้สึกได้ผลและเข้าใจง่ายที่สุด
ทิ้งท้ายนิดนึง ในคลิปของอาจารย์มีสอนการใช้งานบน “Docker” ด้วยละ ลองไปศึกษาเพิ่มเติมเองนะ
Credit score: Running Phi-3 Models Locally with Ollama (youtube.com)
Software: https://ollama.com/
Mannequin: https://ollama.com/library
Doc / API: ollama/docs/api.md at main · ollama/ollama (github.com)