
Zama: Part 3.1, Concrete ML - No Code Introduction
สวัสดีครับเพื่อนๆ หลังจากที่ผู้เขียนได้อัปเดตเกี่ยวโปรเจค Zama ในมุมมองด้าน Blockchain ไปแล้ว ผ่านบทความ Part 2.1 และ 2.2 สำหรับบทความนี้ ในฐานะที่ผู้เขียนกำลังทำงานด้าน Data Scientist อยู่ ผู้เขียนมีความสนใจ product ของตัวนึง Zama มากๆ ที่ช่วยให้เหล่า Data Scientist สามารถสร้างโมเดล AI ที่สามารถประมวลผลบนข้อมูลที่ถูกเข้ารหัสได้ ทำให้การทำงานมีความปลอดภัยสูงแม้ข้อมูลจะหลุดรั่วออกไป โดย product ตัวนี้ชื่อว่า Concrete ML ครับIntroductionจุดแข็งของ Fully Homomorphic Encryption (FHE) คือการที่สาม...

Zama: Part 4.1, Simple Brief to TFHE - Building Blocks
สวัสดีครับผู้อ่านทุกๆท่าน หลังจากที่ท่านได้อ่านบทความ Series Part 2.X และ 3.X ผู้อ่านน่าจะพอเห็นประโยชน์ที่ได้รับจาก การใช้งาน products ต่างๆของ Zama แล้ว ไม่มั่นใจว่าผู้อ่านรู้สึกเหมือนผมไหมครับว่าเทคโนโลยี FHE ให้ความรู้สึกเสมือนมายากลสุดพิเศษที่เสกให้พวกเราสามารถคำนวนบนข้อมูลที่ถูกเข้ารหัสไว้ได้ โดยที่ไม่ต้องทำความเข้าใจเบื้องหลัง ที่ถูกสร้างมาอย่างดีด้วยภาษาคณิตศาสตร์ ที่มีเพียงกลุ่มผู้ถูกเลือกเท่านั้นที่จะสามารถถอดความและทำความเข้าใจถึงความสวยงามขอมายากลนี้ได้ โดยในบทความนี้ ผมขออนุญาตเป...

Zama: Data Analytics, Part 1 - Winners of Zama Content Creators #1
Hello, everyone. First of all, congratulations to all the winners of Zama Content Creators program in Season 1, which are 6.2% of the total (myself included, hehe)!Zama Creator ProgramZama launches Creator Program with monthly rewards for genuine and impactful creators. Multi-year commitment focuses on sustainable value creation over traditional one-time opaque token distributions.https://www.zama.aiRecently, Zama has officially announced the first batch of winners, consisting of 250 people. ...
PP/De AI KOL



Zama: Part 3.1, Concrete ML - No Code Introduction
สวัสดีครับเพื่อนๆ หลังจากที่ผู้เขียนได้อัปเดตเกี่ยวโปรเจค Zama ในมุมมองด้าน Blockchain ไปแล้ว ผ่านบทความ Part 2.1 และ 2.2 สำหรับบทความนี้ ในฐานะที่ผู้เขียนกำลังทำงานด้าน Data Scientist อยู่ ผู้เขียนมีความสนใจ product ของตัวนึง Zama มากๆ ที่ช่วยให้เหล่า Data Scientist สามารถสร้างโมเดล AI ที่สามารถประมวลผลบนข้อมูลที่ถูกเข้ารหัสได้ ทำให้การทำงานมีความปลอดภัยสูงแม้ข้อมูลจะหลุดรั่วออกไป โดย product ตัวนี้ชื่อว่า Concrete ML ครับIntroductionจุดแข็งของ Fully Homomorphic Encryption (FHE) คือการที่สาม...

Zama: Part 4.1, Simple Brief to TFHE - Building Blocks
สวัสดีครับผู้อ่านทุกๆท่าน หลังจากที่ท่านได้อ่านบทความ Series Part 2.X และ 3.X ผู้อ่านน่าจะพอเห็นประโยชน์ที่ได้รับจาก การใช้งาน products ต่างๆของ Zama แล้ว ไม่มั่นใจว่าผู้อ่านรู้สึกเหมือนผมไหมครับว่าเทคโนโลยี FHE ให้ความรู้สึกเสมือนมายากลสุดพิเศษที่เสกให้พวกเราสามารถคำนวนบนข้อมูลที่ถูกเข้ารหัสไว้ได้ โดยที่ไม่ต้องทำความเข้าใจเบื้องหลัง ที่ถูกสร้างมาอย่างดีด้วยภาษาคณิตศาสตร์ ที่มีเพียงกลุ่มผู้ถูกเลือกเท่านั้นที่จะสามารถถอดความและทำความเข้าใจถึงความสวยงามขอมายากลนี้ได้ โดยในบทความนี้ ผมขออนุญาตเป...

Zama: Data Analytics, Part 1 - Winners of Zama Content Creators #1
Hello, everyone. First of all, congratulations to all the winners of Zama Content Creators program in Season 1, which are 6.2% of the total (myself included, hehe)!Zama Creator ProgramZama launches Creator Program with monthly rewards for genuine and impactful creators. Multi-year commitment focuses on sustainable value creation over traditional one-time opaque token distributions.https://www.zama.aiRecently, Zama has officially announced the first batch of winners, consisting of 250 people. ...
PP/De AI KOL

Subscribe to lordachita

Subscribe to lordachita
Share Dialog
Share Dialog
<100 subscribers
<100 subscribers
สวัสดีครับเพื่อนๆ
ยินดีต้อนรับเข้าสู่เดือนแห่งความรัก(or rug?)ครับ
เมื่อเดือนมกราคมที่ผ่านมา เราได้เห็นกระแสอันร้อนแรงของ AI จากฝั่ง Open-Source อย่าง DeepSeek-R1 ที่ทำให้ตลาดหุ้นเกิด Black Monday ขึ้นอีกครั้ง และถัดจากนั้นอีกไม่นาน ก็มีข่าวโมเดล Open-Source เวอร์ชั่นใหม่ๆมาติดๆกัน ทั้ง Qwen จาก Alibaba, Small จาก Mistral แต่คงจะไม่พูดถึง Tülu3 จาก Ai2 เลยไม่ได้ ที่มี result มาว่าทำ performance ได้ดีกว่า DeepSeek-V3 แล้ว
ปี 2025 จึงเป็นปีที่ควรติดตามข่าวสาร AI อย่างใกล้ชิดจริงๆ และในวันนี้ผมมาขอสรุปวิธีการใช้งาน Open-Source แบบสั้นๆ เพื่อให้เพื่อนๆได้ไอเดีย และสามารถนำบทความนี้ไปต่อยอดในการใช้งานโมเดล Open-Source ได้ในอนาคต ตัวอย่างเช่น ช่วงนี้ฝั่ง Web3 จะมีงาน Red Team (e.g. AI Jailbreak) ใน Data Services Platform ของโปรเจค Sahara AI เพื่อทดสอบความปลอดภัยของตัวโมเดลกลุ่ม Llama ที่เป็น Open-Source ชื่อดังของ Meta AI

โดยเราจะมาพูดถึงการใช้งาน (run) model ผ่าน 2 วิธีหลักๆได้แก่
Local
On-Cloud
ผู้เขียนมองว่า ข้อดีของการ run model บน local หลักๆคือเรื่องของ “ความเป็นส่วนตัว”และการที่สามารถใช้ AI ได้โดย ”ไม่จำเป็นต้องใช้งานอินเตอร์เน็ต” ซึ่งจะเหมาะกับงาน Red Team ที่กล่าวถึงด้านบนมากๆ จากประสบการณ์ที่ผู้เขียนได้ทดลองใช้งานในเบื้องต้น ผู้เขียนก็ขอเชียร์ Ollama เหมือนพี่ๆ AI Experts เลยครับ
โดยขั้นตอนหลักๆในการใช้ Ollama งานจะมีดังนี้
ดาวน์โหลด Ollama ผ่าน ollama.com จากนั้นทำการแตกไฟล์ที่ดาวน์โหลด และกดใช้งานเพื่อทำการ install เพื่อใช้งาน CLI
จากนั้น run command ollama run <model> ผ่าน terminal เพื่อใช้งาน model ที่ชอบได้เลย ระบบจะดาวน์โหลด model ให้อัตโนมัติหากพบว่าไม่มีในเครื่อง

เสริม: เรียนรู้ DeepSeek ผ่านวิธีต่างๆ
แค่นี้จบแล้ว
ฮ๊ะ แล้วทำไมต้องเขียนบทความออกมา
เพราะในบทความนี้ เราจะมาสอนการใช้งานโมเดล Open-Source ในกรณีที่โมเดลตัวนั้นไม่ได้อยู่บน Ollama ด้วย
โดยเราจะยกตัวอย่างการใช้งาน Dobby ซึ่งเป็น AI ที่พึ่งออกมาหมาดๆจาก Sentient กันครับ
โดยโปรเจค Sentient พึ่งปล่อย Dobby เป็น AI ที่มีความรู้สึกออกมาให้ทดลองใช้งานกันสองเวอร์ชั่นหลักๆ มีทั้งเวอร์ชั่นสุภาพชน (Leashed) และคนปากแซ่บ (Unhinged) ซึ่งทำให้เพื่อนๆจะต้องเรียนรู้ท่าในการใช้งานโมเดลเหล่านี้ด้วย

โดยในบทความนี้เราจะแนะนำวิธีการใช้โมเดล dobby-8b-unhinged-q4_k_m.gguf จาก huggingface.co/SentientAGI/Dobby-Mini-Unhinged-Llama-3.1-8B_GGUF/tree/main โดยเพื่อนๆสามารถดาวน์โหลดได้ผ่านปุ่มข้างๆเลข 4.92 GB
โดย step หลักๆที่ต้องทำจะมีดังต่อไปนี้
Create Modelfile
run vim Modelfile ผ่าน terminal (โดยถ้าไฟล์โมเดลอยู่ในโฟลเดอร์ที่พึ่งดาวน์โหลดมา จะต้องทำการ cd Downloads)
พิมพ์ FROM ./dobby-8b-unhinged-q4_k_m.gguf จากนั้นให้กดออก ctrl+C และพิมพ์ :x
Run Model
จากนั้น run ollama create dobby-unhinged -f Modelfile เพื่อสร้างชื่อโมเดล
และ run ollama run dobby-unhinged เพื่อใช้งานโมเดล
โดยวิธีดังกล่าวอาจใช้ไม่ได้กับทุกโมเดล แต่ให้เพื่อนๆเห็นภาพว่าถ้าต้องใช้งานโมเดล Open-Source ในกรณีนี้ต้องทำอะไรประมาณไหนเพิ่มบ้าง และส่วนมากเพื่อนๆก็จะสามารถทำตาม documentation ที่เขียนไว้ไและหากเพื่อนๆประสบปัญหาในการใช้งานโมเดลดังกล่าวบนเครื่องจริงๆ (เช่น AI ตอบช้า) เพื่อนๆสามารถไปทดลองใช้งานต่อได้ที่เว็ปไซต์ demo-dobby.sentient.xyz ครับ
ผู้เขียนเข้าใจว่ามีเพื่อนๆบางท่านที่อาจไม่สะดวกใช้งาน AI บนเครื่อง ซึ่งผู้เขียนเองก็มีอีกวิธีมานำเสนอผ่านการใช้งาน AI บน Hyperbolic นั่นเองครับ
โดย Hyperbolic เป็นโปรเจค AI ฝั่ง Decentralized Compute ที่ระดมทุนได้ระดับ 20 ล้านดอลล่าร์สหรัฐ โดยทาง Hyperbolic ก็เน้นย้ำในเรื่องของความสื่อสัตย์และความโปร่งใส่ในเรื่องของข้อมูลมากๆ (FAQ) อีกทั้งผู้เขียนเข้าใจว่ารายได้หลักของโปรเจคนี้น่าจะมาจากการให้เช่า GPU ในอนาคต (GPU Marketplace) ผู้เขียนจึงมองว่า make sense ที่ Hyperbolic ไม่จำเป็นที่จะต้องเก็บข้อมูลไว้สำหรับ monetize หากโปรเจคสำเร็จได้ด้วยดี ซึ่งสำหรับการสมัครใช้งาน เพื่อนๆจะมีโอกาสได้ credit ฟรีๆ 10$ เพื่อใช้งาน AI ผ่าน Hyperbolic ด้วยครับ

ในส่วนด้านล่างจะเป็นตัวอย่างของ Chat Interface ครับ

ซึ่งหากเพื่อนๆ ยังมีข้อกังวลในเรื่องของ Privacy อยู่ เพื่อนๆสามารถไปอ่านต่อได้ที่ FAQ ครับ
P.S. หากเพื่อนๆสนใจ dev Open-Source AI จะเป็นอีก topic นึง แต่ผู้เขียนแนะนำให้ไปศึกษา www.deeplearning.ai/short-courses/open-source-models-hugging-face/ ครับ
สวัสดีครับเพื่อนๆ
ยินดีต้อนรับเข้าสู่เดือนแห่งความรัก(or rug?)ครับ
เมื่อเดือนมกราคมที่ผ่านมา เราได้เห็นกระแสอันร้อนแรงของ AI จากฝั่ง Open-Source อย่าง DeepSeek-R1 ที่ทำให้ตลาดหุ้นเกิด Black Monday ขึ้นอีกครั้ง และถัดจากนั้นอีกไม่นาน ก็มีข่าวโมเดล Open-Source เวอร์ชั่นใหม่ๆมาติดๆกัน ทั้ง Qwen จาก Alibaba, Small จาก Mistral แต่คงจะไม่พูดถึง Tülu3 จาก Ai2 เลยไม่ได้ ที่มี result มาว่าทำ performance ได้ดีกว่า DeepSeek-V3 แล้ว
ปี 2025 จึงเป็นปีที่ควรติดตามข่าวสาร AI อย่างใกล้ชิดจริงๆ และในวันนี้ผมมาขอสรุปวิธีการใช้งาน Open-Source แบบสั้นๆ เพื่อให้เพื่อนๆได้ไอเดีย และสามารถนำบทความนี้ไปต่อยอดในการใช้งานโมเดล Open-Source ได้ในอนาคต ตัวอย่างเช่น ช่วงนี้ฝั่ง Web3 จะมีงาน Red Team (e.g. AI Jailbreak) ใน Data Services Platform ของโปรเจค Sahara AI เพื่อทดสอบความปลอดภัยของตัวโมเดลกลุ่ม Llama ที่เป็น Open-Source ชื่อดังของ Meta AI

โดยเราจะมาพูดถึงการใช้งาน (run) model ผ่าน 2 วิธีหลักๆได้แก่
Local
On-Cloud
ผู้เขียนมองว่า ข้อดีของการ run model บน local หลักๆคือเรื่องของ “ความเป็นส่วนตัว”และการที่สามารถใช้ AI ได้โดย ”ไม่จำเป็นต้องใช้งานอินเตอร์เน็ต” ซึ่งจะเหมาะกับงาน Red Team ที่กล่าวถึงด้านบนมากๆ จากประสบการณ์ที่ผู้เขียนได้ทดลองใช้งานในเบื้องต้น ผู้เขียนก็ขอเชียร์ Ollama เหมือนพี่ๆ AI Experts เลยครับ
โดยขั้นตอนหลักๆในการใช้ Ollama งานจะมีดังนี้
ดาวน์โหลด Ollama ผ่าน ollama.com จากนั้นทำการแตกไฟล์ที่ดาวน์โหลด และกดใช้งานเพื่อทำการ install เพื่อใช้งาน CLI
จากนั้น run command ollama run <model> ผ่าน terminal เพื่อใช้งาน model ที่ชอบได้เลย ระบบจะดาวน์โหลด model ให้อัตโนมัติหากพบว่าไม่มีในเครื่อง

เสริม: เรียนรู้ DeepSeek ผ่านวิธีต่างๆ
แค่นี้จบแล้ว
ฮ๊ะ แล้วทำไมต้องเขียนบทความออกมา
เพราะในบทความนี้ เราจะมาสอนการใช้งานโมเดล Open-Source ในกรณีที่โมเดลตัวนั้นไม่ได้อยู่บน Ollama ด้วย
โดยเราจะยกตัวอย่างการใช้งาน Dobby ซึ่งเป็น AI ที่พึ่งออกมาหมาดๆจาก Sentient กันครับ
โดยโปรเจค Sentient พึ่งปล่อย Dobby เป็น AI ที่มีความรู้สึกออกมาให้ทดลองใช้งานกันสองเวอร์ชั่นหลักๆ มีทั้งเวอร์ชั่นสุภาพชน (Leashed) และคนปากแซ่บ (Unhinged) ซึ่งทำให้เพื่อนๆจะต้องเรียนรู้ท่าในการใช้งานโมเดลเหล่านี้ด้วย

โดยในบทความนี้เราจะแนะนำวิธีการใช้โมเดล dobby-8b-unhinged-q4_k_m.gguf จาก huggingface.co/SentientAGI/Dobby-Mini-Unhinged-Llama-3.1-8B_GGUF/tree/main โดยเพื่อนๆสามารถดาวน์โหลดได้ผ่านปุ่มข้างๆเลข 4.92 GB
โดย step หลักๆที่ต้องทำจะมีดังต่อไปนี้
Create Modelfile
run vim Modelfile ผ่าน terminal (โดยถ้าไฟล์โมเดลอยู่ในโฟลเดอร์ที่พึ่งดาวน์โหลดมา จะต้องทำการ cd Downloads)
พิมพ์ FROM ./dobby-8b-unhinged-q4_k_m.gguf จากนั้นให้กดออก ctrl+C และพิมพ์ :x
Run Model
จากนั้น run ollama create dobby-unhinged -f Modelfile เพื่อสร้างชื่อโมเดล
และ run ollama run dobby-unhinged เพื่อใช้งานโมเดล
โดยวิธีดังกล่าวอาจใช้ไม่ได้กับทุกโมเดล แต่ให้เพื่อนๆเห็นภาพว่าถ้าต้องใช้งานโมเดล Open-Source ในกรณีนี้ต้องทำอะไรประมาณไหนเพิ่มบ้าง และส่วนมากเพื่อนๆก็จะสามารถทำตาม documentation ที่เขียนไว้ไและหากเพื่อนๆประสบปัญหาในการใช้งานโมเดลดังกล่าวบนเครื่องจริงๆ (เช่น AI ตอบช้า) เพื่อนๆสามารถไปทดลองใช้งานต่อได้ที่เว็ปไซต์ demo-dobby.sentient.xyz ครับ
ผู้เขียนเข้าใจว่ามีเพื่อนๆบางท่านที่อาจไม่สะดวกใช้งาน AI บนเครื่อง ซึ่งผู้เขียนเองก็มีอีกวิธีมานำเสนอผ่านการใช้งาน AI บน Hyperbolic นั่นเองครับ
โดย Hyperbolic เป็นโปรเจค AI ฝั่ง Decentralized Compute ที่ระดมทุนได้ระดับ 20 ล้านดอลล่าร์สหรัฐ โดยทาง Hyperbolic ก็เน้นย้ำในเรื่องของความสื่อสัตย์และความโปร่งใส่ในเรื่องของข้อมูลมากๆ (FAQ) อีกทั้งผู้เขียนเข้าใจว่ารายได้หลักของโปรเจคนี้น่าจะมาจากการให้เช่า GPU ในอนาคต (GPU Marketplace) ผู้เขียนจึงมองว่า make sense ที่ Hyperbolic ไม่จำเป็นที่จะต้องเก็บข้อมูลไว้สำหรับ monetize หากโปรเจคสำเร็จได้ด้วยดี ซึ่งสำหรับการสมัครใช้งาน เพื่อนๆจะมีโอกาสได้ credit ฟรีๆ 10$ เพื่อใช้งาน AI ผ่าน Hyperbolic ด้วยครับ

ในส่วนด้านล่างจะเป็นตัวอย่างของ Chat Interface ครับ

ซึ่งหากเพื่อนๆ ยังมีข้อกังวลในเรื่องของ Privacy อยู่ เพื่อนๆสามารถไปอ่านต่อได้ที่ FAQ ครับ
P.S. หากเพื่อนๆสนใจ dev Open-Source AI จะเป็นอีก topic นึง แต่ผู้เขียนแนะนำให้ไปศึกษา www.deeplearning.ai/short-courses/open-source-models-hugging-face/ ครับ
No activity yet