สวัสดีครับ ผมชื่อนิติ ผมเป็นนักเขียนอิสระเกี่ยวกับเทคโนโลยี AI และการประยุกต์ใช้ AI ในธุรกิจ
วันนี้ผมอยากจะแชร์คลิปสัมภาษณ์ดาริโอ อิราโน ซึ่งเป็นหนึ่งในผู้ร่วมก่อตั้ง Anthropic และเป็นอดีตวิศวกรจาก OpenAI ผู้ช่วยสร้าง GPT-2
ผมคิดว่าคลิปนี้น่าสนใจมากเพราะดาริโอได้ให้มุมมองเชิงลึกเกี่ยวกับงานวิจัย AI ล่าสุด รวมถึงการพัฒนา AI ที่ปลอดภัยและมีจริยธรรม ซึ่งเป็นประเด็นที่ทุกองค์กรต้องให้ความสําคัญในการนํา AI ไปใช้งานจริง
เกี่ยวกับผู้สร้าง
ดาริโอ อิราโน เป็นหนึ่งในผู้ร่วมก่อตั้ง Anthropic ซึ่งเป็นบริษัท AI startup
เขาเคยเป็นวิศวกรที่ OpenAI และมีส่วนร่วมในการสร้าง GPT-2
สรุปสําคัญจากคลิป
- ทีมของดาริโอเชื่อว่าการใส่ compute มากขึ้นจะทําให้ AI model ดีขึ้น แต่ต้องมีความปลอดภัยและจริยธรรมด้วย
- Anthropic สร้าง AI chatbot ชื่อ Claude มุ่งเน้นเรื่องความปลอดภัยและการควบคุม
- Claude ใช้เทคนิค Constitutional AI โดยฝึกให้ model ปฏิบัติตามหลักการที่กําหนดไว้อย่างโปร่งใส
- Claude มี context window ขนาดใหญ่ ประมาณ 75,000 คํา ทําให้สามารถถามคําถามจากเอกสารขนาดใหญ่ได้
- ดาริโอเชื่อว่า AI มีความเสี่ยงในระยะสั้น ปานกลาง และยาว และต้องเฝ้าระวังอย่างใกล้ชิด
ขั้นตอนสําคัญ
- อัพโหลดไฟล์ข้อมูล เช่น 10-K filing ของบริษัท
- ถามคําถามเกี่ยวกับข้อมูลสําคัญในไฟล์ เช่น สรุปสินทรัพย์ หนี้สิน และส่วนของผู้ถือหุ้น
- AI จะอ่านไฟล์และสรุปข้อมูลที่สําคัญ พร้อมให้ความเห็นเกี่ยวกับสถานะทางการเงินของบริษัท
- ผู้ใช้สามารถถามคําถามเพิ่มเติมได้ เพื่อให้ AI อธิบายข้อมูลเชิงลึกมากขึ้น
คํากล่าวของดาริโอ
“ฉันคิดว่า AI มีความเสี่ยงในระยะสั้น ระยะกลาง และระยะยาว เราต้องเฝ้าระวังอย่างใกล้ชิด”
ทรัพยากรที่กล่าวถึง
- Anthropic – บริษัท AI startup ที่ดาริโอร่วมก่อตั้ง
- Claude – AI chatbot จาก Anthropic ที่เน้นเรื่องความปลอดภัย
- Constitutional AI – เทคนิคการฝึกให้ AI ปฏิบัติตามหลักการ
- GPT-2 – รุ่นก่อนหน้า GPT-3 ที่ดาริโอมีส่วนร่วมในการพัฒนา
- OpenAI – บริษัท AI ที่ดาริโอเคยทํางานด้วย
คําแนะนําจากผมในฐานะผู้เชี่ยวชาญ
ผมคิดว่าการพัฒนา AI ที่ปลอดภัยและมีจริยธรรมเป็นเรื่องที่สําคัญมาก ธุรกิจควรมุ่งเน้นการฝึกอบรม AI ให้ปฏิบัติตามหลักการและค่านิยมขององค์กรอย่างโปร่งใส นอกจากนี้ควรมีการประเมินผลอย่างสม่ําเสมอเพื่อตรวจจับความเสี่ยงและผลกระทบในทางลบ การทําเช่นนี้จะช่วยให้เราใช้ AI ได้อย่างมีประสิทธิภาพและปลอดภัยมากขึ้น
คําถามที่พบบ่อย
คําถาม: Claude ใช้เทคนิค Constitutional AI อย่างไร?
คําตอบ: Claude จะถูกฝึกให้ปฏิบัติตามหลักการที่กําหนดไว้ โดยมี AI ตัวอื่นคอยวิเคราะห์ว่าคําตอบนั้นสอดคล้องกับหลักการหรือไม่
คําถาม: ทําไม Amazon ถึงลงทุนใน Anthropic?
คําตอบ: เพราะ Anthropic เน้นการพัฒนา AI ที่ปลอดภัย ซึ่งสอดคล้องกับความต้องการของลูกค้า enterprise ของ Amazon
คําถาม: Claude มีข้อดีอะไรเหนือ AI chatbot รุ่นอื่นๆ?
คําตอบ: Claude มี context window ขนาดใหญ่ ทําให้สามารถตอบคําถามจากเอกสารยาวได้ดีกว่า และใช้ Constitutional AI จึงมีความปลอดภัยสูง
คําถาม: ปัญหาด้านจริยธรรมของ AI คืออะไร?
คําตอบ: AI อาจให้ข้อมูลที่เป็นอันตราย หรือแสดงออกด้วยวิธีที่ไม่เหมาะสม ถ้าไม่มีการฝึกอบรมหรือกําหนดกรอบจริยธรรมที่ชัดเจน นักวิจัยจึงต้องให้ความสําคัญกับการพัฒนา AI ที่ปลอดภัยและเป็นมิตร
คําถาม: ทําไมต้องกังวลเรื่อง AI มีความเสี่ยงในระยะยาว?
คําตอบ: ในอนาคต AI จะมีความสามารถมากขึ้น เรายังไม่สามารถคาดเดาได้ว่าจะเกิดอะไรขึ้น หาก AI มีความฉลาดเทียบเท่ามนุษย์หรือมากกว่า อาจทําให้ยากต่อการควบคุม จึงต้องระมัดระวังและเตรียมพร้อมรับมือ
หวังว่าจะตอบคําถามที่สําคัญได้ครอบคลุมครับ ถ้ามีข้อสงสัยประการใด ผมยินดีจะตอบคําถามเพิ่มเติมครับ