Mashup.in.th

OpenAI นำ Fine-Tuning มายัง GPT-3.5 Turbo

ลูกค้าของ OpenAI ตอนนี้สามารถนำข้อมูลที่กำหนดเองมายัง GPT-3.5 Turbo ซึ่งเป็นเวอร์ชันที่เบาขึ้นของ GPT-3.5 — ทำให้ง่ายขึ้นในการปรับปรุงความน่าเชื่อถือของโมเดล AI ในการสร้างข้อความ และสร้างพฤติกรรมที่เจาะจง

OpenAI อ้างว่าเวอร์ชันที่ได้รับการปรับแต่งของ GPT-3.5 สามารถเทียบเคียงหรือแท้จริงแซงความสามารถพื้นฐานของ GPT-4 ซึ่งเป็นโมเดลหลักของบริษัท ใน “งานที่แคบเฉพาะ” บางอย่าง

“ตั้งแต่การปล่อย GPT-3.5 Turbo, นักพัฒนาและธุรกิจต่าง ๆ ได้เรียกร้องความสามารถในการปรับแต่งโมเดลเพื่อสร้างประสบการณ์ที่ไม่ซ้ำกันและแตกต่างสำหรับผู้ใช้ของพวกเขา,” บริษัทเขียนในบล็อกโพสต์ที่เผยแพร่ในบ่ายวันนี้ “การอัปเดตนี้ให้นักพัฒนาสามารถปรับแต่งโมเดลที่ทำงานได้ดีขึ้นสำหรับกรณีการใช้งานของพวกเขาและรันโมเดลที่ปรับแต่งเหล่านั้นในระบบขนาดใหญ่”

ด้วย Fine-tuning, บริษัทที่ใช้ GPT-3.5 Turbo ผ่าน API ของ OpenAI สามารถทำให้โมเดลปฏิบัติตามคำแนะนำได้ดีขึ้น ดังเช่น ให้มันตอบสนองในภาษาที่กำหนดเสมอ หรือพัฒนาความสามารถในการจัดรูปแบบข้อความตอบสนองอย่างสม่ำเสมอ (เช่น สำหรับการเติมชิ้นส่วนของโค้ด) นอกจากนี้ยังปรับปรุง “ความรู้สึก” ของผลลัพธ์จากโมเดล เช่น โทน ให้เข้ากับยี่ห้อหรือเสียง

นอกจากนี้ Fine-tuning ยังทำให้ลูกค้าของ OpenAI สามารถลดขนาดของข้อความแนะนำเพื่อเร่งความเร็วในการเรียก API และลดค่าใช้จ่าย “ผู้ทดสอบต้นฉบับได้ลดขนาดข้อความแนะนำถึง 90% โดยการปรับแต่งคำแนะนำลงในโมเดลเอง” OpenAI อ้างในบล็อกโพสต์

Fine-tuning ในขณะนี้ต้องการการเตรียมข้อมูล อัปโหลดไฟล์ที่จำเป็นและสร้างงาน Fine-tuning ผ่าน API ของ OpenAI ข้อมูลทั้งหมดที่ใช้ใน Fine-tuning ต้องผ่านการตรวจสอบจาก “API การพิจารณา” และระบบการพิจารณาที่ขับเคลื่อนด้วย GPT-4 เพื่อดูว่ามีข้อขัดแย้งกับมาตรฐานความปลอดภัยของ OpenAI หรือไม่ บริษัทบอก แต่ OpenAI มีแผนที่จะเปิดตัว UI สำหรับ Fine-tuning ในอนาคตด้วยแดชบอร์ดสำหรับตรวจสอบสถานะของงาน Fine-tuning ที่กำลังดำเนินอยู่

การฝึก: $0.008 / 1K โทเคน ข้อมูลนำเข้าใช้: $0.012 / 1K โทเคน ข้อมูลผลลัพธ์ใช้: $0.016 / 1K โทเคน “โทเคน” แทนข้อความดิบ — ตัวอย่างเช่น “fan,” “tas” และ “tic” สำหรับคำว่า “fantastic” งาน Fine-tuning ของ GPT-3.5 Turbo ด้วยไฟล์การฝึกขนาด 100,000 โทเคน หรือประมาณ 75,000 คำ จะมีราคาประมาณ $2.40 บริษัทบอก

ในข่าวอื่น ๆ OpenAI วันนี้เปิดให้ใช้งาน GPT-3 ฐานที่ได้รับการอัปเดตสองรุ่น (babbage-002 และ davinci-002) ซึ่งสามารถปรับแต่งได้เช่นกัน พร้อมรองรับการแบ่งหน้าและ “ความยืดหยุ่นเพิ่มเติม” ดังที่ประกาศไว้ก่อนหน้านี้ OpenAI มีแผนที่จะยุติ GPT-3 ฐานเดิมในวันที่ 4 มกราคม 2024

OpenAI กล่าวว่าการรองรับ Fine-tuning สำหรับ GPT-4 — ซึ่งไม่เหมือนกับ GPT-3.5 ที่สามารถเข้าใจภาพนอกจากข้อความ — จะมาถึงในฤดูใบไม้ร่วงในปีนี้ แต่ไม่ได้ระบุรายละเอียดเพิ่มเติม

Exit mobile version