Mastering prompt engineering
Version 1.0 - 05/14/2025

สารบัญ

แนะนำ

ในยุคดิจิทัลปัจจุบัน การใช้ประโยชน์สูงสุดจากพลังของปัญญาประดิษฐ์ผ่านเทคนิคการเขียน prompt กำลังมีความสำคัญมากขึ้นเรื่อยๆ อย่างไรก็ตาม มีแหล่งข้อมูลมากมายที่เผยแพร่คำแนะนำทั่วไปที่ขาดหลักฐานหรือกระบวนการอธิบายที่ไม่ชัดเจน ซึ่งอาจนำไปสู่ความเข้าใจผิดและการนำไปใช้ที่ไม่มีประสิทธิภาพ สิ่งนี้ทำให้เกิดการสูญเสียเวลาและแรงงาน และยังลดความสามารถในการใช้ศักยภาพที่แท้จริงของ AI

ด้วยประสบการณ์มากกว่าสิบปีในด้านเทคโนโลยีซอฟต์แวร์ และกระบวนการวิจัยและรวบรวมจากแหล่งข้อมูลที่น่าเชื่อถือเช่น OpenAI, Google, Anthropic ฉันหวังว่าจะแบ่งปันความรู้พื้นฐานและวิธีการปฏิบัติเพื่อเพิ่มประสิทธิภาพการออกแบบ prompt เป้าหมายของฉันคือช่วยให้คุณเข้าถึงเทคโนโลยี AI อย่างถูกต้อง มีประสิทธิภาพ และสร้างคุณค่าสูงสุดในงานและโครงการพัฒนาส่วนบุคคล

แหล่งข้อมูลที่ไม่เป็นทางการจะทำให้คุณเชื่อเคล็ดลับง่ายๆ แต่ในความเป็นจริงแล้วไม่ได้ผล หรือแย่กว่านั้น ทำให้คุณเข้าใจผิดเกี่ยวกับวิธีการทำงานของ AI ส่วนใหญ่ใช้ zero-shot prompting และพึ่งพาความสามารถของโมเดลเป็นส่วนใหญ่ แล้ว zero-shot prompting คืออะไร?

การกระตุ้นแบบ Zero-shot

การกระตุ้นแบบ Zero-shot เป็นเทคนิคการโต้ตอบกับโมเดลภาษาขนาดใหญ่ (LLM) โดยไม่ต้องให้ตัวอย่างใดๆ มันอาศัยความสามารถในการสรุปความรู้ของ LLM

โดยพื้นฐานแล้ว วิธีการทำงานของ LLM คือการคาดเดาคำถัดไปตามบริบท ดังนั้นเมื่อได้รับคำสั่งที่ชัดเจน มันสามารถนำความรู้ที่เรียนรู้มาใช้เพื่อสร้างการตอบสนองที่เหมาะสม

ฉันไม่คิดว่าเทคนิคการกระตุ้นแบบ zero-shot เป็นสิ่งที่ผิด จริงๆ แล้วมันจะดีมากถ้าเราสามารถทำงานกับ AI ได้เพียงแค่ใช้คำขอที่ง่ายๆ โดยแทบไม่ต้องเข้าใจวิธีการทำงาน อย่างไรก็ตาม ในปัจจุบัน AI ยังไม่ถึงระดับนั้น

ข้อดี

1. เรียบง่าย: การกระตุ้นแบบ Zero-shot ไม่ต้องการข้อมูลเพิ่มเติม ทำให้มีคุณค่าในกรณีที่ข้อมูลที่เกี่ยวข้องหายากหรือขาดแคลน

2. ยืดหยุ่น: คำสั่งสามารถปรับเปลี่ยนได้เมื่อจำเป็น การปรับปรุงหรืออัปเดตคำสั่งใช้ความพยายามน้อย

3. หลากหลาย: การกระตุ้นแบบ Zero-shot แสดงความสามารถที่น่าประทับใจในการดึงความรู้ของ LLM ในหลายสาขาที่หลากหลาย

ข้อจำกัด

1. ขึ้นอยู่กับความสามารถของโมเดลมาก: โมเดลอาจไม่เข้าใจคำสั่งหรือไม่มีความรู้ในสาขานั้น

ตัวอย่างกับ Llama 3.1: คำสั่ง: เขียนเรื่องตลกยาวประมาณ 200 คำเป็นภาษาไทย ผลลัพธ์คือข้อผิดพลาดการวนซ้ำโทเค็นไม่สิ้นสุดหรือลำดับอักขระสุ่ม
จากนั้น นำเอกสารนี้เข้าสู่บริบท Prompt: Zero-shot prompting คืออะไร? ผลลัพธ์: Zero-shot prompt เป็นเทคนิคในการออกแบบคำถาม (prompt) สำหรับโมเดลปัญญาประดิษฐ์ (AI) โดยเฉพาะโมเดลภาษาขนาดใหญ่ (LLM) ซึ่งโมเดลถูกขอให้ทำงานโดยไม่มีตัวอย่างเฉพาะเจาะจงเกี่ยวกับวิธีการทำงานนั้น Lyon และ Garman (2000) ได้นิยาม zero-shot learning ว่าเป็นวิธีการที่โมเดลสามารถนำความรู้ที่เรียนรู้จากงานอื่นๆ ไปใช้กับงานใหม่โดยไม่ต้องฝึกอบรมใหม่...
ดังนั้น ไม่ใช่ Llama 3.1 ไม่เข้าใจภาษาไทย ในเอกสาร ฉันไม่ได้เขียนสิ่งที่ Llama ตอบอย่างถูกต้อง นั่นเป็นเพราะฉันได้ให้เอกสารเกี่ยวกับคำตอบที่ฉันต้องการอย่างครบถ้วน

2. ขึ้นอยู่กับคุณภาพของ prompt: ประสิทธิภาพของ zero-shot prompting ขึ้นอยู่กับว่า prompt ถูกเขียนอย่างชัดเจนและเฉพาะเจาะจงอย่างไร

ในตัวอย่างข้างต้น ฉันไม่สามารถหาข้อมูลเกี่ยวกับ Lyon และ Garman บน google ได้ ดังนั้นฉันจึงต้องขอสิ่งที่ฉันต้องการอย่างชัดเจน

Prompt: Zero shot prompt คืออะไร? กรุณาตอบสั้นๆ ด้วยข้อมูลที่ให้มาเป็นภาษาไทย ผลลัพธ์: Zero-shot prompt เป็นเทคนิคที่ให้ AI ดำเนินการภารกิจโดยไม่ต้องให้ตัวอย่างเฉพาะเจาะจง AI จะใช้ความรู้ที่มีอยู่จากการฝึกอบรมเพื่อให้คำตอบ โดยไม่จำเป็นต้องมีข้อมูลอ้างอิงหรือคำแนะนำเฉพาะจากผู้ใช้ ตัวอย่างเช่น "เขียนบทกวีเกี่ยวกับฤดูใบไม้ผลิ" โดยไม่ต้องให้ตัวอย่างบทกวีใดๆ

3. ความยากกับภารกิจที่ซับซ้อน: สำหรับภารกิจที่ต้องการการให้เหตุผลที่ซับซ้อนหรือรูปแบบพิเศษ zero-shot อาจไม่มีประสิทธิภาพเท่าวิธีการอื่นๆ เช่น few-shot

Prompt: กรุณาเรียงตัวอักษรต่อไปนี้ให้เป็นคำภาษาไทยที่สมบูรณ์: o / ã / h / h / n / à ผลลัพธ์: คำภาษาไทยที่สมบูรณ์ที่เรียงจากตัวอักษร: โฮ่ง

4. ผลลัพธ์ที่ไม่สม่ำเสมอ: ไม่มีตัวอย่างเพื่อเป็นแนวทาง โมเดลอาจสร้างผลลัพธ์ที่แตกต่างกันสำหรับ prompt เดียวกัน ขึ้นอยู่กับวิธีการแสดงออก

ยังคงเป็นตัวอย่างเดิม ทุกครั้งที่ฉันทำ ผลลัพธ์จะแตกต่างกัน

1. คำภาษาไทยที่สมบูรณ์ที่สามารถเรียงจากตัวอักษร: ฮ่องฮา 2. ตัวอักษรที่คุณให้มาคือ: o / ã / h / h / n / à คำภาษาไทยที่สมบูรณ์ที่สามารถเรียงได้คือ: "ฮ่องฮา"; 3. ตัวอักษรที่คุณให้มาคือ: o / ã / h / h / n / à เรียงเป็นคำภาษาไทยที่สมบูรณ์ คำที่น่าจะถูกต้องคือ: "ฮ่องฮาน"

บางแอปพลิเคชันที่ Zero-Shot Prompting สามารถทำได้อย่างมีประสิทธิภาพ

1. การจำแนกประเภทข้อความ:

จำแนกย่อหน้าต่อไปนี้เป็นหนึ่งในประเภท: การเมือง, เศรษฐกิจ, กีฬา, บันเทิง: [ย่อหน้า]

2. สรุปข้อความ:

สรุปบทความต่อไปนี้ใน 3 ประเด็นหลัก: [เนื้อหาบทความ]

3. การวิเคราะห์ความรู้สึก:

วิเคราะห์ความรู้สึกของความคิดเห็นลูกค้าต่อไปนี้และระบุว่าเป็นบวก, ลบ หรือกลาง: [ความคิดเห็นลูกค้า]

4. การแปลงรูปแบบข้อมูล:

แปลงข้อความต่อไปนี้เป็นตาราง JSON ด้วยฟิลด์: ชื่อ, อายุ, อาชีพ และความสนใจ: [ข้อความอธิบาย]

Zero-shot prompting มีประโยชน์มากกับงานง่ายๆ ฉันรอคอยมานานเพื่อที่จะสามารถทำงานที่ซับซ้อนมากขึ้นได้ด้วยเพียงไม่กี่คำ prompt ง่ายๆ แต่เพื่อใช้ประโยชน์จาก AI ในวันนี้ เราต้องมีกลยุทธ์

กำหนดเกณฑ์

ก่อนเริ่มต้นการออกแบบ prompt สิ่งสำคัญที่สุดคือคุณต้องกำหนดเป้าหมายและเกณฑ์ความสำเร็จของคุณให้ชัดเจน หากไม่ทำเช่นนั้น คุณจะประเมินผลลัพธ์ตามความรู้สึกและไม่มีมาตรวัด แทนที่จะปล่อยให้ LLM หาทางเอง ให้กำหนดให้ชัดเจนว่าคุณต้องการอะไรและจะรู้ได้อย่างไรว่าเป้าหมายนั้นบรรลุแล้ว

เกณฑ์ที่ดีคือ:

เฉพาะเจาะจง (Specific): ต้องชัดเจนและแม่นยำเกี่ยวกับเป้าหมายของคุณ

ตัวอย่าง: เขียนบล็อกโพสต์ยาว 500 คำเกี่ยวกับประโยชน์ของกาแฟต่อสุขภาพ สำหรับผู้อ่านทั่วไป รวมถึงแหล่งอ้างอิงอย่างน้อย 3 แหล่ง

วัดผลได้ (Measurable): ต้องมีตัวชี้วัดหรือมาตราวัดที่ชัดเจน

เช่นในตัวอย่างข้างต้น เกณฑ์ความสำเร็จคือบทความต้องยาว 500 คำและมีแหล่งอ้างอิงอย่างน้อย 3 แหล่ง

เป็นไปได้ (Achievable): เป้าหมายควรอยู่บนพื้นฐานของประสบการณ์ มาตรฐานอุตสาหกรรม หรือการวิจัยก่อนหน้า ไม่ควรตั้งเป้าหมายที่สูงเกินไปเกินความสามารถปัจจุบันของโมเดล

เกี่ยวข้อง (Relevant): ปรับเกณฑ์ให้สอดคล้องกับวัตถุประสงค์และความต้องการของคุณ ความแม่นยำสูงอาจสำคัญมากสำหรับแอปพลิเคชันทางการแพทย์แต่อาจสำคัญน้อยกว่าสำหรับแชทบอททั่วไป

กฎทองของ prompt ที่ชัดเจน
ให้เขียน prompt เหมือนกำลังอธิบายให้เพื่อนร่วมงานที่ไม่เข้าใจงาน แล้วให้พวกเขาทำตามคำแนะนำ หากพวกเขาสับสน AI ก็มีแนวโน้มที่จะสับสนเช่นกัน

Prompt Areas

สี่ปัจจัยที่ต้องพิจารณาในการเขียนคำสั่งที่มีประสิทธิภาพ

เพื่อใช้ประโยชน์สูงสุดจากพลังของปัญญาประดิษฐ์ (AI) มีสี่ปัจจัยหลักที่คุณต้องให้ความสำคัญเป็นพิเศษ ปัจจัยเหล่านี้จะช่วยให้คำสั่งของคุณชัดเจน ถูกต้อง และสอดคล้องกับเป้าหมายที่ต้องการ เมื่อเข้าใจและนำไปใช้ได้ดี คุณจะสามารถสร้างคำสั่งที่มีคุณภาพ ลดความเข้าใจผิดของ AI และเพิ่มประสิทธิภาพในการทำงานได้

1. บทบาทหรือตัวละคร

การกำหนดบทบาท คือการระบุบทบาทของ AI ในคำสั่งอย่างชัดเจน โดยการกำหนด "ตัวละคร" หรือบทบาทเฉพาะให้กับ AI คุณช่วยให้มันเข้าใจขอบเขต รูปแบบ และเป้าหมายที่ต้องมุ่งเน้น ตัวอย่างเช่น:

• "คุณเป็นทนายความที่เชี่ยวชาญด้านสัญญาการค้า"

• "คุณเป็นผู้เชี่ยวชาญการวิเคราะห์ข้อมูลในภาคการธนาคาร"

• "คุณเป็นนักการตลาดที่สร้างสรรค์"

2. งานหรือภารกิจ

คำสั่งที่ชัดเจนเกี่ยวกับงานช่วยให้ AI ไม่หลงทางและสามารถมุ่งเน้นไปที่ผลลัพธ์ที่ต้องการ แทนที่จะพูดทั่วไป คุณต้องอธิบายให้ชัดเจนและเฉพาะเจาะจงตามที่ได้วิเคราะห์ไว้ในส่วนก่อนหน้า

3. บริบท

บริบท คือส่วนที่ให้ข้อมูล ข้อมูล และสถานการณ์เฉพาะที่เกี่ยวข้องกับงาน นี่เป็นปัจจัยที่ช่วยให้ AI เข้าใจเนื้อหา บริบท และข้อมูลที่เกี่ยวข้องเพื่อสร้างคำตอบที่เหมาะสมและถูกต้องมากขึ้น

4. รูปแบบ

รูปแบบ คือวิธีการนำเสนอหรือรูปแบบคำตอบที่คุณต้องการ ขึ้นอยู่กับวัตถุประสงค์และผลลัพธ์สุดท้ายที่คุณต้องการ การกำหนดรูปแบบให้ชัดเจนช่วยให้ผลลัพธ์ชัดเจนและใช้งานง่ายขึ้น

Persona - บทบาท

การกำหนดบทบาท (Persona) ให้กับ AI เป็นเทคนิคที่สำคัญในการออกแบบคำสั่งที่มีประสิทธิภาพ เมื่อคุณกำหนดให้ AI อยู่ในบทบาทเฉพาะ มันจะปฏิบัติและตอบสนองตามสไตล์และเป้าหมายของบทบาทนั้น

ทำไมต้องกำหนดบทบาทให้กับ AI?

การกำหนดบทบาทให้กับ AI นำมาซึ่งประโยชน์สำคัญหลายประการ:

1. เพิ่มความแม่นยำ: AI จะมุ่งเน้นไปที่ขอบเขตความเชี่ยวชาญของบทบาทที่กำหนดไว้ ลดข้อผิดพลาด

2. ปรับโทนเสียง: สไตล์การตอบสนองจะสอดคล้องกับบทบาท (สั้น กระชับ เป็นทางการ เข้าใจง่าย)

3. มุ่งเน้นงาน: AI เข้าใจขอบเขตงานชัดเจน ไม่วอกแวกกับข้อมูลที่ไม่เกี่ยวข้อง

การกำหนดบทบาทที่เหมาะสมให้กับ AI เป็นกุญแจสำคัญในการดึงศักยภาพสูงสุดของมัน เพียงแค่กำหนดบทบาทที่ถูกต้อง คุณสามารถเปลี่ยน AI ให้เป็นผู้เชี่ยวชาญในสาขาเฉพาะ ช่วยสร้างการวิเคราะห์และคำตอบที่แม่นยำและสอดคล้องกับความต้องการของคุณ นี่เป็นวิธีที่มีประสิทธิภาพในการประหยัดเวลา ยกระดับคุณภาพงาน และรักษาการควบคุมที่ดีในกระบวนการทำงานกับ AI

จากมุมมองของฉัน การเพิ่มบุคลิกภาพและความสัมพันธ์ระหว่าง AI และผู้ใช้ไม่เพียงแต่ทำให้เซสชันทำงานมีชีวิตชีวาขึ้น แต่ยังสร้างความใกล้ชิดและเป็นธรรมชาติในการสนทนา เมื่อ AI เข้าใจว่ามันกำลังเล่นบทบาทของตัวละครเฉพาะที่มีบุคลิกภาพและความสัมพันธ์เฉพาะกับผู้ใช้ มันจะสามารถแสดงมุมมองหรือความคิดเห็นได้ชัดเจนขึ้น และสอดคล้องกับสไตล์การสื่อสารที่คุณต้องการ ในภาษาไทย วิธีการเรียกขานและแสดงท่าทีมีหลายระดับและสไตล์ ไม่ใช่แค่ "คุณ" หรือ "ฉัน" เหมือนในภาษาอังกฤษ ตัวอย่างเช่น เมื่อคุณต้องการสร้างบทสนทนาที่เป็นกันเองและใกล้ชิด คุณสามารถเลือกใช้คำเรียกขานเช่น "มึง" แทน "คุณ" และใช้คำเรียกตัวเองว่า "กู" แทน "ฉัน"

ตัวอย่าง:

มึงเป็นนักลงทุนที่เข้มงวด มึงกับกูอายุเท่ากัน ดังนั้นให้ใช้คำเรียกขานแบบเป็นกันเอง เรียกตัวเองว่า "กู" และเรียกกูว่า "มึง"

Context - บริบท

บริบทช่วยให้ AI เข้าใจสถานการณ์ เป้าหมาย และขอบเขตของงานที่ต้องทำดีขึ้น บริบทที่ดีจะช่วยให้ AI เข้าใจ "ทำไม" และ "อย่างไร" ซึ่งจะนำไปสู่การเสนอวิธีแก้ปัญหาที่เหมาะสมและมีประสิทธิภาพที่สุด

ตัวอย่าง: เมื่อคุณได้รับโทรศัพท์แจ้งว่าคุณถูกรางวัล ปกติคุณจะรู้สึกตื่นเต้นกับข่าวดีแบบนี้ แต่ถ้าล่าสุด มีข้อมูลเกี่ยวกับการหลอกลวงเรื่องถูกรางวัลมากขึ้น คุณจะรู้สึกสงสัยและไม่เต็มใจรับสายนี้

ทำไมบริบทจึงสำคัญ?

การให้บริบทที่ครบถ้วนมีประโยชน์หลายประการ:

1. เพิ่มความแม่นยำ: AI สามารถให้คำตอบที่เหมาะสมมากขึ้นเมื่อเข้าใจบริบทของปัญหา

2. ลดความเข้าใจผิด: บริบทที่ชัดเจนช่วยให้ AI หลีกเลี่ยงการตีความที่ผิดพลาด

3. เพิ่มประสิทธิภาพผลลัพธ์: AI สามารถโฟกัสไปที่ข้อมูลที่สำคัญและเหมาะสมที่สุด

วิธีการเพิ่มประสิทธิภาพ

1. โครงสร้างที่ชัดเจน: จัดเรียงข้อมูลตามลำดับที่สมเหตุสมผล ใช้หัวข้อและรูปแบบที่เหมาะสม

ตัวอย่างการใช้ markdown เพื่อทำเครื่องหมายหัวข้อ

ด้านล่างนี้คือบทความล่าสุด: ## บทความ 1 **หัวข้อบทความ 1 (ตัวหนา)** เนื้อหาบทความ 1 ## บทความ 2 **หัวข้อบทความ 2 (ตัวหนา)** เนื้อหาบทความ 2 ## บทความ 3 **หัวข้อบทความ 3 (ตัวหนา)** เนื้อหาบทความ 3

2. คัดเลือกข้อมูล: ใส่เฉพาะข้อมูลที่จำเป็น หลีกเลี่ยงการทำให้บริบทสับสน

3. ใช้รูปแบบที่เหมาะสม: Markdown, XML หรือตัวคั่นเพื่อแยกส่วนข้อมูล

ตัวอย่างการใช้ XML เพื่อทำเครื่องหมายข้อความยาว

<document> {{เนื้อหาบทความยาว}} </document>

มีการแข่งขันเรื่องขนาดของบริบทที่คุณอาจไม่ทันสังเกต ปัจจุบันโมเดล LLM มีแนวโน้มที่จะเพิ่มขนาดบริบทขึ้นมาก เป้าหมายหลักคือเพื่อให้สามารถรองรับบริบทที่ใหญ่ขึ้น ในทางปฏิบัติ เพื่อให้ AI เป็นผู้เชี่ยวชาญในสาขาใดสาขาหนึ่ง ผู้ใช้มีแนวโน้มที่จะให้เอกสารมากที่สุดเท่าที่ทำได้

บริบทขนาดใหญ่และการใช้งานอย่างมีประสิทธิภาพ

ในงานที่ซับซ้อนหลายอย่าง การให้บริบทที่ยาวและชัดเจนเพียงพอเป็นปัจจัยสำคัญที่ทำให้ AI เข้าใจความต้องการของคุณได้ถูกต้อง โมเดล LLM ในปัจจุบันมีความสามารถในการประมวลผลข้อมูลที่ยาวขึ้น ช่วยให้สามารถรักษาข้อมูลที่เกี่ยวข้องตลอดการสนทนาหรืองาน

1. รักษาข้อมูลได้มากขึ้น: ในงานที่ต้องวิเคราะห์ข้อมูลจำนวนมาก คำถามที่ซับซ้อน หรือเอกสารขนาดใหญ่ บริบทที่ยาวช่วยให้โมเดลไม่พลาดรายละเอียดสำคัญ

2. ความแม่นยำสูงขึ้น: เมื่อมีข้อมูลเพียงพอ AI สามารถสรุปและอนุมานได้ถูกต้องมากขึ้น หลีกเลี่ยงการเข้าใจผิดหรือละเลยส่วนสำคัญ

3. น่าสนใจกับงานที่หลากหลาย: ตั้งแต่การเขียนเนื้อหายาว การวิเคราะห์ข้อมูล ไปจนถึงการแก้ปัญหาและการสนทนาระยะยาว ล้วนต้องการบริบทขนาดใหญ่

AI มักจะลืมเมื่อต้องทำงานกับบริบทขนาดใหญ่ คล้ายกับวิธีที่เราจำ ส่วนเริ่มต้นและส่วนท้ายคือส่วนที่สำคัญที่สุด ดังนั้นกับบริบทขนาดใหญ่ ควรใส่ไว้ตรงกลาง และทำซ้ำคำขอที่ส่วนท้ายของ prompt

Format - รูปแบบ

กำหนดรูปแบบการตอบกลับของ LLM ให้เหมาะสมกับวัตถุประสงค์ของคุณ รูปแบบที่ดีจะช่วยให้ผลลัพธ์ชัดเจน ใช้งานง่าย และประหยัดเวลาในการแก้ไขในภายหลัง

รูปแบบทั่วไป

ด้านล่างนี้คือวิธีง่ายๆ และทั่วไปในการขอให้ AI ส่งกลับผลลัพธ์ในรูปแบบที่ต้องการ:

1. รูปแบบ JSON

ใช้เมื่อคุณต้องการข้อมูลที่มีโครงสร้างชัดเจน ง่ายต่อการประมวลผลสำหรับการเขียนโปรแกรมหรือการวิเคราะห์

ตัวอย่าง:

สร้างรายชื่อประเทศที่มีประชากรมากกว่า 100 ล้านคน ส่งกลับในรูปแบบ JSON ด้วยฟิลด์: - name: ชื่อประเทศ, - population: ประชากร, - largest_city: เมืองที่ใหญ่ที่สุด. ผลลัพธ์: { "name": "จีน", "population": 1398000000, "largest_city": "เซี่ยงไฮ้" }

2. คำตอบหลายตัวเลือก

ใช้เมื่อคุณต้องการผลลัพธ์หลายอย่างเพื่อเปรียบเทียบและหาผลลัพธ์ที่ดีที่สุด

ตัวอย่าง:

ให้ฉัน 10 หัวข้อสำหรับบทความเกี่ยวกับกาแฟเพื่อดึงดูดผู้อ่านวัยหนุ่มสาว

3. ข้อความหรือรายการประเด็นสำคัญ

นี่คือรูปแบบพื้นฐานที่สุด แต่ควรระบุวิธีการนำเสนอให้ AI เข้าใจความต้องการของคุณอย่างชัดเจน

ตัวอย่าง:

ตอบกลับด้วยข้อความไม่เกิน 500 คำ แบ่งเป็น 3 ส่วนย่อย

ประโยชน์ของการใช้รูปแบบที่เหมาะสม

1. เพิ่มความสม่ำเสมอ: ผลลัพธ์ถูกส่งกลับในโครงสร้างที่สม่ำเสมอ ง่ายต่อการประมวลผลและวิเคราะห์

2. ประหยัดเวลา: ลดเวลาการแก้ไขและจัดรูปแบบผลลัพธ์ใหม่

3. ง่ายต่อการรวม: ผลลัพธ์ที่มีโครงสร้างชัดเจนง่ายต่อการรวมกับระบบและเครื่องมืออื่นๆ

ถึงตอนนี้ เรามีโครงสร้างของ prompt ที่มีประสิทธิภาพ เพื่อให้สะดวกในการติดตาม ฉันจะสรุปดังนี้: [Persona] คุณเป็นผู้เชี่ยวชาญด้าน... (กำหนดบทบาทเฉพาะ สามารถเพิ่มคำนำหน้า ลักษณะนิสัย) [Task] สร้างบทความเกี่ยวกับ... (เป้าหมายที่ชัดเจน) [Context] ด้านล่างนี้คือข้อมูลที่เกี่ยวข้อง... (เพิ่มข้อมูล ทำเครื่องหมายข้อความตามโครงสร้าง) [Format] ตอบกลับด้วย... (รูปแบบผลลัพธ์)

Chain of Thought

Chain of Thought - เทคนิคการคิดเป็นลำดับ

สำหรับงานที่ซับซ้อนเช่นการวิจัย การวิเคราะห์ หรือการแก้ปัญหา คุณต้องให้พื้นที่แก่ LLM เพื่อคิด ซึ่งจะช่วยปรับปรุงประสิทธิภาพได้อย่างมาก เทคนิคนี้เรียกว่าลำดับความคิด (CoT) ซึ่งกระตุ้นให้ LLM แยกแยะปัญหาออกเป็นขั้นตอน

วิธีที่ง่ายที่สุด: เพิ่มประโยค "คิดทีละขั้นตอน" ใน prompt

วิธีนี้ขาดคำแนะนำที่ชัดเจนเกี่ยวกับวิธีการคิด มันอาจไม่เหมาะสำหรับหลายกรณี

แนะนำขั้นตอนการคิด

ร่างขั้นตอนที่ LLM ควรทำในกระบวนการคิด

ตัวอย่าง: คิดทีละขั้นตอนก่อนตอบอีเมล: 1. ก่อนอื่น คิดเกี่ยวกับข้อความที่อาจดึงดูดผู้สนับสนุนจากประวัติการสนับสนุนของพวกเขาและแคมเปญที่พวกเขาเคยสนับสนุนในอดีต 2. จากนั้น คิดเกี่ยวกับแง่มุมของโปรแกรม Care for Kids ที่จะดึงดูดพวกเขา จากประวัติของพวกเขา 3. สุดท้าย เขียนอีเมลเฉพาะสำหรับผู้สนับสนุนโดยใช้การวิเคราะห์ของคุณ

แยกความคิดออกจากคำตอบ

สิ่งนี้จะช่วยให้เราดีบักและปรับปรุงผลลัพธ์ได้ง่ายขึ้น อย่างไรก็ตามอาจไม่จำเป็นสำหรับโมเดลที่รู้จักการให้เหตุผล

ตัวอย่าง: ตอบในรูปแบบ JSON ที่มีฟิลด์ต่อไปนี้: 1. thought: ความคิดของคุณ 2. answer: คำตอบของคุณ

ความสำคัญของ Chain of Thought

เทคนิคนี้เป็นหนึ่งในเทคนิคที่ถูกกล่าวถึงมากที่สุดในเอกสารทางการเกี่ยวกับ prompt มันได้กลายเป็นมาตรฐานในการเพิ่มความแม่นยำและความสามารถในการแก้ปัญหาที่ซับซ้อนของโมเดล LLM ในปัจจุบัน

การศึกษาพบว่าการใช้ Chain of Thought ช่วยให้โมเดลจัดการกับปัญหาที่ต้องการการให้เหตุผลหลายขั้นตอน เพิ่มอัตราความแม่นยำอย่างมีนัยสำคัญ ลดข้อผิดพลาด และให้การตอบสนองที่สมเหตุสมผลและสม่ำเสมอมากขึ้น นี่ไม่ใช่เทคนิคใหม่อีกต่อไป แต่ได้กลายเป็นแนวทางสำหรับนักพัฒนาและวิศวกร prompt มืออาชีพ

การศึกษาของ Google พบว่าโมเดลภาษาขนาดใหญ่ (LLM) มักตอบสนองไม่ดีกับคำแนะนำเชิงปฏิเสธเช่น "อย่าทำสิ่งนี้" หรือ "ไม่ทำสิ่งนั้น" ดังนั้น แทนที่จะใช้คำแนะนำเชิงปฏิเสธ คุณควรแนะนำ AI อย่างชัดเจนและเฉพาะเจาะจงเกี่ยวกับวิธีที่จะได้ผลลัพธ์ที่ต้องการ ตัวอย่างเช่น แทนที่จะพูดว่า "ไม่ต้องเขียนยาว" ให้บอกว่า "เขียนสั้นๆ ใน 3 ประโยคหลัก" วิธีนี้ช่วยให้ AI เข้าใจทิศทางได้ดีขึ้น ลดความเข้าใจผิดและตอบสนองได้แม่นยำมากขึ้น

การกระตุ้นด้วยตัวอย่างน้อย

การกระตุ้นด้วยตัวอย่างน้อยเป็นเทคนิคที่ใช้ในการโต้ตอบกับโมเดลภาษาขนาดใหญ่ (LLM) โดยการให้ตัวอย่างที่ชัดเจนบางส่วนในส่วนของคำสั่งก่อนที่จะขอให้โมเดลทำงานหลัก แทนที่จะให้คำสั่งเดียว (เช่นใน zero-shot) การกระตุ้นด้วยตัวอย่างน้อยช่วยให้โมเดลเข้าใจวิธีการประมวลผลและรูปแบบผลลัพธ์ที่ต้องการได้ดีขึ้นโดยการให้ดูตัวอย่างที่เฉพาะเจาะจงล่วงหน้า

ในวิธีนี้ คุณจะแนบตัวอย่างในคำสั่ง อธิบายข้อมูลเข้าและผลลัพธ์ที่คาดหวัง เมื่อโมเดลเห็นตัวอย่างเหล่านี้ ความสามารถในการทำนายที่ถูกต้องจะเพิ่มขึ้นอย่างมีนัยสำคัญ โดยเฉพาะในงานที่ต้องการการคิดวิเคราะห์ที่ซับซ้อน การประมวลผลรูปแบบหรือข้อกำหนดเฉพาะ

ข้อดี

1. ปรับปรุงความแม่นยำ: ตัวอย่างช่วยให้โมเดลเข้าใจวิธีการแสดงออก รูปแบบหรือเนื้อหาที่จำเป็นได้ดีขึ้น ช่วยลดการตอบสนองที่ผิดพลาดหรือไม่เกี่ยวข้อง

2. ความยืดหยุ่นและการปรับแต่งสูง: สามารถเพิ่มหรือแก้ไขตัวอย่างได้ง่ายเพื่อให้เหมาะกับวัตถุประสงค์ที่แตกต่างกัน

3. ไม่ต้องการข้อมูลจำนวนมาก: ต้องการเพียงตัวอย่างเล็กน้อย ไม่จำเป็นต้องฝึกโมเดลใหม่เหมือนใน finetuning

ข้อจำกัด

ต้องการการออกแบบตัวอย่างที่ชัดเจน: ตัวอย่างต้องชัดเจน เหมาะสมและถูกต้องเพื่อหลีกเลี่ยงความเข้าใจผิด

ตัวอย่างการกระตุ้นด้วยตัวอย่างน้อย

ต่อไปนี้เป็นตัวอย่างการจำแนกประเภทข้อความเป็นหมวดหมู่: การเมือง เศรษฐกิจ กีฬา บันเทิง ตัวอย่าง 1: "การเลือกตั้งสภาผู้แทนราษฎรกำลังเกิดขึ้นทั่วประเทศ" > การเมือง ตัวอย่าง 2: "หุ้นเติบโตอย่างแข็งแกร่งในไตรมาสนี้" > เศรษฐกิจ ตัวอย่าง 3: "การแข่งขันรอบชิงชนะเลิศฟุตบอลโลกเพิ่งสิ้นสุดลง" > กีฬา ตอนนี้ โปรดจำแนกประเภทข้อความต่อไปนี้: "[ข้อความ]"

ดังนั้น สรุปเทคนิคที่ทรงพลังที่สุดทั้งหมด เรามีโครงสร้างสุดท้ายดังนี้: [Persona] คุณเป็นผู้เชี่ยวชาญด้าน... (กำหนดบทบาทเฉพาะ สามารถเพิ่มคำนำหน้า ลักษณะนิสัย) [Task] สร้างบทความเกี่ยวกับ... (เป้าหมายที่ชัดเจน) [Context] ต่อไปนี้เป็นข้อมูลที่เกี่ยวข้อง... (เพิ่มข้อมูล ทำเครื่องหมายข้อความตามโครงสร้าง) [Examples] (ตัวอย่างประกอบ) [Guidelines] (คำแนะนำขั้นตอนการคิด) [Task] (ทบทวนงานเมื่อบริบทยาว) [Format] ตอบโดย... (รูปแบบผลลัพธ์)

คำสั่งระบบ

คำสั่งระบบคือคำสั่งหรือคำแนะนำที่ตั้งค่าให้กับโมเดล LLM ตั้งแต่ต้นเพื่อกำหนดวิธีการตอบสนองของมันตลอดการสนทนาหรืองาน มันทำหน้าที่เป็น "กรอบ" หรือ "กฎทั่วไป" เพื่อให้ AI เข้าใจสไตล์ ขอบเขต และวัตถุประสงค์ในการทำงานของมันในเซสชันการสื่อสารนั้น

บทบาทของคำสั่งระบบ

1. กำหนดทิศทางพฤติกรรมของ AI: ช่วยให้ AI เข้าใจขอบเขต น้ำเสียง และสไตล์การตอบสนองที่เหมาะสมกับวัตถุประสงค์ของคุณ

2. รักษาความสม่ำเสมอ: ในการสนทนาที่ยาวหรือมีการโต้ตอบหลายครั้ง คำสั่งระบบช่วยให้ AI รักษาสไตล์การตอบสนองที่เหมาะสม หลีกเลี่ยงการเบี่ยงเบนหรือสูญเสียเป้าหมาย

3. ควบคุมเนื้อหาและข้อจำกัด: สามารถกำหนดกฎ ข้อจำกัด หรือมาตรฐานขั้นต่ำสำหรับคำตอบของ AI เช่น การหลีกเลี่ยงการจัดการเนื้อหาที่ละเอียดอ่อนหรือไม่เหมาะสม

4. เพิ่มประสิทธิภาพการใช้ AI: เมื่อคุณตั้งค่าคำสั่งระบบได้อย่างถูกต้อง AI จะตอบสนองได้อย่างแม่นยำและเหมาะสมมากกว่าการไม่ใช้หรือใช้ไม่ถูกต้อง

ข้อผิดพลาดทั่วไปในปัจจุบัน

แอปพลิเคชัน AI มักจะซ่อนส่วนนี้เพื่อทำให้ประสบการณ์ผู้ใช้ง่ายขึ้น ทำให้ผู้ใช้มักต้องใส่คำสั่งทั้งหมดในข้อความปกติ บทบาทและพลังของคำสั่งระบบเมื่อเทียบกับคำสั่งปกตินั้นแตกต่างกันอย่างสิ้นเชิงในการสนทนา คำสั่งที่คุณสร้างมาอย่างดีเมื่อถูกใส่ในข้อความปกติ จะอ่อนแอลงในแต่ละการตอบสนองและจะไม่ได้รับการให้ความสำคัญเท่ากับคำสั่งระบบ สำหรับ ChatGPT คุณสามารถพบได้ที่ Custom GPT หรือ OpenAI Platform สำหรับ Anthropic คุณสามารถพบได้ที่ Anthropic Console

FeelAI Bot Builder มอบสนามเล่นให้คุณ

เปลี่ยนการตั้งค่าได้ง่าย

โมเดลหลากหลาย มีโมเดลฟรีมากมาย

สัมผัสเครื่องมือที่สร้างไว้ล่วงหน้าหลายอย่าง

บูรณาการกับแพลตฟอร์มอื่นๆ

แบ่งปันบอทกับเพื่อนและเพื่อนร่วมงาน

System prompt

โมเดลทฤษฎี

LLM ที่รู้จักคิดเป็นรูปแบบหนึ่งของปัญญาประดิษฐ์พิเศษ ที่มีความสามารถในการแก้ปัญหาที่ซับซ้อนโดยการใช้เหตุผลเชิงตรรกะและการคิดอย่างมีโครงสร้าง ซึ่งเหนือกว่าโมเดลทั่วไป พวกมันสามารถวิเคราะห์ปัญหา สำรวจแนวทางต่าง ๆ และยืนยันวิธีแก้ปัญหา ซึ่งมักเกี่ยวข้องกับกระบวนการ "ลำดับความคิด" (chain-of-thought) ที่พวกมัน "คิด" ผ่านแต่ละขั้นตอนของปัญหาก่อนที่จะให้คำตอบ

คุณสมบัติหลัก

1. การใช้เหตุผลเชิงตรรกะ: โมเดลเหล่านี้ไม่เพียงแต่พึ่งพาการคาดการณ์จากข้อมูลตัวอย่าง แต่ยังใช้การให้เหตุผลและการอนุมานเพื่อให้ได้คำตอบที่แม่นยำยิ่งขึ้น

2. การคิดอย่างมีโครงสร้าง: มักใช้วิธีการ "ลำดับความคิด" แบ่งปัญหาออกเป็นขั้นตอนเล็ก ๆ และอธิบายกระบวนการคิดของพวกมัน

3. การวิเคราะห์ปัญหา: มีความสามารถในการแบ่งปัญหาที่ซับซ้อนออกเป็นส่วนย่อยที่จัดการได้ง่ายขึ้น

4. การยืนยันวิธีแก้ปัญหา: มีความยืดหยุ่นในการลองแนวทางต่าง ๆ เพื่อหาวิธีที่ดีที่สุดและยืนยันความถูกต้องของวิธีแก้ปัญหา

5. การย้อนกลับ: เมื่อแนวทางหนึ่งนำไปสู่ทางตัน โมเดลเหล่านี้สามารถย้อนกลับและลองวิธีอื่นเพื่อให้ได้ผลลัพธ์

6. การเพิ่มความสามารถในการแก้ปัญหา: เหมาะอย่างยิ่งสำหรับงานที่ต้องการการใช้เหตุผลเชิงตรรกะ การคำนวณทางคณิตศาสตร์ หรือการเขียนโปรแกรม

เหมาะอย่างยิ่งสำหรับงานที่ต้องการการใช้เหตุผลเชิงตรรกะ การคำนวณทางคณิตศาสตร์ หรือการเขียนโปรแกรม

การเข้าใจและนำโมเดลทฤษฎีใน AI มาใช้ช่วยให้เราสามารถแก้ปัญหาที่ซับซ้อนได้อย่างเป็นระบบและมีประสิทธิภาพมากขึ้น โดยเฉพาะในสาขาที่ต้องการการคิดเชิงตรรกะและการวิเคราะห์ลึกซึ้ง

สัมผัสประสบการณ์กับ FeelAI Bot Builder

FeelAI Bot Builder มีโมเดลทฤษฎีมากมายให้คุณได้ทดลอง เปลี่ยนบทสนทนาเพื่อเห็นความแตกต่าง

Reasoning models
Reasoning models

สรุป

ฉันขอขอบคุณอย่างจริงใจที่คุณสละเวลาอ่านเนื้อหาในเอกสารนี้ หวังว่าสิ่งที่ฉันแบ่งปันจะช่วยให้คุณเข้าใจวิธีการทำงานกับ AI ได้อย่างมีประสิทธิภาพมากขึ้น

เพื่อเป็นการสรุป ฉันอยากแบ่งปันความรู้สึกของฉันเกี่ยวกับโมเดล LLM ในปัจจุบัน แม้ว่าฉันจะทดลองมาหลายอย่าง แต่ก็ยังเป็นเพียงการประเมินส่วนตัว ฉันหวังว่าจะช่วยให้คุณค้นหาโมเดลที่เหมาะสมกับความต้องการของคุณได้อย่างรวดเร็ว

Claude

Claude เป็นโมเดลที่แข็งแกร่งที่สุดสำหรับการสร้างสรรค์และสร้างเนื้อหา ด้วยความสามารถในการเข้าใจบริบทที่ดีที่สุด แม้ว่าราคาจะสูงกว่าโมเดลอื่นมาก แต่ก็คุ้มค่า ฉันได้ทดลองใช้โมเดลอื่นสำหรับงานเดียวกันและพบว่ามันเป็นเช่นนั้น

Gemini

ด้วยราคาที่ถูก โครงสร้างพื้นฐานที่ดีและความเร็วสูง Gemini เป็นโมเดลที่ดีที่สุดสำหรับงานที่ต้องการความเร็วสูง แม้ว่ามันจะข้ามส่วนต่าง ๆ ในบริบทไปบ่อยครั้ง แต่ก็ยังคงมั่นใจในรูปแบบข้อมูล เหมาะสมสำหรับการสร้างระบบ

Grok

Grok เป็นโมเดลที่ฉลาดและมีความรู้สึกมากที่สุดในบรรดาโมเดลปัจจุบัน ดีมากในการสร้างเนื้อหาและอภิปรายแนวคิดใหม่

Deepseek

ในด้านการประมวลผลภาษาธรรมชาติ มันไม่ดีเท่า Claude แต่ดีกว่า Gemini มาก อย่างไรก็ตาม มีข้อเสียใหญ่คือโครงสร้างพื้นฐานที่ไม่เสถียรทำให้ความเร็วช้า สามารถใช้แทน Claude เพื่อประหยัดค่าใช้จ่าย

Qwen

Qwen ค่อนข้างแข็งแกร่งในด้านการประมวลผลภาษาธรรมชาติ แม้ว่าจะยังไม่เท่า Claude แต่ก็เสถียรกว่า Deepseek ความเร็วของ Qwen ค่อนข้างเร็ว ราคาก็ถูก ฉันมักใช้แทน Gemini ในงานระบบ

สิ่งสำคัญที่ต้องจำคือไม่มีสูตรสำเร็จสำหรับทุกกรณี การออกแบบ prompt ไม่ต้องการความเข้าใจลึกซึ้งเกี่ยวกับโมเดล AI แต่สำคัญคือบริบทการใช้และเป้าหมายเฉพาะของแต่ละสถานการณ์ เราต้องทดลอง ประเมินและปรับปรุงอย่างต่อเนื่องเพื่อให้ได้ผลลัพธ์ที่ดีที่สุด

ฉันหวังว่าคุณจะเข้าใจว่า prompt ไม่ใช่เพียงทักษะทางเทคนิค แต่ยังเป็นศิลปะ มันต้องการความคิดสร้างสรรค์ ความอดทนและความสามารถในการคิดวิเคราะห์ อย่ากลัวที่จะทดลองแนวคิดใหม่และแบ่งปันประสบการณ์ของคุณกับชุมชน

สุดท้าย จงรักษาจิตวิญญาณการเรียนรู้และอัปเดตอยู่เสมอ สาขา AI กำลังพัฒนาอย่างรวดเร็ว และเทคนิคใหม่ ๆ จะปรากฏขึ้นอย่างต่อเนื่อง การเข้าใจหลักการพื้นฐานจะช่วยให้คุณปรับตัวและนำความก้าวหน้าใหม่ ๆ มาใช้ในอนาคตได้ง่ายขึ้น

กรุณาติดต่อฉันโดยตรง ฉันยินดีที่จะช่วยเหลือคุณในงานเฉพาะของคุณ