ทุกครั้งที่ถึงรอบ review ไตรมาส คำถามที่ทีม OKR มักเจอซ้ำแล้วซ้ำเล่าคือ — “แล้วจะให้คะแนน OKR ยังไงดี?” บางองค์กรใช้ความรู้สึก บางทีมใช้เปอร์เซ็นต์ บางคนให้คะแนนแบบ Google แต่ไม่เข้าใจว่าสเกลหมายถึงอะไร ผลคือคะแนนที่ได้ไม่สะท้อนความเป็นจริง และไม่สามารถนำไปใช้ตัดสินใจอะไรได้เลย
บทความนี้จะพาคุณเข้าใจ OKR scoring method อย่างละเอียด พร้อมตารางตัวอย่างที่คุณสามารถนำไปใช้ได้ทันที ไม่ว่าจะเป็นวิธีให้คะแนน OKR แบบ Google-style หรือแบบเปอร์เซ็นต์ รวมถึงข้อผิดพลาดที่พบบ่อยที่ทำให้ระบบ scoring เสียความน่าเชื่อถือ
ทำไม OKR Scoring Method ถึงสำคัญกว่าที่คิด
การให้คะแนน OKR ไม่ใช่แค่พิธีกรรมปลายไตรมาส แต่เป็น กลไกหลัก ที่บอกองค์กรว่า:
- เป้าหมายที่ตั้งไว้ท้าทายเกินไปหรือง่ายเกินไป
- ทีมไหนต้องการ resource เพิ่มเติม
- กลยุทธ์ที่ใช้อยู่ได้ผลจริงหรือไม่
- ควรปรับทิศทางไตรมาสถัดไปอย่างไร
ถ้าคุณยังไม่แน่ใจว่าทำไมการวัดผล OKR ถึงเป็นเรื่องจำเป็น แนะนำให้อ่าน ทำไมการประเมิน OKR จึงสำคัญ ก่อนเพื่อเข้าใจภาพรวม
ปัญหาที่ผมเห็นซ้ำในหลายองค์กรคือ — ทีมตั้ง OKR ดี แต่ไม่มี scoring method ที่ชัดเจน พอถึงเวลา review ก็ใช้ “ความรู้สึก” ให้คะแนน ผลคือคะแนนไม่มีความหมาย เปรียบเทียบข้ามทีมไม่ได้ และไม่มีใครเชื่อถือตัวเลขที่ออกมา
OKR Scoring Scale แบบ Google (0.0 – 1.0)
วิธีให้คะแนน OKR ที่เป็นที่นิยมมากที่สุดคือ Google-style scoring ซึ่งใช้สเกล 0.0 ถึง 1.0 โดยมีหลักการสำคัญว่า คะแนน 0.7 คือ “ดี” ไม่ใช่ 1.0
เหตุผลคือ OKR ควรเป็นเป้าหมายที่ท้าทาย (stretch goal) ถ้าทุกคนได้ 1.0 หมด แปลว่าเป้าหมายง่ายเกินไป
ตารางเกณฑ์การให้คะแนน Google-style
| คะแนน | ระดับ | ความหมาย |
|---|---|---|
| 0.0 – 0.3 | ไม่ผ่าน (Red) | ไม่มีความคืบหน้าที่มีนัยสำคัญ หรือทำได้น้อยกว่า 30% ของเป้า — ต้องวิเคราะห์สาเหตุเชิงระบบ |
| 0.4 – 0.6 | ต้องปรับปรุง (Yellow) | มีความคืบหน้าแต่ยังไม่ถึงเป้า ทำได้ 40–60% — ต้อง diagnose ว่าติดอะไร |
| 0.7 – 0.8 | ดี (Green) | ถึงเป้าหมายระดับท้าทาย ถือว่าเป็น sweet spot ของ OKR scoring |
| 0.9 – 1.0 | เกินเป้า (Blue) | ทำได้เกือบ 100% หรือเกินเป้า — ต้องถามว่าเป้าท้าทายพอหรือไม่ |
จุดสำคัญ: ถ้าทีมของคุณได้คะแนนเฉลี่ย 0.9–1.0 ทุกไตรมาส นั่นไม่ใช่เรื่องดี แต่เป็นสัญญาณว่า OKR ที่ตั้งไม่ท้าทายพอ ลองอ่านเรื่อง การสร้าง OKR ที่มีประสิทธิภาพ เพื่อปรับระดับความท้าทายให้เหมาะสม
วิธีคำนวณคะแนน OKR แบบ Step-by-Step
การคำนวณคะแนน OKR มี 3 ขั้นตอนหลัก:
ขั้นที่ 1: ให้คะแนน Key Result แต่ละตัว
ใช้สูตรพื้นฐาน:
คะแนน KR = ผลลัพธ์จริง ÷ เป้าหมาย
ตัวอย่าง: KR คือ “เพิ่มยอดขายเป็น 500 ล้านบาท” ทำได้จริง 350 ล้านบาท → คะแนน = 350 ÷ 500 = 0.70
ขั้นที่ 2: หาค่าเฉลี่ยของ Objective
นำคะแนน KR ทั้งหมดภายใต้ Objective เดียวกันมาหาค่าเฉลี่ย (simple average) หรือค่าเฉลี่ยถ่วงน้ำหนัก (weighted average) หากแต่ละ KR มีความสำคัญไม่เท่ากัน
ขั้นที่ 3: ตีความคะแนนด้วยเกณฑ์ที่กำหนดไว้
นำคะแนนเฉลี่ยไปเทียบกับตารางเกณฑ์ด้านบน เพื่อระบุว่า Objective นั้นอยู่ในระดับไหน
OKR Scoring Example #1: ทีม Marketing (Simple Average)
สมมติทีม Marketing มี Objective และ Key Results ดังนี้:
| Objective | เพิ่ม Brand Awareness ในตลาด SME ไทย | |||
|---|---|---|---|---|
| Key Result | เป้าหมาย | ผลจริง | คะแนน (0.0–1.0) | หมายเหตุ |
| KR1: เพิ่ม organic traffic เป็น 50,000 sessions/เดือน | 50,000 | 38,500 | 0.77 | SEO ใหม่เริ่มเห็นผล |
| KR2: เพิ่ม social media followers เป็น 15,000 | 15,000 | 12,000 | 0.80 | แคมเปญ LinkedIn ได้ผลดี |
| KR3: จัด webinar 6 ครั้ง มีผู้เข้าร่วมเฉลี่ย 200 คน/ครั้ง | 6 ครั้ง x 200 คน | 4 ครั้ง x 180 คน | 0.60 | จัดได้แค่ 4 ครั้ง ผู้เข้าร่วมต่ำกว่าเป้า |
| KR4: ได้รับ media mention 20 ครั้ง | 20 | 14 | 0.70 | PR agency ส่งมอบช้า |
การคำนวณ (Simple Average):
คะแนนเฉลี่ย = (0.77 + 0.80 + 0.60 + 0.70) ÷ 4 = 2.87 ÷ 4 = 0.72
ผลประเมิน: ดี (0.72) — Objective นี้อยู่ใน sweet spot ของ OKR scoring ทีม Marketing ทำได้ดีในภาพรวม แต่ KR3 เรื่อง webinar ต้องวิเคราะห์ว่าทำไมจัดได้ไม่ครบ เพื่อวางแผนไตรมาสถัดไป
OKR Scoring Example #2: ทีม Product (Weighted Average)
ในหลายกรณี KR แต่ละตัวมีความสำคัญไม่เท่ากัน ทีม Product อาจตั้งน้ำหนักให้แต่ละ KR ตามผลกระทบต่อเป้าหมายหลัก:
| Objective | เพิ่ม User Retention ของผลิตภัณฑ์หลัก | ||||
|---|---|---|---|---|---|
| Key Result | น้ำหนัก | เป้าหมาย | ผลจริง | คะแนน | คะแนน x น้ำหนัก |
| KR1: เพิ่ม 30-day retention rate จาก 40% เป็น 55% | 40% | 55% | 50% | 0.67 | 0.268 |
| KR2: ลด average response time ของ support จาก 24 ชม. เหลือ 4 ชม. | 25% | 4 ชม. | 6 ชม. | 0.75 | 0.188 |
| KR3: เปิดตัว feature “onboarding wizard” ภายในสัปดาห์ที่ 8 | 20% | สัปดาห์ที่ 8 | สัปดาห์ที่ 10 | 0.80 | 0.160 |
| KR4: เพิ่ม NPS score จาก 30 เป็น 50 | 15% | 50 | 42 | 0.60 | 0.090 |
การคำนวณ (Weighted Average):
คะแนนถ่วงน้ำหนัก = 0.268 + 0.188 + 0.160 + 0.090 = 0.706
ผลประเมิน: ดี (0.71) — แม้ NPS จะต่ำกว่าเป้า แต่เพราะน้ำหนักน้อย (15%) จึงไม่ฉุดคะแนนรวมมาก ส่วน KR1 ที่มีน้ำหนักสูงสุด (40%) ทำได้ 0.67 ซึ่งอยู่ในโซนที่ต้องจับตา
หากต้องการเจาะลึกการวิเคราะห์ผลลัพธ์ OKR เพิ่มเติม แนะนำให้อ่าน การวิเคราะห์ความสำเร็จของ OKR ซึ่งอธิบายวิธี diagnose ปัญหาเชิงระบบ
Google-style vs Percentage-based Scoring: เลือกแบบไหนดี?
นี่คือคำถามที่องค์กรส่วนใหญ่สับสน ทั้งสองแบบมีจุดแข็งและจุดอ่อนต่างกัน:
| เกณฑ์เปรียบเทียบ | Google-style (0.0–1.0) | Percentage-based (0–100%) |
|---|---|---|
| สเกล | 0.0 ถึง 1.0 | 0% ถึง 100%+ |
| เป้าหมายที่ดี | 0.7 = ดี | 100% = ดี |
| ปรัชญา | Stretch goal — ไม่คาดหวังว่าจะทำได้ 100% | Committed goal — คาดหวังว่าจะทำได้ 100% |
| เหมาะกับ | องค์กรที่ต้องการ culture ของ moonshot thinking | องค์กรที่ต้องการ predictability และ accountability |
| ข้อดี | ส่งเสริมการตั้งเป้าท้าทาย ลดความกลัว “fail” | เข้าใจง่าย คุ้นเคย เชื่อมต่อกับ KPI ได้ |
| ข้อเสีย | ทีมอาจสับสนว่า 0.7 = 70% ที่ “ยังไม่ผ่าน” | ทีมอาจตั้งเป้าต่ำเพื่อให้ได้ 100% |
| ตัวอย่างบริษัท | Google, Intel, LinkedIn | หลายองค์กรไทยที่ใช้ OKR ร่วมกับ KPI |
คำแนะนำเชิงปฏิบัติ
- ถ้าองค์กรเพิ่งเริ่มใช้ OKR: ใช้ Percentage-based ก่อน เพราะทีมคุ้นเคยกับการคิดแบบ 0–100% อยู่แล้ว
- ถ้าองค์กรใช้ OKR มาแล้ว 2–3 ไตรมาส: ลองเปลี่ยนเป็น Google-style เพื่อส่งเสริม stretch thinking
- ถ้าใช้ OKR ควบคู่กับ performance review: ระวังอย่าผูกคะแนน OKR กับโบนัสโดยตรง เพราะจะทำให้ทีมตั้งเป้าต่ำ
OKR Scoring Template: โครงสร้างตารางที่แนะนำ
ถ้าคุณต้องการ OKR scoring template ที่พร้อมใช้งาน นี่คือโครงสร้างที่แนะนำ:
| ลำดับ | รายการ | รายละเอียด |
|---|---|---|
| 1 | Objective | ระบุ Objective ที่ชัดเจน สร้างแรงบันดาลใจ |
| 2 | Key Results (3–5 ตัว) | วัดผลได้เป็นตัวเลข มี baseline และ target |
| 3 | น้ำหนัก (ถ้าใช้ weighted) | กำหนดสัดส่วนรวมเป็น 100% |
| 4 | ผลลัพธ์จริง | ตัวเลขจริงที่ทำได้ ณ สิ้นไตรมาส |
| 5 | คะแนน KR | คำนวณจากสูตร ผลจริง ÷ เป้าหมาย (cap ที่ 1.0) |
| 6 | คะแนนเฉลี่ย Objective | Simple average หรือ Weighted average |
| 7 | ระดับ (Red/Yellow/Green/Blue) | ตีความตามเกณฑ์ที่กำหนด |
| 8 | บันทึก Retrospective | สิ่งที่เรียนรู้ สาเหตุที่ทำได้/ไม่ได้ตามเป้า |
5 ข้อผิดพลาดที่พบบ่อยในการให้คะแนน OKR
จากประสบการณ์ทำงานกับหลายองค์กร นี่คือข้อผิดพลาดที่เจอซ้ำแล้วซ้ำเล่า:
1. ให้คะแนนแบบ “เกรงใจ”
ทีมให้คะแนนตัวเองสูงเกินจริง หรือหัวหน้าไม่กล้าให้คะแนนต่ำ กลัวทำลายขวัญกำลังใจ ผลคือคะแนนไม่สะท้อนความจริง และองค์กรไม่รู้ว่าตรงไหนมีปัญหา
วิธีแก้: ใช้ข้อมูลตัวเลขเป็นฐาน (data-driven scoring) ไม่ใช่ความรู้สึก ถ้า KR คือ “เพิ่มยอดขาย 500 ล้าน” ทำได้ 300 ล้าน คะแนนคือ 0.60 — ไม่มีการต่อรอง
2. ไม่แยกระหว่าง Committed OKR กับ Aspirational OKR
Committed OKR ควรทำได้ 100% (คะแนน 1.0) ส่วน Aspirational OKR คาดหวังที่ 0.7 ถ้าใช้เกณฑ์เดียวกันทั้งหมด การตีความจะผิดเพี้ยน
วิธีแก้: ระบุประเภทของ OKR ตั้งแต่ต้นไตรมาส และใช้เกณฑ์ตีความคะแนนที่ต่างกัน
3. ให้คะแนนแบบ Binary (ทำได้ = 1.0, ไม่ได้ = 0.0)
บาง KR ที่เป็น milestone (เช่น “เปิดตัวผลิตภัณฑ์ใหม่”) มักถูกให้คะแนนแบบ 0 หรือ 1 ซึ่งทำให้สูญเสียข้อมูลความคืบหน้า
วิธีแก้: แตก milestone เป็น sub-milestones เช่น “design complete = 0.3, development done = 0.6, launched = 1.0”
4. ไม่ทำ Calibration ข้ามทีม
ทีม A ให้คะแนนเข้มงวด ทีม B ให้คะแนนง่าย พอเอาคะแนนมาเปรียบเทียบกัน ก็ไม่ยุติธรรม
วิธีแก้: จัด calibration session ทุกไตรมาส ให้หัวหน้าทีมมานั่งรีวิวคะแนนร่วมกัน ปรับมาตรฐานให้ตรงกัน
5. Score แล้วไม่ทำอะไรต่อ
นี่คือข้อผิดพลาดที่ร้ายแรงที่สุด หลายองค์กรให้คะแนนเสร็จแล้วก็จบ ไม่มีการวิเคราะห์ ไม่มีการปรับแผน ไม่มีการเรียนรู้
วิธีแก้: ทุกครั้งที่ score เสร็จ ต้องมี retrospective ตอบ 3 คำถาม — อะไรทำได้ดี? อะไรทำได้ไม่ดี? ไตรมาสหน้าจะเปลี่ยนอะไร?
เมื่อไหร่ควรใช้ Simple Average vs Weighted Average
ไม่มีคำตอบที่ถูกเสมอ แต่มี guideline ที่ชัดเจน:
- ใช้ Simple Average เมื่อ: KR ทุกตัวมีความสำคัญเท่ากัน หรือทีมเพิ่งเริ่มใช้ OKR (เพื่อลดความซับซ้อน)
- ใช้ Weighted Average เมื่อ: KR บางตัวส่งผลกระทบต่อ Objective มากกว่าตัวอื่นอย่างชัดเจน หรือมี leading indicator ที่สำคัญกว่า lagging indicator
- หลีกเลี่ยง: การให้น้ำหนัก KR ตัวใดตัวหนึ่งเกิน 50% เพราะจะทำให้ KR ตัวเดียวกำหนดชะตาของทั้ง Objective
สรุป: OKR Scoring ที่ดีต้อง Actionable
OKR scoring method ที่ดีไม่ใช่แค่ “ให้คะแนน” แต่ต้องนำไปสู่การตัดสินใจและการปรับปรุง จำหลักการสำคัญ:
- ใช้ข้อมูลตัวเลข ไม่ใช่ความรู้สึก ในการให้คะแนน
- เลือก scoring method (Google-style หรือ Percentage) ที่เหมาะกับวัฒนธรรมองค์กร
- ตกลงเกณฑ์ ตั้งแต่ต้นไตรมาส ไม่ใช่มาถกกันตอน review
- ทำ calibration ข้ามทีม เพื่อความยุติธรรม
- ใช้คะแนนเป็น input สำหรับ retrospective ไม่ใช่แค่ตัวเลขบนกระดาษ
พร้อมยกระดับการให้คะแนน OKR ของทีมคุณหรือยัง?
การให้คะแนน OKR ของทีมคุณยังคำนวณด้วยมือทุกรอบ review อยู่หรือเปล่า?
MyOKR ช่วยให้คุณ score, track, และวิเคราะห์ OKR ได้อัตโนมัติ พร้อม dashboard ที่แสดงคะแนนเรียลไทม์ ไม่ต้องเปิด spreadsheet อีกต่อไป
ลองใช้ MyOKR App ฟรี
เริ่มตั้ง OKR ติดตามความคืบหน้า และให้คะแนนผลลัพธ์ได้ทันทีจากมือถือ ดาวน์โหลด MyOKR แอปฟรีสำหรับการจัดการ OKR ที่ออกแบบมาสำหรับทีมไทย
ดาวน์โหลดบน App Store (iOS) | ดาวน์โหลดบน Google Play (Android)