
在地情境
許多台灣企業已導入 ATS 或 AI 輔助排序,但用人主管仍習慣口頭說「我再跟他聊一下就知道」。當稽核或申訴來臨,缺少書面 評分標準 與版本,很難說明為何錄取甲而非乙。校準的目的不是消滅直覺,而是把「不可說的偏好」轉成可討論的分項與邊界案例。
摘要
用一場結構化工作坊產出:分項定義、權重或門檻、正反例、版本號與生效日。之後 AI 與人工評分都引用同一 評分標準 ID,稽核時才能還原「當時規則長什麼樣」。
90 分鐘校準會議程(範本)
| 時間 | 活動 | 產出 |
|---|---|---|
| 0–15 分 | 對齊職務成功樣貌與淘汰紅線(禁止歧視表述) | 職缺條件書草稿段落 |
| 15–45 分 | 匿名案例獨立評分 → 公開落差 → 討論邊界 | 各分項操作型定義修訂 |
| 45–70 分 | 決定權重/門檻與覆核場景(誰可 override) | 評分標準 v1 表頭 |
| 70–90 分 | 指定維護 owner、生效日、下一場複覓時間 | 變更紀錄欄位 |
與標準化 AI 面試的銜接
題組與 評分標準 串接可參考 AI 面試標準化實戰;全流程介紹見 MIND Interview 全端招募。
候選人溝通與體驗
評分標準 愈清晰,愈能在邀請非同步面試時說明評什麼、如何覆核,詳見 非同步面試與候選人溝通。
產品入口
常見問題
以下為企業主與 HR 最常詢問的重點:
第一次校準會要邀誰?
至少:該職類 HRBP、直屬主管、一位跨部門 observer(避免單一主管霸權)。技術職可再加資深 individual contributor。
要校準幾份樣本?
實務上 8~12 份匿名化案例較能暴露尺度差異;含 2~3 個邊界案例(看似及格/不及格爭議)。
評分標準 改了舊候選人怎麼辦?
決策應綁定當時版本;新輪次再用新版本,並在日誌註記生效日。
AI 分數與主管分歧時誰說了算?
制度上應明定:AI 為輔助;主管覆核需記錄分歧理由或申請覆議流程。
多久重新校準一次?
職務內容或市場條件大改時必做;否則建議每季抽樣對照,避免尺度漂移。