信用評分卡 (Credit Scorecard) 的建置是一個系統性的過程,旨在透過量化分析,預測借款人未來的信用風險。這個過程的核心是將原始資料轉換為具有預測能力的變數,並透過統計模型建立一個可以解釋的評分機制。以下是信用評分卡建置的主要步驟,其中包含 Weight of Evidence (WoE) 和 Information Value (IV) 的應用:
一、信用評分卡建置流程
信用評分卡建置一般包含以下幾個步驟
1、定義目標與問題
在建製模型的初步階段,我們一般會需要先把自變數(Independent Variable)跟依變數(Dependent Variable)進行明確的定義,才能從資料庫中選取相關的參數進行建模。
1.1定義目的:
確認信用評分卡的用途(例如:個人貸款審批、企業風險管理),不同用途的評分法會影響自變數(IV)的選擇,例如:個金跟企金採用不同模型。
1.2目標變數:
定義好壞客戶的標準(例如:逾期90天以上為「壞客戶」,否則為「好客戶」),不同的定義尺度會影響依變數(DV)的分布情況。
2、資料收集:收集歷史數據,包括客戶背景、財務信息、還款紀錄等
當我們確認好要分析的模型,接著就要進行資料前處理(Data preprocess)的動作,這個部分一般銀行或企業會從內部CRM(Customer Relationship Management)資料庫進行資料撈取,細節如下。
2.1資料撈取:
根據分析目的從Data Base提取特定模組的變數,將建模所需的原始資料進行變數欄位定義(資料屬性定義)。
2.2數據清理
處理資料中的遺漏值/缺失值(Missing data)、重複值、異常值(Outlier)。這個步驟需要對各種變數的細節有精確的定義,會直接影響後續的分析結果,是非常重要的部分。
2.3變數(特徵)選擇(Feature selection)
選擇與信用風險相關的變數(如年齡、收入、債務比率等),這個部分我們可以先用相關分析或曲線分析了解自變數跟依變數的對應關係,要特別注意變數之間不一定都是線性關係,因此建議重要的變數還是要做散布圖(Scatter plot)來確認。
2.4資料分割,進行訓練、驗證及測試
將數據分為訓練集、驗證集和測試集(通常按70:20:10比例)
2.4.1訓練集(Training set)
訓練集為主要建模資料,模型根據訓練集中的資料調整參數(例如邏輯迴歸的係數),以最小化預測誤差。在信用評分卡中,訓練集用來計算權重
WoE(Weight of evidence)、訊息量IV(Information value)並建立邏輯迴歸模型。
2.4.2驗證集 (Validation Set)
用來調整參數和評估模型表現的資料集,幫助選擇最佳模型或參數設置。
在訓練過程中,驗證集用來測試模型在未見過資料上的表現,協助調整參數(例如分類數量、正規化參數)。
此外,驗證集防止過度擬合,確保模型在訓練集外的資料也有良好表現。
在信用評分卡中,驗證集用來檢查WoE的穩定性和模型的初步預測能力(例如KS、Gini指標)。
2.4.3測試集 (Test Set)
用來最終評估模型表現的資料集,模擬模型在真實環境中的應用效果。
在模型訓練和調參完成後,使用測試集來評估模型的泛化能力。
測試集提供的最終指標(如AUC、KS、Gini)用於判斷模型是否可投入實際應用。在信用評分卡中,測試集用來確認評分卡在獨立資料上的預測力及穩定性(例如PSI指標)。
測試集通常佔資料總量的10-20%。完全獨立於訓練集和驗證集,模型在訓練過程中不會「使用到」這些資料。測試集只使用一次,確保評估結果無偏。
3、變數分箱 (Binning)
分箱本身是為了讓模型在實務解讀上更為便利,且可以將變數中的雜訊或較不重要的組別進行合併,以下進行說明。
3.1分箱目的:
把連續變數(像收入)或離散變數(組別數目過多時)分成不同類別,如此一來可以降低雜訊並提高模型穩定性。分箱(Binning)是為了讓同一個箱內的樣本在目標變數(一般為依變數)上的表現相似,而不同箱之間的表現差異最大化,這有利於後續WoE和IV的計算。
3.2分箱方法:
- 等頻分箱:每組有相同數量的資料。
- 等寬分箱:每組涵蓋相同的變數範圍。
- 決策樹分箱:根據目標變數分箱,確保區間跟風險有關。這個部分等同於先跑了一次決策樹分析,透過決策樹來了解變數各組間的情況。
此外,每個分箱要有足夠的樣本量(不然模型解釋力可能會不夠),且好壞客戶比例要有明顯差異(但也不能過度極端,否則會出現無法估計的現象)。
4、計算WoE
WoE 衡量每個分箱內好壞客戶分佈的相對差異,公式如下
WoE意義:
WoE > 0:該分箱好客戶比例較高,風險較低。
WoE < 0:該分箱壞客戶比例較高,風險較高。
WoE = 0:該分箱沒區分能力。
WoE 將不同衡量單位的變數(例如年齡、收入)轉為統一的風險指標,方便模型解讀,且WoE若存在單調性,則邏輯迴歸的係數方向(正負號)也能反映變數對風險的影響方向,確保模型符合業務上的直覺。
5、計算Information Value (IV)
IV 衡量變數對目標變數的預測能力,公式如下
IV意義:
IV < 0.02:變數預測能力弱。
0.02 ≤ IV < 0.1:預測能力稍弱。
0.1 ≤ IV < 0.3:預測能力中等。
0.3 ≤ IV < 0.5:預測能力強。
IV ≥ 0.5:預測能力很強(但要小心過度擬合,過度適配)。
一般而言,我們會採用IV篩選變數,保留IV值較高的自變數,剔除預測力弱的變數。
6、特徵篩選與變數轉換
6.1特徵(變數)篩選
根據IV值和其他標準(例如相關係數)選出最終變數,若這些分數是採用相關分析進行,則仍需進行分箱及Woe值的計算。
6.2變數轉換
把每個分箱的原始值替換成對應的WoE值,作為模型輸入的數值。
6.3非線性轉換
若有變數不適合採用分箱或是線性的方式進行處理,則仍需考慮非線性的資料轉換,這個部分就會需要依據模型適配的數值來做調整。
我們可以簡單透過以下表格來理解WoE實際上在分析時的態樣,我們將年齡分成低跟高兩組,低年齡的好客戶比例為1/3,壞客戶為2/3;高年齡的好客戶比例為2/3,壞客戶為1/3。我們根據上述WoE的公式可知,低年齡客戶的WoE數值為-0.693,高年齡客戶的WoE值為0.693,因此我們在分析時就可以帶入WoE的數值進行最終的分析。例如:年齡18的受試者1,分析時其年齡18這個數值就會以-0.693取代。
表1 信用評分卡模擬資料
7、模型建模
7.1常用模型
邏輯迴歸(Logistic Regression)跟Probit Model是信用評分卡最常用的模型,在實務上容易解釋,可參考我們之前SPSS相關的文章。
7.2建模步驟:
用WoE轉換後的變數進行邏輯迴歸建模,確保模型係數(β)跟預期的風險方向一致(例如,收入高應與風險低相關)。
7.3評估指標:
Gini係數、KS統計量:測量模型區分好壞客戶的能力,數值越大區分能力越好。
AUC-ROC曲線:評估模型整體表現,一般建議大於0.7。
有關評估指標的部分,因為細節過多,我們會在之後的文章說明細節。
8、模型驗證
當我們建模完成,我們會先做穩定性測試,確認各資料及的結果一致。
8.1變數穩定性測試
檢查分箱的WoE值在訓練集、驗證集、測試集中的一致性。
8.2模型預測力指標測試
用KS、Gini、AUC等指標在驗證集跟測試集上評估模型。
8.3群體穩定性指數(PSI)
群體穩定性指數(Population Stability Index, PSI)確保模型在不同時間或母群中的穩定性,是執行跨群驗證(Cross Validation)時會參考的指標。以下述公式為例,PSI表示每個分箱中個數的「(實際資料比例跟預期比例的差異)*Ln(實際資料比例/預期比例)」,如果這個比例數值的差異過大,表示訓練集的樣本分箱情況跟測試集有所差異。
PSI < 0.1:模型分箱穩定。
0.1 ≤ PSI < 0.25:模型分箱稍有變化。
PSI ≥ 0.25:模型分箱需要重新調整。
9、評分卡分數轉換
9.1分數轉換
把邏輯迴歸的輸出(log-odds)轉成整數分數,方便業務使用。
9.2根據模型設定基準分數
一般而言,我們常看到基準分數設為580-669分,並伴隨著一個倍數因子(例如,每增加20分,違約機率減半或減少30%),類似FICO分數這樣的設計。
10、定期監控調整模型
根據上述的流程,我們執行了非常複雜的分析過程,然而在套用模型的過程中,我們仍需在一定的時間後對模型參數進行驗證,確認模型的區別例仍然足夠,且樣本分布情況仍符合之前的訓練集比例。
如果模型的預測力下降,或是業務單位對應的母體有所差異,我們就需要根據新的需求去調整新的模型。
有關上述的流程操作,在SPSS中需要用特定的信用評分卡模組去做分析,這個部分我們可以進行客製化的建置(Setting),有相關需求都可以聯繫我們。
如果這篇文章對您有幫助,再請您給我們一個Google好評,謝謝。




