3.2.3節 因子得点の推定方法

  因子分析の中心的課題は、複数尺度(項目)により測定された当該現象(知能、 性格等)に関する情報から、尺度間の相関行列を計算し、複数の尺度で測られた 情報の背後にある基本的次元(因子)を抽出し命名することにある。

  したがって、分析の第1段階は、相関行列 R から、直交解の場合には因子 パターン A を、斜交解の場合にはさらに因子間相関行列 φ を推定し、 狭義の因子構造としての、もとの変数と共通因子との相関行列 P を(3.7)式 により計算し、因子の命名を行う。

  しかし、一般的に言って、因子分析も、因子の命名だけに終るのであれば、 科学的研究の段階としては、単なる分類の域を出ないことになる。

  さらに、1.1.5で述べたように、因子分析では、もともと因子の非決定性が 存在し、何らかの方法で得られた因子解も、あくまでも1つの分類に過ぎない。

  この弱点を考慮すると、われわれは得られた因子の各々の、たとえば予測的 妥当性(predictive validity)を検討するとか、基準変数(criterion variable) としての妥当性などを検討することが望まれる。これらを行うには、因子分析の 第2段階としての因子得点 F の推定が必要となる。

  因子得点は、複数のものさし(尺度)相互の重なりの情報を整理した後の少数 の新たなものさしと考えられる各因子上での個人差得点と考えることができるので、 これらを推定することにより、因子分析に用いた変数(尺度)以外の定性・定量 変数との間の関連性の有無の検討を行える。

  たとえば、知能の規定因の分析を目的とする研究であれば、まず知能検査の テストバッテリーの因子分析を行い、因子得点まで計算し、抽出された各因子の 因子得点を基準変数とみなし、その規定因を予測ないしは説明変数とみたてての 重回帰分析や数量化 I 類を行えばよい。もちろん、知能そのものを予測変数 にみたてる研究も可能であろう。

  因子得点の推定法としては、従来からいろいろな方法が提案されている(Harman, 1967,芝,1972)が、ここでは、それらのうちで代表的な2つの方法を紹介する。

 (1) 独自性最小化による推定

  この方法は、(3.2)式の GB t の部分を最小にする推定法であり、 その時の因子得点 F は、つぎの最小二乗問題の解として推定される。

(3.60)

  これより、F の最小二乗推定 は、A t の擬逆行列 (pseudo-inverse)( A t )+ を用いて、

(3.61)

  ここで、( A t )+ は、$\displaystyle{\mathop{\mbA^t}_{(r\times m)}}$ の階数(rank)が r であることに注意すると、

( A t )+ = ( A t ) t ( A t ( A t ) t ) -1 . (3.62)

そこで、

(3.63)

  このように、独自性を最小にするような因子得点の推定値は、基準化された データ行列 Z と因子パターンAから行列演算により簡単に計算できる。

 (2) 完全推定法

  この方法は、(2.61)式の ( A t )+ のかわりに、未知のウエイト $\displaystyle{\mathop{\mbW}_{(m\times r)}}$ を考える方法である。 言い換えれば、この方法による因子得点は、もとのデータ(尺度)から 作られる合成変量により説明されるという立場にたって得られる。すなわち

(3.64)

  これは要素表現すれば、

(3.65)

となり、r 本の重回帰方程式(multiple regnession epuation)を考えていること に等しい。この解は、擬逆行列 Z+ を用いて、

(3.66)

ここで、 Z N\times m の階数は m として、

(3.67)

に注意すると、

(3.68)

したがって、

(3.69)

  直交因子の場合、(3.69)式は、

(3.70)

  この場合、因子得点は、基準化されたデータ行列 Z 、因子パターン A 及び相関行列 R の行列演算により計算できることになる。

因子得点の例ー藤井(1983)の筆跡の5因子の因子得点

--- 表1.藤井(1983)の筆跡データの5因子の因子得点の推定値 ---

OBS     Factor1     Factor2     Factor3     Factor4     Factor5

  1     0.31437     1.65348     0.61042    -1.48477    -0.58720
  2    -0.01072    -0.71286    -0.06003     0.09055     1.05729
  3     0.24824    -0.54324    -1.22068    -1.04111     0.49309
  4    -1.09862    -0.17071     0.71697    -1.16737    -0.48835
  5    -0.60635    -1.00952    -2.12104    -1.19266    -0.37534
  6    -1.15287     1.38427     0.45401     0.32688     0.19814
  7     0.34053    -0.99533    -1.57051    -0.76516    -1.65557
  8     0.97236     0.67307     0.21504     0.57579     0.89287
  9     1.81321     1.04621     0.04310    -0.11434     1.78126
 10    -0.49436    -0.83521     0.26804     0.03021    -1.47843
 11    -1.92801     0.82557    -0.05721    -0.50636     0.08321
 12     1.17105    -0.84077    -1.32078    -0.05043     0.97049
 13    -0.90249     0.81256    -0.71317     2.08837     0.83877
 14     0.35266    -0.48361    -0.99979    -1.02470    -1.35042
 15    -0.22791    -1.90038    -0.40872     0.02418     0.80752
 16    -1.82901     0.73663    -0.07252     0.53208    -0.70696
 17    -1.34098     0.91832     1.55373     0.17650    -0.30631
 18     0.24082     0.85683    -0.78034     0.82084    -0.28108
 19     0.36817    -2.27016     0.75913    -0.95807     0.83394
 20    -0.71399    -2.10817     1.64975     1.03427    -0.63377
 21    -0.98429    -0.02576     0.41530     0.33211     0.64777
 22     1.64814     0.37409     1.19217     0.03978    -0.00403
 23    -0.29179     1.66147     0.94163     0.50349    -0.78734
 24     1.09542     1.48350    -0.11404    -2.21799     0.63042
 25    -0.01857     1.24013     0.72080     0.32937     0.16360
 26    -0.52906    -1.15124    -1.65710     0.86464     0.67362
 27    -0.12682     0.42263    -0.05133     0.81813    -0.00355
 28     1.73384     0.38860     1.56244     0.84480    -1.21528
 29    -0.79388     0.27090     0.58202    -1.07769     1.69014
 30     1.36724    -0.23551    -0.07758     0.30985    -0.59374
 31     0.33642     1.23631    -2.07901    -1.10685    -1.96512
 32    -0.35435    -0.59047    -1.00451     1.85612    -0.35877
 33    -1.84819    -1.17495     1.00354    -1.39361     0.26290
 34     0.50160     0.68645    -1.03575     1.35442     0.17357
 35     0.16720    -0.80991    -0.22204    -0.42930    -1.38168
 36     0.45325     0.13618    -0.19034    -1.30099     0.17766
 37    -1.91811    -0.72627     0.94435    -0.00390     0.36189
 38     1.14149     0.66118     0.02112    -0.05246     0.81144
 39     0.13055    -1.66769     0.52714     0.55300    -0.55523
 40    -0.40968     0.55313    -1.76253     1.44988     0.69547
 41     0.76392     0.24025     0.02992    -0.77194     0.19814
 42     0.78738    -0.70883     0.29014     0.05761    -0.23920
 43     0.43512    -0.48142     0.91985    -0.37952     1.62132
 44    -0.03122     0.43478    -0.27360     1.46220    -0.31213
 45     0.98780    -0.37643     0.27728    -0.09984    -0.99867
 46    -0.34577     0.09133     0.88119    -1.02514     0.49319
 47     1.07728    -0.61368    -0.00930     0.52595     1.51542
 48     1.38026    -0.29970     1.00020     1.53477    -0.84111
 49    -0.17231     0.62303     1.22571     0.14187    -1.59692
 50    -1.69897     1.32093    -1.00311    -0.51349     0.64310