回帰分析を行うにあたり、回帰の誤謬というものがあり、注意が必要です。
例えば、親の身長と子供の身長の関係を見ようと、次のような式を回帰させるとします。
子供の身長 = α + β × 親の身長 + 誤差項
このとき、推定結果として、親の身長の係数βは、プラスになることが予想されますが、推定するとマイナスの値をとる可能性があります。
β < 0
実際に、イギリスの統計学者ゴルトンは、この推定を行い、βはマイナスをとることを見出しています。このことから、ゴルトンは、世代を通じて、身長は一定水準に収束するのではと考えました。
しかし、βがマイナスというのは、直観とは外れますし、データを考えれば、この回帰が誤りであることが分かります。
例えば、親の身長が190cmの場合には、その親は通常よりも大きい人なので、子供は親よりも小さくなる可能性が高いと言えるでしょう。逆に、親の身長が150cmの場合、その親は通常よりも小さい人なので、子供は親よりも大きくなる可能性が高くなります。
そうしたときに、これを回帰すれば、その係数βは、マイナスになります。
このことは、説明変数に例外的なデータをもってきて、説明変数に通常のデータを使って、回帰を行うと、誤りが生じることを示しています。
以上のように、注意せずに、単純に回帰を行うと、誤りを導く可能性があります。
合成の誤謬は、ゴルトンの名をとって、ゴルトンの誤謬とも言われたりもしますが、いずれにせよ、注意が必要です。