Análise Fatorial

A análise fatorial ou análise fatorial é uma técnica estatística multivariada . É usado para inferir algumas variáveis ​​latentes subjacentes (“fatores”) a partir de observações empíricas de muitas variáveis ​​manifestas diferentes ( observáveis , variáveis ​​estatísticas ) . A descoberta dessas variáveis ​​ou características mutuamente independentes é o ponto principal do método de redução de dados (também de redução de dimensão) da análise fatorial.

É feita uma distinção entre análise fatorial exploratória e confirmatória . Este último é um método estatístico de inferência e pode ser entendido como um caso especial de um modelo de equação estrutural .

fundo

história

A análise fatorial foi desenvolvida pelo psicólogo Charles Spearman para avaliação de testes de inteligência . Em 1904, ele mostrou que os resultados dos testes podiam ser explicados em grande parte por um traço de personalidade unidimensional , o fator geral ( fator g ). A generalização para a análise multifatorial é atribuída a JC Maxwell Garnett (Steiger 1979); foi popularizado na década de 1940 por Louis Leon Thurstone .

Os métodos de estimativa de máxima verossimilhança foram propostos por Lawley e Victor Barnett nas décadas de 1930 e 1940; um algoritmo estável foi desenvolvido na década de 1960 por Gerhard Derflinger e Karl Gustav Jöreskog .

Até hoje, no entanto, apesar das propriedades de convergência pobres, uma variante iterativa da análise de componente principal também é usada para extração de fator. Imprecisões até e incluindo a equação completa de fator e análise de componentes principais são comuns.

Formulários

A análise fatorial é uma ferramenta universalmente aplicável para inferir as causas não observáveis ​​nas quais esses fenômenos se baseiam. Por exemplo, construções como “inteligência” ou “ambição” não podem ser medidas, mas são vistas como a causa de muitos comportamentos. No entanto, para não fornecer resultados errôneos, a análise fatorial requer pelo menos um nível de escala de intervalo para os dados usados . Os dados das ciências sociais raramente alcançam esse nível de escala e são principalmente em escalas nominais ou ordinais .

Ocasionalmente, a análise fatorial também é usada para problemas científicos. Existem exemplos de processamento analítico fatorial de sinais sonoros (reconhecimento de voz) em que são extraídos os principais fatores acústicos. Isso torna mais fácil entender as sobreposições de idioma (anúncios de aeroporto, gravações de conferências) ou gravações de música sobrepostas ( separação cega da fonte , análise de independência (ICA), consulte também links da web ).

De acordo com Markus Wirtz e Christof Nachtigall, a análise fatorial geralmente busca três objetivos:

  1. Redução do número de variáveis : A análise fatorial reconhece grupos de variáveis ​​em que todas as variáveis ​​capturam informações semelhantes. Se as variáveis ​​forem resumidas dentro de cada grupo homogêneo, o resultado é uma apresentação mais econômica da informação geral.
  2. Determinação de variáveis ​​medidas confiáveis : Se as variáveis ​​são combinadas em um fator, este fator tem propriedades metrológicas mais favoráveis ​​do que as variáveis ​​individuais.
  3. Objetivos analíticos : A análise fatorial torna possível inferir variáveis ​​latentes superiores (por exemplo, inteligência) a partir das variáveis ​​manifestas (as variáveis indicadoras ).

A análise fatorial exploratória serve exclusivamente para explorar estruturas ocultas de uma amostra ou para reduzir dimensões. Não é adequado para verificar teorias existentes. A análise fatorial confirmatória é o procedimento apropriado para isso .

Quadro matemático

Significado geométrico

Do ponto de vista geométrico, os itens incluídos no cálculo são vistos como vetores que partem todos da mesma origem. O comprimento desses vetores p é determinado pela comunalidade dos respectivos itens e os ângulos entre os vetores são determinados por sua correlação . A correlação r de dois itens , e o ângulo entre os vectores, estão relacionados juntos

Portanto, uma correlação de 1 representa um ângulo de 0 °, enquanto uma não correlação representa um ângulo reto.Um modelo composto de p variáveis, portanto, abrange um espaço p- dimensional. O objetivo da análise fatorial é simplificar esta construção geometricamente, ou seja , encontrar um subespaço q- dimensional ( ). Fatores irrelevantes devem ser "mascarados" pelo processo de extração. A solução para este processo são as chamadas " nuvens de pontos " em um sistema de coordenadas q- dimensional. As coordenadas desses pontos representam as chamadas cargas fatoriais. Os fatores q extraídos devem ser girados o mais próximo possível nessas nuvens de pontos por meio de um processo de rotação .

Modelo de fator linear

A análise fatorial é sempre baseada em um modelo linear:

Com

  • : Vector da variável a ser explicada,
  • : Vetor com valores constantes,
  • : Matriz de "cargas fatoriais",
  • : Vetor de valores de fator,
  • : Vetor aleatório com valor esperado 0.

É necessário que os componentes de sejam centralizados, normalizados e não correlacionados entre si e com .

Como regra, também é necessário que os componentes de não sejam correlacionados entre si. Se este requisito é descartado, o modelo é invariante sob a transformação ortogonal de a , e .

O material de dados empíricos consiste em realizações do vetor variável (por exemplo, questionários com perguntas que foram processadas por sujeitos de teste). Para simplificar a notação, pode-se supor que os dados brutos foram centralizados em uma primeira etapa da avaliação, então isso se aplica.

Como parte de uma análise fatorial, o seguinte deve ser estimado:

  • o número de fatores
  • as cargas fatoriais ,
  • as variações de resíduos de ,
  • as realizações do vetor fator .

A estimativa é normalmente feita em três ou mais etapas:

  • Possíveis fatores são identificados (“extraídos”);
  • é decidido qual número de fatores deve ser levado em consideração;
  • os fatores podem ser alternados para simplificar sua interpretação;
  • Finalmente, os vetores de fator para as realizações individuais de (por exemplo, valores pessoais para assuntos individuais) são estimados.

Cláusula principal

A partir dos pressupostos do modelo, após um curto cálculo, o principal teorema da análise fatorial segue:

Pois esta frase simplifica para

Aqui, Var representa a variância , a covariância e a transposição da matriz .

O termo é aquela parte da variância do observável que não é explicada pelo modelo de fator . A participação declarada, ou seja , a soma das cargas fatoriais ao quadrado, é chamada de comunalidade das variáveis .

exemplo

Um ímã com direção de ação vertical e um ventilador com direção de ação horizontal são instalados em uma estação de triagem para separar o lixo. As coordenadas geométricas dos pedaços de lixo à medida que caem podem fazer parte dos dados coletados. Correlações direcionais podem ser encontradas para itens sem metal e alta suscetibilidade ao vento, bem como itens com teor de metal e baixa suscetibilidade ao vento.

Com a análise fatorial, você pode primeiro descobrir que existem duas influências ortogonais que influenciam a direção do movimento.

A aplicação do método de exame pode então ser

  • Primeiro estime o número de fatores (veja abaixo): Certamente não é interessante documentar a trajetória de cada peça individual e assumir um fator separado para cada peça, mas sim extrair fatores comuns essenciais das correlações dos dados: é muito provavelmente surgirão dois fatores a partir dos dados,
  • para determinar a força e orientação dessas influências (ainda sem uma teoria sobre a natureza das influências) ou
  • descrever o conteúdo dos fatores com base no conhecimento das propriedades da peça (metálico, compacto vs não metálico, suscetível ao vento) e descrever as "cargas" nos fatores (suas correlações com a força magnética e a potência do ventilador) para as propriedades contínuas “teor de metal” e “resistência ao vento”.

Este exemplo também mostra claramente a diferença entre a análise fatorial ortogonal e oblíqua : especialmente nas ciências sociais, fatores não ortogonais são geralmente assumidos: os análogos sociocientíficos do leque e do ímã no exemplo não precisam necessariamente ser arranjados em um ângulo de 90 graus entre si e aja de acordo.

Em uma situação exploratória em que ainda não se tenha hipóteses sobre as razões para a ocorrência de pontos de impacto correlacionados, ficará satisfeito em encontrar e marcar dois fatores e tentar estreitar a que se devem essas correlações direcionais. Em uma situação confirmatória , será investigado se as correlações encontradas podem realmente ser explicadas com dois fatores (como talvez para ser assumido a partir de uma teoria), ou se devemos assumir um terceiro fator (ou apenas um fator realmente funciona).

Análise fatorial exploratória

A análise fatorial exploratória é realizada em quatro etapas

  1. Estimativa de uma matriz de correlação ou matriz de covariância ,
  2. Estimativa de cargas fatoriais,
  3. Determinar o número de fatores e
  4. Rotação das cargas fatoriais para melhorar a interpretação dos fatores.

Extração de fator

O primeiro passo na análise fatorial, a identificação dos possíveis fatores, é a estimativa das cargas fatoriais e das variâncias residuais. Um critério de qualidade é necessário para tal estimativa. Esta base teórica essencial não é claramente afirmada em grande parte da literatura.

O “peso” de um fator é determinado por quão fortemente as variáveis ​​de medição se correlacionam com ele, i. H. quão alto eles "carregam neste fator". Isso é quantificado pela soma dos quadrados da carga (no caso ortogonal, isso concorda com os autovalores da matriz de carga ). Os fatores podem ser classificados de acordo com a quantidade da soma dos quadrados da carga (LQS).

Se você encontrar dois grupos de fatores que podem ser facilmente separados, um com alto LQS e outro com baixo LQS, você igualará o número de fatores no modelo ao número de fatores LQS alto. A separabilidade desses grupos pode ser vista em um gráfico de linha sobre o LQS; se houver uma torção reconhecível, isso pode servir como um critério de separação ( teste de scree ).

Outro critério é que o LQS de um fator comum deve ser maior do que a variância de uma variável de medição individual (caso contrário, seria difícil entendê-lo como um fator “comum”). Isso então significa i. d. R. LQS ≥ 1 ( critério de Kaiser ).

Método do eixo principal

No método do eixo principal, as comunalidades são primeiro estimadas: Ou como um coeficiente de determinação da regressão das variáveis ​​medidas em consideração em todas as outras variáveis ​​medidas ou como o máximo dos valores das correlações das variáveis ​​medidas em consideração com todos outras variáveis ​​medidas. Em seguida, um procedimento iterativo é realizado:

  1. As variâncias dos resíduos são estimadas como a diferença entre a variância das variáveis ​​de medição e a comunalidade correspondente.
  2. Os valores próprios e vetores são calculados para a matriz de covariância reduzida. Em contraste com a matriz de covariância, a matriz de covariância reduzida contém as comunalidades na diagonal principal .
  3. A matriz de correlação reproduzida é calculada com os autovetores dos maiores autovalores. A diagonal principal da matriz de correlação reproduzida fornece uma nova estimativa das comunalidades.
  4. As três primeiras etapas são repetidas até que as estimativas das cargas, comunalidades e variâncias dos resíduos tenham se estabilizado.

Com o método do eixo principal, as comunalidades e variâncias dos resíduos são primeiro estimadas e, em seguida, a decomposição dos autovalores é realizada. Na análise de componentes principais, a decomposição dos valores próprios é realizada primeiro e, em seguida, as comunalidades e variâncias dos resíduos são estimadas. Para a interpretação, isso significa que na análise de componente principal toda a variância de uma variável medida pode ser totalmente explicada pelos componentes, enquanto no método do eixo principal há uma porção da variância de uma variável medida que não pode ser explicada pelo fatores.

Uma desvantagem do método do eixo principal é que, no curso do processo de iteração, a variância dos resíduos pode se tornar negativa ou maior do que a variância das variáveis ​​de medição. O procedimento é então encerrado sem qualquer resultado.

Estimativa de máxima verossimilhança

A estimativa do parâmetro está em uma base segura se alguém determinar o dado, o e o (não observado nas seções anteriores) μ de tal forma que eles maximizem a probabilidade das realizações observadas de x .

No entanto, com este método de estimativa, é necessário fazer suposições sobre a distribuição de probabilidade da variável de manifesto x , ou seja, geralmente assume uma distribuição normal .

Determinação do número de fatores

Existem muitos fatores envolvidos na extração, dependendo da opção e do método. Poucos deles explicam variação suficiente para justificar seu uso continuado. A seleção dos fatores serve principalmente para obter resultados significativos e facilmente interpretáveis ​​e, portanto, só pode ser objetivada em uma extensão limitada. Os seguintes critérios podem fornecer pistas:

Em princípio, vários critérios devem ser usados. Em caso de dúvida, em particular, é aconselhável calcular vários números de fatores e verificá-los no que diz respeito a encargos e interpretabilidade.

Se a teoria na qual a investigação se baseia especifica um certo número de fatores, isso também pode ser usado na análise fatorial. O examinador também pode determinar mais ou menos arbitrariamente qual parte da variância total deve ser explicada; o número de fatores necessários para isso é então derivado disso. No entanto, mesmo no caso de uma determinação baseada em teoria ou baseada em variância, o número de fatores deve ser verificado quanto à plausibilidade usando os critérios mencionados.

Rotação de fator

O objetivo da rotação é tornar o conteúdo dos fatores mais fácil de interpretar. Vários métodos estão disponíveis, incluindo:

  • ortogonal, d. H. os fatores rotacionados ainda não estão correlacionados,
  • e oblíqua, d. H. os fatores rotacionados são correlacionados,
    • Obline
    • Promax

Esses métodos abordam a solução de rotação iterativamente e geralmente requerem entre 10 e 40 cálculos iterativos. O cálculo é baseado em uma matriz de correlação .

Análise de fator versus componente principal

A análise fatorial e a análise de componentes principais têm várias coisas em comum:

  • Ambos os métodos servem para reduzir as dimensões.
  • Ambos os métodos são modelos lineares entre os componentes / fatores e variáveis.
  • Ambos os métodos podem ser aplicados a uma matriz de covariância e uma matriz de correlação.
  • Ambos os métodos geralmente fornecem resultados semelhantes (se a rotação não for usada na análise fatorial).

No entanto, também existem várias diferenças:

  • A análise do componente principal começa encontrando um subespaço linear de baixa dimensão que melhor descreve os dados . Como o subespaço é linear, ele pode ser descrito por um modelo linear. É, portanto, um processo descritivo-exploratório. A análise fatorial é baseada em um modelo linear e tenta aproximar a covariância observada ou matriz de correlação. É, portanto, um procedimento baseado em modelo.
  • Na análise de componentes principais, há uma classificação clara dos vetores, dada pelos autovalores descendentes da covariância ou matriz de correlação. Na análise fatorial, a dimensão do espaço fatorial é determinada primeiro e todos os vetores são igualmente importantes.
  • Na análise de componente principal , a é um vetor aleatório p- dimensional x por uma combinação linear de vetores aleatórios mostrados, seja selecionado de modo que o primeiro termo na maior proporção possível da variância de x explicado, o segundo termo tanto do restante variância e assim por diante. Se você quebrar essa soma após q termos, você obterá a representação de x
com o resto
.
À primeira vista, x parece o modelo linear da análise fatorial. No entanto, os componentes de e são correlacionados entre si, uma vez que dependem do mesmo . Visto que isso viola o requisito da análise fatorial, um modelo fatorial correto não é obtido a partir de uma análise de componente principal.
  • A análise de componentes principais apenas modela as variâncias, mas não as covariâncias de x . A variância total , o critério de otimalidade da análise de componentes principais, pode ser escrita como a soma da distância entre as observações e a média das observações. O arranjo exato das observações no espaço de alta dimensão, a parte linear do qual é descrito com a covariância ou matriz de correlação, não importa, no entanto.

Veja também

literatura

Links da web

Evidência individual

  1. (Krzanowski, p. 487)
  2. Markus Wirtz e Christof Nachtigall: Estatísticas descritivas. 3ª edição, Juventa Verlag, Weinheim 2004, página 199 f.
  3. SPSS (2007), SPSS 16.0 Algorithms, SPSS Inc., Chicago, Illinois, p. 280.
  4. Krzanowski, WJ (2000). Princípios de análise multivariada: a perspectiva de um usuário, p. 482