Identificabilidade

Em estatística, e em econometria em particular, a identificabilidade de um modelo é propriedade dos modelos de estimação de que a estatística inferencial pode ser aplicada a eles.

Um modelo é identificável se for teoricamente possível determinar os verdadeiros valores nos quais o modelo se baseia , fazendo (desenhando) um número infinito de observações. Matematicamente, isso significa que diferentes valores dos parâmetros do modelo produzem diferentes funções de probabilidade das variáveis ​​observáveis.

Na prática, onde existe um número finito de observações, a identificabilidade de um modelo é limitada pelo número de parâmetros a serem estimados , o número de observações e o número de graus de liberdade associados .

História do termo

O termo identificabilidade foi cunhado pelo econometrista Tjalling Koopmans por volta de 1945 com referência à identidade econômica de um relacionamento dentro de um sistema de relacionamento. O termo apareceu imediatamente na literatura econométrica, embora o próprio relato de Koopman sobre o tópico - seus "Problemas de identificação na modelagem econômica" - não tenha aparecido até 1949. Por volta de 1950, o termo foi escolhido por estatísticos e usado em um sentido mais geral, ver, por exemplo, B. Existência de estimativas consistentes do parâmetro direcional em uma relação estrutural linear entre duas variáveis ​​de Jerzy Neyman .

definição

Seja um modelo estatístico com um espaço de parâmetros (possivelmente de dimensão infinita) . Então significa identificável se o mapeamento for injetivo . Portanto, deve ser aplicado:

.

Valores diferentes de devem, portanto, corresponder a distribuições de probabilidade diferentes .

Se as distribuições são definidas usando funções de densidade de probabilidade , então elas são consideradas diferentes se diferirem em um conjunto de medidas de Lebesgue positivas . (Por exemplo, duas funções que diferem em apenas um ponto não são consideradas funções de densidade de probabilidade diferentes neste sentido.)

Essa identificabilidade do modelo no sentido de invertibilidade de é equivalente ao fato de que os verdadeiros parâmetros do modelo podem ser determinados se for possível observar o modelo indefinidamente. Porque, se é o resultado de observações, em seguida, resulta da forte lei dos grandes números

para cada quantidade mensurável , onde a função indicadora denota uma quantidade. Com um número infinito de observações, pode-se determinar a verdadeira distribuição de probabilidade e, como o mapeamento é invertível, também o verdadeiro valor do parâmetro .

Exemplos

Distribuições normais

Seja a família de distribuições normais , uma família em escala de localização se forma

.

Então

.

Essa expressão é zero em quase todos os lugares se e somente se todos os seus parâmetros forem zero, o que só é possível para e . Por causa do parâmetro de escala é positiva, o modelo pode ser identificado: .

Modelo de regressão linear múltipla

Seja esse o modelo clássico de regressão linear múltipla , com o vetor dos parâmetros de regressão desconhecidos , a matriz do plano do experimento , o vetor das variáveis ​​dependentes e o vetor das variáveis ​​de perturbação . Então, o parâmetro pode ser identificado exatamente quando a matriz é invertível .

Modelo clássico de erro em variáveis

Seja o modelo clássico de erro nas variáveis

onde variáveis ​​aleatórias independentes com distribuição normal conjunta com valor esperado zero e variância desconhecida são e apenas as variáveis ​​são observadas.

Este modelo não pode ser identificado. No entanto, o produto (onde a variância é o regressor latente ) é identificável.

Neste exemplo, o valor exato não pode ser identificado, mas pode ser garantido que ele deve estar no intervalo , onde e são os coeficientes obtidos a partir de e em por meio de um comuns mínimos quadrados estimar .

literatura

Evidência individual

  1. ^ Os primeiros usos conhecidos de algumas palavras da matemática: identificabilidade