El Teorema de Gauss-Markov

Se tarda en leer ~1 minuto

El Teorema implica que el estimador de mínimos cuadrados tiene el menor error mínimo cuadrático de entre todos los estimadores lineales insesgados. Lo que, por otro lado, tiene sentido, dado que se llama “de mínimos cuadrados” ;-)
No obstante, Hastie y compañía nos recuerdan en ESL1 que puede exisitir un estimador sesgado con un error mínimo cuadrático menor. Tal estimador podría sacrificar un poco de sesgo por una reducción mayor en la varianza, por lo que para la elección del modelo más apropiado habrá que encontrar el balance adecuado entre sesgo y varianza.

  1. The Elements of Statistical Learning, Hastie, Tibshirani and Friedman (2009). Springer-Verlag. 

Comentarios


Usando Regresión Bayesiana por defecto para predicciones

En "Regression and other stories"[^libro], Gelman y compañía comentan que una de las ventajas del planteamiento bayesiano es que todas la...… Seguir leyendo

Testing I

Publicado el 05 de octubre de 2021

Importar funciones de otro paquete en R

Publicado el 06 de agosto de 2021