El Teorema de Gauss-Markov

Se tarda en leer ~1 minuto

El Teorema implica que el estimador de mínimos cuadrados tiene el menor error mínimo cuadrático de entre todos los estimadores lineales insesgados. Lo que, por otro lado, tiene sentido, dado que se llama “de mínimos cuadrados” ;-)
No obstante, Hastie y compañía nos recuerdan en ESL1 que puede exisitir un estimador sesgado con un error mínimo cuadrático menor. Tal estimador podría sacrificar un poco de sesgo por una reducción mayor en la varianza, por lo que para la elección del modelo más apropiado habrá que encontrar el balance adecuado entre sesgo y varianza.

  1. The Elements of Statistical Learning, Hastie, Tibshirani and Friedman (2009). Springer-Verlag. 

Comentarios


Unir varios archivos espaciales en un solo objeto `sf`

Las funciones del paquete purrr `map_dfr()` y `map_dfc()` permitian devolver un data frame a partir de la salida de un comando `purrr::ma...… Seguir leyendo

Usando Regresión Bayesiana por defecto para predicciones

Publicado el 12 de septiembre de 2024

Testing I

Publicado el 05 de octubre de 2021