En “Regression and other stories”1, Gelman y compañía comentan que una de las ventajas del planteamiento bayesiano es que todas las inferencias son probabilísticas y por tanto se pueden representar como simulaciones aleatorias. Por eso, cuando quieren resumir la incertidumbre de una estimación más allá de los simples intervalos de confianza y cuando quieren usar modelos de regresión para predicciones, se van al método bayesiano.

  1. Gelman, A., Hill, J., & Vehtari, A. (2021). Regression and other stories. Cambridge University Press. 

El Teorema implica que el estimador de mínimos cuadrados tiene el menor error mínimo cuadrático de entre todos los estimadores lineales insesgados. Lo que, por otro lado, tiene sentido, dado que se llama “de mínimos cuadrados” ;-)
No obstante, Hastie y compañía nos recuerdan en ESL1 que puede exisitir un estimador sesgado con un error mínimo cuadrático menor. Tal estimador podría sacrificar un poco de sesgo por una reducción mayor en la varianza, por lo que para la elección del modelo más apropiado habrá que encontrar el balance adecuado entre sesgo y varianza.

  1. The Elements of Statistical Learning, Hastie, Tibshirani and Friedman (2009). Springer-Verlag. 

Nadie quiere hablar sobre testing. Testing es el patito feo del desarrollo de software. El problema es que todos/as sabemos que el testeo es importante y que no lo hacemos lo suficiente. Y sentimos que nuestros proyectos no van tan bien como deberían y que probablemente más testeo haría que fueran mejor. Pero entonces leemos un libro sobre testing e instantaneamente nos venimos abajo con los múltiples tipos de testeos y las múltiples formas de hacerlos. No hay forma de que añadamos todo eso y aún nos de tiempo a programar.