Las funciones del paquete purrr map_dfr() y map_dfc() permitian devolver un data frame a partir de la salida de un comando purrr::map, uniendo los elementos de la lista resultante por filas o por columnas. A partir de purrr 1.0.0 estas funcionalidades se eliminaron, por la posible confusión que podían producir sus nombres, al dar a entender que funcionarían de forma similar a como lo hacen las funciones map_lgl(), map_int(), etc. En lugar de eso, los autores de purrr proponian usar list_rbind() y list_cbind() sobre la lista resultado de los comandos map, que a su vez utilizan por debajo vctrs::vec_rbind() y vctrs::vec_cbind(). De esta forma:

En “Regression and other stories”1, Gelman y compañía comentan que una de las ventajas del planteamiento bayesiano es que todas las inferencias son probabilísticas y por tanto se pueden representar como simulaciones aleatorias. Por eso, cuando quieren resumir la incertidumbre de una estimación más allá de los simples intervalos de confianza y cuando quieren usar modelos de regresión para predicciones, se van al método bayesiano.

  1. Gelman, A., Hill, J., & Vehtari, A. (2021). Regression and other stories. Cambridge University Press. 

El Teorema implica que el estimador de mínimos cuadrados tiene el menor error mínimo cuadrático de entre todos los estimadores lineales insesgados. Lo que, por otro lado, tiene sentido, dado que se llama “de mínimos cuadrados” ;-)
No obstante, Hastie y compañía nos recuerdan en ESL1 que puede exisitir un estimador sesgado con un error mínimo cuadrático menor. Tal estimador podría sacrificar un poco de sesgo por una reducción mayor en la varianza, por lo que para la elección del modelo más apropiado habrá que encontrar el balance adecuado entre sesgo y varianza.

  1. The Elements of Statistical Learning, Hastie, Tibshirani and Friedman (2009). Springer-Verlag.