Tengo problemas para entender la diferencia entre RMSE y RSE en las estadísticas. ¿Cuál es la intuición detrás de cada uno? ¿Cuándo se usan cada uno?

Creo que estos son el error medio de raíz (para RME ) y el error o desviación cuadrático medio de raíz ( RMSE o RMSD ). La diferencia entre ellos es el término “cuadrado”.

RME = raíz cuadrada de la suma de todas las filas en el vector de error dividido por el número de observaciones. Y este vector de error se obtiene haciendo e = y - yhat ; donde e es el vector residual, y es un vector del vector dependiente medido, y yhat es el vector de los valores predichos. En suma, cuando estás calculando RME básicamente estás haciendo sqrt(sum(e)/n) en R; donde n es el número de observaciones.

RMSE = raíz cuadrada de la suma de los valores al cuadrado de los elementos del mismo vector de error que mencioné anteriormente dividido por el número de observaciones. en R, esto sería sqrt((t(e)%*%e)/n) o sqrt(sum(e^2)/n) .

Espero que esto ayude.

RME = error medio relativo
RMSE = error cuadrático medio relativo

RME le permite saber si el error es + o – mientras que RMSE le da una mejor idea del tamaño o la amplitud del error, ya que elevar al cuadrado significa que todos los valores son positivos.

Mi experiencia es que se usan para probar el ajuste de los modelos predictivos, pero los lleva a los dos juntos. No se usan por separado.