Replies: 6 comments 6 replies
-
Respuesta a la Pregunta sobre Escalas de Evaluación en InvestigaciónLa elección entre diferentes escalas requiere una consideración cuidadosa de varios factores, incluida la naturaleza de la investigación y los requerimientos estadísticos. En mi opinión, la adhesión a escalas establecidas y aceptadas en la comunidad científica simplifica el proceso de publicación y debería ser la opción preferida a menos que existan justificaciones metodológicas para hacer lo contrario. Es decir, la selección de una escala para la evaluación en investigaciones es una decisión crítica que puede afectar tanto la recopilación como la interpretación de los datos. En lo que respecta a la elección entre escalas de 1 a 9 o de 1 a 5, existen varios factores a considerar. Historia y Aplicación de EscalasUna de las escalas más ampliamente utilizadas es la escala Likert, propuesta en 1932 por Rensis Likert 1. Esta escala, a pesar de su aplicabilidad en diferentes campos de la psicometría, presenta limitaciones estadísticas. Específicamente, al ser una escala ordinal, no cumple con los supuestos estadísticos para pruebas como ANOVA y regresiones lineales. Existen modelos más adecuados para variables ordinales, como los Generalized Linear Mixed Models 2. Percepción y LinealidadNuestro cerebro tiende a percibir cambios de manera logarítmica 3. Esto puede facilitar la identificación de diferencias sustanciales en escalas con más opciones. La consistencia y la linealidad de estas comparaciones son aún temas de debate 4. Libertad Creativa en la Selección de EscalasComo señala Saaty, la escala podría extenderse hasta el infinito si se desea 5. La elección de la escala dependerá de lo que se considere más adecuado para la investigación y de la habilidad del investigador para manejar complejidades adicionales. Footnotes |
Beta Was this translation helpful? Give feedback.
-
Respuesta a la Pregunta sobre Índice de Consistencia AleatorioLos valores de RI (Random Consistency Index) se derivan de simulaciones de matrices aleatorias realizados en el trabajo original por Saaty 1. Este índice se origina a partir de simulaciones que emplean matrices recíprocas generadas aleatoriamente. En particular, estas matrices usan la escala del 1/9 al 9, que es la escala utilizada en el método AHP. Estas simulaciones tienen el objetivo de determinar qué tan consistentes son las matrices generadas aleatoriamente en comparación con las matrices de juicio creadas a partir de evaluaciones subjetivas. Estos valores son generalmente proporcionados como una parte integral del método del Análisis Jerárquico Ponderado (AHP) y se utilizan como una línea de base para comparar el Índice de Consistencia (CI) calculado de la matriz de juicio. La idea es determinar si la matriz de juicio exhibe una cantidad aceptable de consistencia en comparación con una matriz generada al azar. Los valores de RI han sido tabulados para diferentes tamaños de matriz, empezando por una matriz de 1x1 hasta matrices de dimensiones mucho más grandes. Para matrices de tamaño 1x1 y 2x2, el valor de RI es cero, ya que se consideran perfectamente consistentes. A partir de matrices de 3x3 en adelante, el valor de RI aumenta y se tabula. Por ejemplo, para una matriz de 3x3, el valor comúnmente aceptado de RI es 0.58; para una matriz de 4x4, el valor es 0.90; y para una matriz de 5x5, el valor es 1.12. Estos valores han sido obtenidos a través de investigaciones y son ampliamente aceptados en la literatura sobre AHP. NotaAdjunto la tabla original del artículo: ReferenciasFootnotes |
Beta Was this translation helpful? Give feedback.
-
Respuesta a la pregunta sobre Abordaje de Heurísticas en Evaluación de UsabilidadEn el ejemplo se hicieron varias suposiciones con respecto a las heurísticas de Nielsen 1. Aunque esto proporciona un marco reconocido, fue principalmente nominal y no se destinó a ahondar en qué constituye una heurística en este contexto. PropuestaUtilización de Heurísticas de GranollersEn nuestro caso, propongo utilizar las heurísticas propuestas por Granollers 2. Estas heurísticas tienen el beneficio de incluir un sistema cuantificable que permite generar un número asociado a cada heurística. Es relevante destacar que, en el enfoque de Granollers, todas las heurísticas tienen el mismo peso o ponderación. Módulo de PonderaciónAdicionalmente, sugiero implementar un módulo de cálculo de ponderaciones. Este módulo incluirá una interfaz de usuario amigable para facilitar la tarea de asignar pesos a diferentes heurísticas según su relevancia en el contexto particular de evaluación. Con @JordiVirgili hemos empezado reuniones pensando en cómo podemos simplificar la actividad de generar tantas comparaciones pareadas. Comparación y Visualización de UsabilidadOtra adición útil sería un módulo para comparar los valores de usabilidad antes y después de la ponderación. En este módulo, se podría emplear un esquema de colores para resaltar aspectos que son importantes pero están desatendidos (baja valoración), o aspectos que son menos importantes pero reciben una alta valoración. Esta visualización ayudaría a identificar posibles malentendidos o áreas que requieren atención. ReferenciasFootnotes
|
Beta Was this translation helpful? Give feedback.
-
Muchas gracias por las aclaraciones @eitt, creo que ayudan a esclarecer y entender mejor el alcance de la actuación. Estoy repasando el ejemplo del ipynb y me gustaría que me corrigieras por si me he perdido alguna de las premisas. En el ipynb encontramos esto: Solving the problem
Si lo he entendido bien me faltarían algunas permutaciones que serían:
Puede ser que este errado o también crees que faltarían estas premisas? Otra duda, con la frase "moderately less important than" el valor que considerais con la escala de 1 a 9 sería de 2? Gracias por esclarecer los detalles! Att, M. |
Beta Was this translation helpful? Give feedback.
-
Respuesta a la pregunta sobre comparaciones de menor importancia.Estimado @marcgc21 , para tu pregunta acerca de la expresión: "la frase moderately less important than ", cuando es de menor importancia utiliza inversos multiplicativos, en el ejemplo con el fin de simplificar esta primera versión no trabajamos con todos los valores de 1 a 9, sino con los impares y sus inversos. Para ello se creó una pequeña función que carga un diccionario llamada def generate_saaty_scale_with_explanations():
return {
'Equal Importance': 1,
'Moderate Importance': 3,
'Strong Importance': 5,
'Very Strong Importance': 7,
'Extreme Importance': 9,
'Moderately Less Important': 1/3,
'Strongly Less Important': 1/5,
'Very Strongly Less Important': 1/7,
'Extremely Less Important': 1/9
} |
Beta Was this translation helpful? Give feedback.
-
For design, to determine the importance of heuristics on a scale of 1 to 9, a comparison interface was implemented, in a way that each tab represents a heuristic and the body contains a table with the comparisons to be made. The interface was implemented during the creation of a test, considering that only the creator can edit it. For better user understanding, instead of using the actual names of the heuristics as titles, they were changed to show only when hovering the mouse over them, displaying "H" (heuristic) and the heuristic number. For the next steps, will be incorporate all the logic for calculating the weights and statistics. |
Beta Was this translation helpful? Give feedback.
-
Saludos compañeros!
Después de una reunión con Toni, Karine y Leonardo, este último trae una propuesta para la introducción de un sistema por pesos para el modelo actual que tenemos referente al cálculo de los pesos de la heurísticas.
Quería aprovechar este hilo para discutir la implementación y también detalles del uso del sistema.
Comparto el repositorio hecho por Leonardo donde se muestra un ejemplo de uso del nuevo sistema:
Después de analizar con detalle la propuesta me asaltan varias dudas que me gustaría de comentar:
Vamos a intentar utilizar este foro para ir debatiendo sobre las diferentes dudas en el sistema y hacer crecer la comunidad!
Att,
M.
Beta Was this translation helpful? Give feedback.
All reactions