Título: Comparación de los procedimientos de Fleishman y Ramberg et al. para generar datos no normales en estudios de simulación. Resumen: Las técnicas de simulación deben posibilitar la generación adecuada de las distribuciones más frecuentes en la realidad como son las distribuciones no normales. Entre los procedimientos para la generación de datos no normales destacan el método de transformaciones lineales propuesto por Fleishman y el método basado en la generalización de la distribución lambda de Tukey propuesto por Ramberg et al. Este estudio compara los procedimientos en función del ajuste de las distribuciones generadas a sus respectivos modelos teóricos y del número de simulaciones necesarias para dicho ajuste. Con este objetivo se seleccionan, junto con la distribución normal, una serie de distribuciones no normales frecuentes en datos reales, y se analiza el ajuste según el grado de violación de la normalidad y del número de simulaciones realizadas. Los resultados muestran que ambos procedimientos de generación de datos tienen un comportamiento similar. A medida que aumenta el grado de contaminación de la distribución teórica hay que aumentar el número de simulaciones a realizar para asegurar un mayor ajuste a la generada. Los dos procedimientos son más precisos para generar distribuciones normales y no normales a partir de 7000 simulaciones aunque cuando el grado de contaminación es severo (con valores de asimetría y curtosis de 2 y 6, respectivamente), se recomienda aumentar el número de simulaciones a 15000. Palabras clave: Simulación; Monte Carlo; generadores de datos; datos no normales; número de simulaciones.Abstract: Simulation techniques must be able to generate the types of distributions most commonly encountered in real data, for example, nonnormal distributions. Two recognized procedures for generating nonnormal data are Fleishman's linear transformation method and the method proposed by Ramberg et al. that is based on generalization of the Tukey lambda distribution. This study compares these procedures in terms of the extent to which the distributions they generate fit their respective theoretical models, and it also examines the number of simulations needed to achieve this fit. To this end, the paper considers, in addition to the normal distribution, a series of non-normal distributions that are commonly found in real data, and then analyses fit according to the extent to which normality is violated and the number of simulations performed. The results show that the two data generation procedures behave similarly. As the degree of contamination of the theoretical distribution increases, so does the number of simulations required to ensure a good fit to the generated data. The two procedures generate more accurate normal and non-normal distributions when at least 7000 simulations are performed, although when the degree of contamination is severe (with values of skewness and kurtosis of 2 and 6, respectively) it is advisable to perform 15000 simulations.