(#416). LAS MAQUILAS EN LAS ZONAS FRANCAS DE EL SALVADOR

[DESPIERTA] Las maquilas de El Salvador continúan teniendo un trato fiscal favorable pese a las múltiples evidencias sobre explotación laboral. Según el reportaje realizado por la revista Gatoencerrado, un 20% de ellas siguen recibiendo los beneficios asociados a las zonas francas pese haber sido sancionadas entre 2016 y 2017 por vulnerar los derechos de los trabajadores.

El artículo 29 de Ley de Zona Francas (LEZOFIC) indica que las empresas que se acogen a esta norma deben de cumplir obligaciones laborales para tener derechos a las exenciones de impuesto, entre ellas están: derechos a asociación y sindicalización de los trabajadores; el respeto al salario mínimo, horas laborales, salud y seguridad ocupacional; pago de indemnización, vacaciones y aguinaldo, entre otras

Las zonas francas de exportación son unos lugares de privilegio dentro de un país donde las empresas afincadas allí se benefician de unos beneficios fiscales determinados. En el caso de El Salvador existen 17 zonas francas en las que las más de 100 maquilas allí establecidas están exentas del pago del impuesto sobre los Derechos Arancelarios a la Importación, impuesto de importación, impuesto municipal e impuesto sobre la renta. Además, como el reportaje indica, también se les beneficia con la exoneración de impuestos por importación o transferencia de bienes muebles y bienes raíces, los impuesto municipales sobre activuo y patrimonio, y el impuesto sobre el valor agregado (IVA).

Los testimonios sobre el maltrato que sufren los trabajadores de las maquilas, muestran que se sigue en una situación de precariedad, con una vulneración constante de los derechos laborales básicos. El siguiente vídeo es una muestra de ello:

Los incentivos fiscales en El Salvador, equivalen al 5% del PIB, es decir, tal como indica esta investigación, el país deja de percibir $1200 millones al año, un porcentaje que equivale al doble de lo que el país gasta en salud.

El Ministerio de Trabajo y Previsión Social (MTPS) sólo cuenta con 110 inspectores para todo el país, una cifra insuficiente para atender correctamente todas las demanda de inspecciones.

“El procedimiento para atender denuncia es: el inspector solicita la documentación (planillas de pago, contrato y otros); luego se entrevista a una muestra representativa de 20 personas, para posteriormente hacer su informe”, detalló.

No obstante, mujeres como Guadalupe señalan que los inspectores llegan a las maquilas, se reúnen en los salones de aire acondicionados con gerentes, jefes de recursos humanos y empleados adoctrinados, hacen sus informes de aprobación y se van, sin conocer a profundidad la realidad de los trabajadores.

En definitiva, una muestra más de la triste realidad de este sector, donde se da la paradoja además de que las empresas que tienen un trato fiscal privilegiado sujeto al cumplimiento de los derechos laborales, lo siguen manteniendo pese a que incumplen su parte del trato.

IR A LA FUENTE DE ESTA NOTICIA

Todos los posts relacionados




(#413). CÓMO COCA-COLA DEFIENDE SUS INTERESES EN CHINA

[REVISIÓN DE ARTÍCULO] En esta artículo publicado en BMJ, la autora expone algunas de las estrategias que Coca-Cola está siguiendo en China para promocionar su marca, fomentando el consumo de este tipo de bebidas y presionando para que no se tomen medidas que ya en otros países están siendo implementadas para reducir el consumo de azúcar.

En 1991 el procentaje de adultos que tenía sobrepeso o era obeso en China era de 20.5%; en 2011 era de 42.3%.

La autora, destaca varias de esas acciones, que no son más que una mera reproducción de lo que la industria de bebidas azucardas ha realizado en Estados Unidos y el resto de países del norte global durante las últimas décadas:

1. Injerencia del International Life Sciences Institute (ILSI) en la política de salud china. El ILSI, creado en 1978 por un ejecutivo de Coca-Cola, se encarga de “manejar” la ciencia de la nutrición al servicio de los intereses de la industria. Este lobby  está integrado en el Centro de Prevención y Control de Enfermedades (CDC) chino, por lo que su nivel de influencia en las políticas públicas es enorme. De este modo, compañías como Nestlé, McDonald’s, PepsiCo o Coca-Cola (entre otras) tienen una posición privilegiada para influir en la toma de decisiones públicas.

2. Una vez establecido dentro del entramado guvernamenal chino, a comienzos de la década de 2000 Coca-Cola retomó en el país una de las grandes bazas de la industria para defenderse: esas marcas  (Coca-Cola, PepsiCo, etc.) promueven un estilo de vida saludable, porque para llevar esa vida saludable hay que comer y beber de todo, y la clave está en hacer ejercicio físico. De este modo, se envía el mensaje de que: (1) las marcas se preocupan por la salud de los ciudadanos; (2) todos los alimentos se equiparan como pertinentes dentro de la dieta, comer y beber de todo significa igualar por ejemplo, el agua a la Coca-Cola. Es más, las bebidas azucaradas son buenas porque están compuestas principalmente de agua, con lo que hidratan oportunamente; (3) si la gente engorda es porque no se mueve lo suficiente, no porque no lleve una alimentación adecuada.

3. Dentro de las actividades de “educación” están la organización de conferencias. Entre 2004 y 2015, ILSI-China organizó 6 eventos internacionales sobre obesidad. Se elegieron invitados (ej. Steve N. Blair) cuya perspectiva sobre la prevención de la obesidad estaba basada principalmente en el equilibiro energético (calorías gastadas vs calorías ingeridas), independientemente de la calidad nutricional de los alimentos. Además, se esponsorizaron numerosos congresos y actividades centradas en la actividad física como clave en la lucha contra la obesidad.

Un ejemplo de este modus operandi es la financiación por parte de ILSI al CDC del programa “Happy 10 minutes”, una campaña nacional que pretende incentivar la introducción de descansos de 10 minutos en la jornada escolar donde en ese corto espacio de tiempo se debe practicar ejercicio. ILSI transfirió $50000 al CDC. De este modo, la industria financiaba una campaña pública que además enviaba un mensaje que se centraba en el ejercicio físico y no en la dieta o en una combinación de ambos.

Un esquema gráfico de buena parte de lo expuesto por la autora es el siguiente:

Comentarios

La autora termina el artículo exponiendo que para algunos de los investigadores y personas implicadas en este estudio, la intervención de la industria es inevitable y hasta cierto punto positiva para que se financie la investigación. Para otros, sin embargo, supone una compra de voluntades políticas y una manipulación del mensaje a la población.

Nosotros, aquí en España, ya hemos explicado que tenemos un ejemplo con ciertas similitudes, y ese plan HAVISA promovido conjuntamente por el Ministerio y la industria (Fundación Alimentum).

Este tipo de empresas explota hacia la extenuación una parte del discurso, y empequeñece el resto, sesgando la percepción de realidad de gran parte de la población. No es el azúcar, no son las calorías vacías, es que no te mueves lo suficiente, como bien decía Coca-Cola en México.

Por eso se necesita mayor y mejor regulación, y una independencia total de los poderes públicos con respecto a la industria. Ese es el primer paso, pero es fundamental. Desafortunadamente es menos probable que las empresas dejen de financiar investigaciones e investigadores que les sean leales, o participar en parte de los presupuestos de asociaciones de enfermos y sociedades médicas. Sin embargo, si existe esa independencia, a través de políticas públicas (educación y regulación) se puede luchar en pos del interés común.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Greenhalgh, S. (2019). Making China safe for Coke: how Coca-Cola shapedobesity science and policy in China. BMJ, doi: doi: 10.1136/bmj.k5050.

Indicadores de calidad de la revista*

  Impact Factor (2017) Cuartil Categoría
Thomson-Reuters (JCR) 23.295 Q1 MEDICINE
Scimago (SJR) 2.893 Q1 MEDICINE (MISCELLANEOUS)

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados

Limitaciones/Comentarios

Globalmente se muestra un patrón claro de reducción del consumo, pero es importante que la magnitud del impuesto sobre la producción se traduzca en un significativo incremento del precio de venta. Como ocurre con otros productos, como el tabaco, las medidas impositivas son efectivas per se, pero deben ser complementadas con estrategias de comunicación para educar a la población, aunque esos resultados siempre deban evaluarse en el largo plazo.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Greenhalgh, S. (2019). Making China safe for Coke: how Coca-Cola shapedobesity science and policy in China. BMJ, doi: doi: 10.1136/bmj.k5050.

Indicadores de calidad de la revista*

Impact Factor (2017) Cuartil Categoría
Thomson-Reuters (JCR) 23.295 Q1 MEDICINE
Scimago (SJR) 2.893 Q1 MEDICINE (MISCELLANEOUS)

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#411). LOS ROOKIES MÁS PRODUCTIVOS DE LA NBA 2018/19

[MONOTEMA] Una vez finalizada la temporada regular en la NBA, ya estamos en condiciones de conocer quiénes han sido los rookies más productivos de este curso 2018/19.

En el avance que mostrábamos hace unas semanas, veníamos que Ayton, Robinson y Bagley eran los que mayor contribución por minuto estaban teniendo.

La productividad por partido ha sido medida por el  índice PTC (Player Total Contribution), cuya génesis justifico en este artículo. El PTC se calcula de la siguiente manera:

PTC = 1 Puntos +.91 Tapones realizados + 58 Rebotes defensivos + .92 Rebotes ofensivos + .86 Balones robados + .48 Asistencias + .23 Faltas provocadas – 0.86 Balones perdidos  – .91 Tiros de campo fallados  – .57 Tiros libres fallados – .23 Faltas cometidas

Productividad por partido

En la siguiente tabla se muestran los valores de PTC por partido, para aquellos rookies que han jugado más de 1/3 de la temporada (al menos 28 partidos).

Se especifica también el índice Win Score, creado por David Berri, igualmente calculado por partido.

Como se puede apreciar, Ayton y Doncic son los jugadores más destacados.

Productividad por partido (PTC/G), temporada regular NBA 2018/19: ROOKIES


Rk Players Age Tm PTC/G WinScore/G G FG FGA FT FTA ORB DRB AST STL BLK TOV PF FD PTS
1 Deandre Ayton 20 PHX 19.216 11.972 71 509 870 141 189 223 506 125 61 67 126 209 198 1159
2 Luka Doncic 20 DAL 18.439 9.014 72 506 1186 346 485 86 477 429 77 25 247 137 404 1526
3 Trae Young 20 ATL 15.194 5.123 81 525 1256 343 414 64 237 653 72 15 308 140 431 1549
4 Marvin Bagley III 20 SAC 15.13 7.944 62 356 706 181 262 162 309 62 33 59 98 120 224 923
5 Jaren Jackson Jr. 19 MEM 12.963 5.164 58 298 589 151 197 73 199 64 52 82 98 220 205 798
6 Mitchell Robinson 21 NYK 12.636 8.439 66 202 291 81 135 177 246 37 52 161 35 217 114 485
7 Wendell Carter Jr. 19 CHI 11.865 6.545 44 180 371 89 112 87 220 78 26 58 65 152 107 455
8 Collin Sexton 20 CLE 10.925 2 82 519 1206 214 255 57 179 243 44 6 185 186 257 1371
9 Shai Gilgeous-Alexander 20 LAC 9.908 4.055 82 341 716 156 195 57 175 270 96 45 141 175 180 889
10 Mikal Bridges 22 PHX 8.503 4.756 82 242 563 95 118 56 208 173 129 38 70 201 105 684
11 Allonzo Trier 23 NYK 8.494 2.852 64 232 518 179 223 31 166 119 28 14 116 117 182 695
12 Kevin Knox 19 NYK 8.231 2.207 75 338 914 162 226 61 274 82 43 24 114 175 174 963
13 Kevin Huerter 20 ATL 7.985 3.8 75 275 657 41 56 60 185 214 65 25 109 155 59 727
14 Miles Bridges 21 CHA 7.877 4.9 80 237 511 58 77 67 256 95 55 49 50 111 62 597
15 Jalen Brunson 22 DAL 7.796 3.075 73 264 565 87 120 25 144 230 37 4 88 127 158 678
16 Mo Bamba 20 ORL 7.694 4.702 47 117 243 37 63 64 169 39 13 64 43 102 63 292
17 Rodions Kurucs 21 BKN 7.283 3.405 63 202 449 72 92 56 190 52 41 25 77 146 70 534
18 Landry Shamet 22 LAC 6.961 2.918 79 240 557 75 93 21 113 117 37 10 45 155 83 722
19 Kenrich Williams 24 NOP 6.921 4.826 46 107 279 13 19 55 164 83 45 19 36 95 46 279
20 Harry Giles III 20 SAC 6.826 2.983 58 175 348 58 91 66 156 85 31 22 73 150 99 408
21 Josh Okogie 20 MIN 6.711 2.743 74 196 508 118 162 41 177 91 88 33 63 166 166 570
22 Omari Spellman 21 ATL 6.588 4.283 46 98 244 32 45 72 122 47 26 25 31 67 38 272
23 Jonah Bolden 23 PHI 5.829 3.807 44 80 162 13 27 47 118 40 17 39 36 99 21 207
24 Chandler Hutchison 22 CHI 5.739 3.966 44 96 209 23 38 31 154 34 23 6 25 59 46 229
25 Frank Jackson 20 NOP 5.723 1.836 61 194 447 54 73 25 109 69 25 2 48 92 65 495
26 De'Anthony Melton 20 PHX 5.336 2.83 50 100 256 21 28 25 109 159 68 23 75 113 49 250
27 Keita Bates-Diop 23 MIN 4.861 2.767 30 60 142 18 28 16 67 17 18 14 14 29 17 151
28 Robert Williams III 21 BOS 4.796 3.375 32 36 51 9 15 27 54 7 9 40 10 36 12 81
29 Troy Brown Jr. 19 WAS 4.664 2.712 52 97 234 32 47 35 110 80 21 5 30 56 41 248
30 Aaron Holiday 22 IND 4.421 1.4 50 105 262 41 50 5 62 87 21 13 40 70 58 294
31 Elie Okobo 21 PHX 4.144 1.208 53 114 290 37 47 12 86 127 32 7 69 109 44 304
32 Bruce Brown 22 DET 4.123 1.736 74 125 314 45 60 48 137 91 40 36 46 178 55 319
33 Devonte' Graham 24 CHA 3.822 1.554 46 74 216 35 46 10 53 121 23 2 30 48 50 217
34 Moritz Wagner 21 LAL 3.727 1.314 43 71 171 43 53 17 68 24 11 13 39 57 38 207
35 Brad Wanamaker 29 BOS 3.684 1.861 36 50 105 24 28 3 38 56 12 2 19 34 23 140
36 Hamidou Diallo 20 OKC 3.406 1.284 51 75 165 36 59 38 59 17 21 10 23 77 51 190
37 Ryan Broekhoff 28 DAL 3.402 1.905 42 57 126 15 19 8 55 22 6 4 16 35 18 167
38 Gary Clark 24 HOU 3.301 2.373 51 50 151 7 7 24 92 18 20 26 7 47 18 148
39 Jevon Carter 23 MEM 3.208 1.09 39 56 185 26 32 14 52 69 26 11 33 55 28 172
40 Isaiah Briscoe 22 ORL 3.128 1.295 39 55 138 15 26 5 69 87 11 2 31 66 52 136
41 Grayson Allen 23 UTA 2.896 -.237 38 67 178 45 60 3 20 25 6 6 33 47 47 211
42 Jaylen Adams 22 ATL 2.83 1.529 34 38 110 7 9 11 49 65 14 5 28 45 13 108
43 Isaiah Hartenstein 20 HOU 2.496 1.125 28 20 41 11 14 21 26 15 7 12 13 56 14 53
44 Jerome Robinson 22 LAC 2.344 .742 33 44 110 6 9 3 38 19 11 3 13 46 12 112
45 Svi Mykhailiuk 21 DET 1.86 .44 42 46 140 12 20 9 27 37 14 1 21 25 19 133
46 Deonte Burton 25 OKC 1.836 .375 32 33 82 8 12 4 24 9 6 8 9 31 18 82
47 Chimezie Metu 22 SAS 1.269 .414 29 19 58 13 17 9 27 13 6 2 15 14 11 51
48 Jacob Evans 21 GSW .915 .15 30 18 53 0 1 6 19 23 5 3 11 28 5 40

Productividad por minuto

En la siguiente tabla se muestran los valores de PTC por minuto, para aquellos rookies que han jugado más de 500 minutos de la temporada.

Se especifica, además del Win Score por minuto, también el índice PER (Player Efficency Rating), creado por John Hollinger.

Productividad por minuto (PTC/MP), temporada regular NBA 2018/19: ROOKIES


Rk Players Tm PTC/MP PER Winscore/MP MP G
1 Deandre Ayton PHX .625 20.54 .3894 2183 71
2 Mitchell Robinson NYK .6132 22.01 .4096 1360 66
3 Marvin Bagley III SAC .5986 18.93 .3143 1567 62
4 Luka Doncic DAL .5727 19.64 .28 2318 72
5 Jaren Jackson Jr. MEM .4963 16.43 .1977 1515 58
6 Trae Young ATL .4917 17.03 .1658 2503 81
7 Harry Giles III SAC .4828 14.42 .211 820 58
8 Mo Bamba ORL .4721 14.92 .2885 766 47
9 Wendell Carter Jr. CHI .4703 15.28 .2595 1110 44
10 Jonah Bolden PHI .4014 12.75 .2621 639 44
11 Omari Spellman ATL .3765 12.42 .2447 805 46
12 Shai Gilgeous-Alexander LAC .3737 13.45 .1529 2174 82
13 Allonzo Trier NYK .3726 12.19 .1251 1459 64
14 Miles Bridges CHA .3716 13.13 .2311 1696 80
15 Jalen Brunson DAL .3577 12.8 .1411 1591 73
16 Rodions Kurucs BKN .3546 11.01 .1658 1294 63
17 Collin Sexton CLE .3439 12.1 .063 2605 82
18 Aaron Holiday IND .3422 11.99 .1084 646 50
19 Troy Brown Jr. WAS .3322 11.13 .1932 730 52
20 Hamidou Diallo OKC .3303 10.17 .1245 526 51
21 Landry Shamet LAC .3052 10.99 .1279 1802 79
22 Frank Jackson NOP .2986 9.42 .0958 1169 61
23 Kenrich Williams NOP .2951 9.7 .2057 1079 46
24 Kevin Huerter ATL .2923 10.15 .1391 2049 75
25 Keita Bates-Diop MIN .2899 9.66 .165 503 30
26 Mikal Bridges PHX .2885 10.78 .1614 2417 82
27 Kevin Knox NYK .2861 8.73 .0767 2158 75
28 Josh Okogie MIN .2826 9.38 .1155 1757 74
29 Chandler Hutchison CHI .2822 8.83 .195 895 44
30 De'Anthony Melton PHX .2711 9.94 .1438 984 50
31 Gary Clark HOU .2626 9.17 .1888 641 51
32 Devonte' Graham CHA .26 10.32 .1058 676 46
33 Elie Okobo PHX .2292 7.65 .0668 958 53
34 Isaiah Briscoe ORL .2182 6.74 .0903 559 39
35 Jevon Carter MEM .2169 7.86 .0737 577 39
36 Bruce Brown DET .2105 6.97 .0887 1449 74

De nuevo Ayton se muestra como el más productivo, junto a Robinson y Bagley III. Tanto el jugador de los Knicks como el de los Kings han mostrado un gran rendimiento, pese a no ser tan mediáticos.

Mitchell Robinson sólo ha jugado 20.6 minutos por partido. Si hubiera llegado a la banda de los 30 minutos, como Doncic, Ayton o Young, probablemente su productividad por partido estaría a nivel cuanto menos equivalente al de las tres primeras elecciones del draft.

Comparación entre jugadores

Ya hemos justificado sobradamente en otros posts la necesidad de considerar la incertidumbre en las estimaciones de los valores medios de las variables de rendimiento.

Esto nos permite comparar a los jugadores usando los intervalos de confianza de las estimaciones, y así tener un criterio para ver si realmente su rendimiento ha sido diferente o no.

He elaborado un programa en Maxima para calcular esos intervalos de confianza basados en el desarrollo en serie de Taylor de la función que se pretenda analizar, ya sea de productividad por partido o productividad por minuto. En los próximos días pondré a la luz pública ese código para que cualquier analista lo pueda emplear.

Comencemos para el caso de la productividad por partido:


Players Age Tm PTC/G 95%IC- 95%IC+ Error relativo
Deandre Ayton 20 PHX 19.216 18.452 19.949 .03819
Luka Doncic 20 DAL 18.439 17.804 19.074 .03445
Trae Young 20 ATL 15.194 14.979 15.409 .01416
Marvin Bagley III 20 SAC 15.13 14.169 16.091 .06351
Mitchell Robinson 21 NYK 12.636 11.799 13.472 .06621

Vemos que los intervalos de confianza al 95% de Ayton y Doncic se solapan con claridad. De este modo, su rendimiento por minuto es equivalente estadísticamente. Ambos compartirían el primer puesto del ranking.  Young y Bagley III, por su parte, empatarían en el tercer puesto de ese ranking por debajo de Ayton y Doncic.

En cuanto a productividad por minuto:


Players Age Tm PTC/MP 95%IC- 95%IC+ Error relativo
Deandre Ayton 20 PHX .625 .604 .646 .0337
Mitchell Robinson 20 DAL .6132 .586 .64 .0442
Marvin Bagley III 20 ATL .5986 .57 .627 .0471
Luka Doncic 20 SAC .5727 .5549 .5906 .03112
Trae Young 21 NYK .4917 .486 .498 .0123

Ayton volvería a liderar el ranking, empatado esta vez con Robinson y Bagley III. Doncic estaría por debajo de Ayton y Young por debajo de Doncic.

Es cierto que tenemos un pequeño inconveniente con los errores relativos de Robinsons y Bagley III, que son un pelín elevados, pero creo que todavía son "asumibles" en el límite de lo que podríamos considerar como una estimación fiable (están por debajo del 5%). Recordemos que a medida que el error relativo se incrementa la estimación se hace más imprecisa y, por ende, más inútil.

¿Quién ha sido el rookie del año?

Nuestros análisis no nos dicen nada acerca de la importancia de cada acción en función de su contribución a la probabilidad de victoria (estamos trabajando en ello ahora mismo), y esa es una limitación, al margen de que un box-score no recoge intangibles ni toda la varianza explicada del margen de victoria (aunque mi índice de productividad sí que supera el 80%).

Teniendo en cuenta estas limitaciones, parece claro que Ayton y Doncic han sido los más productivos, con una ligera ventaja hacia el primero (ya que ambos están igualados en productividad por partido, pero el de los Suns supera al de los Mavs en productividad por minuto).

Trae Young, sin embargo, y pese a arreón final y algunos partidos memorables, no ha llegado al nivel de contribución de Ayton y Doncic. Asimismo, tanto Robinson como BagleIy III han estado a un gran nivel, y su rendimiento por minuto ha sido superior al de Doncic y Young, y equivalente al de Ayton. Habría que preguntarle a sus respectivos entrenadores la razón por la cual han jugado significativamente menos que los 3 rookies más mediáticos, porque, de haberlo hecho más, quizá habrían llegado al mismo rendimiento por partido.

Conclusión

A través de la realización de una aproximación estadística, hemos analizado la productividad de los mejores rookies de la temporada regular de la NBA. Probablemente Doncic gane el galardón al mejor jugador novato, pero lo cierto es que Ayton tiene unos números ligeramente superiores.

Pese a que las canastas imposibles, los triples o las asistencias son muy vistosas, el baloncesto castiga fuertemente los fallos en el tiro y las pérdidas de balón. Ambas variables han sido un pequeño lastre para Doncic y Young, por lo que habrán de mejorar en próximas temporadas.

Próximamente pondré a la vista los detalles de todos los cálculos, con el fin de que otros investigadores y analistas lo puedan emplear si lo estiman oportuno.

Todos los posts relacionados




(#407). AVANCE DE LOS NOVATOS MÁS PRODUCTIVOS DE LA NBA 2018/19

[MONOTEMA] (Actualizado 04/04/19). Estoy trabajando en la creación de un nuevo índice para medir la productividad de jugadores de baloncesto desde las simples variables del box-score. Ese índice se basa en un estudio previo publicado en 2012, sobre factores de productividad.

Todavía no puedo dar más detalles de la construcción y teoría que hay detrás de este índice, llamado PTC (Player Total Contribution), pero lo iré haciendo en las próximas semanas a la espera de la evolución de la revisión ciega por pares del artículo donde se justifica su propuesta.

Echándole un vistazo al listado que hay debajo ya se puede tener una idea de por dónde van los tiros, pero dejemos un tiempo para su completa explicación.

Mientras tanto, iré actualizando durante los pocos días que quedan para que acabe la temporada regular de la NBA el ranking the rookies. Luka Doncic debe espabilar, perder menos balones y lanzar mejor, si no quiere que Deandre Ayton y Mitchell Robinson queden por encima. Por cierto, Trae Young tampoco anda como algunos esperarían en este ranking, también pierde demasiados balones, lo que es un verdadero lastre para cualquier jugador.

Es cierto que este tipo de métricas son estáticas y no tienen en cuenta la dinámica del partido, pero estamos trabajando en la propuesta de una alternativa de cómputo basada en el cambio en la probabilidad de victoria, que corregirá cada peso de las variables del box-score en función del momento del partido en que se realizar. De nuevo, tendremos que esperar.

Por el momento, os dejo el ranking de rookies según el PTC/min, que es simplemente una medida de la productividad por minuto jugado (con un mínimo de 500 minutos jugados en la temporada).

RK PLAYER AGE TEAM PTC/min MP G FGM FGA FTM FTA ORB DRB AST STL BLK TOV PF FD PTS
PTC developed by Jose A. Martínez. Raw statistics from www.nba.com and www.basketball-reference.com
1 Deandre Ayton 20 PHO 0,625 2183 71 509 870 141 189 223 506 125 61 67 126 209 198 1159
2 Mitchell Robinson 20 NYK 0,620 1237 62 185 268 73 124 167 217 36 50 152 32 201 105 443
3 Marvin Bagley 19 SAC 0,605 1455 58 329 641 172 247 150 278 59 32 57 91 114 209 856
4 Luka Doncic 19 DAL 0,568 2286 71 500 1172 339 477 83 464 418 74 25 243 136 398 1505
5 Jaren Jackson 19 MEM 0,496 1515 58 298 589 151 197 73 199 64 52 82 98 220 205 798
6 Trae Young 20 ATL 0,487 2442 79 511 1221 328 396 60 229 636 67 15 300 138 414 1504
7 Harry Giles 20 SAC 0,483 820 58 175 348 58 91 66 156 85 31 22 73 150 99 408
8 Mohamed Bamba 20 ORL 0,472 766 47 117 243 37 63 64 169 39 13 64 43 102 63 292
9 Wendell Carter 19 CHI 0,470 1110 44 180 371 89 112 87 220 78 26 58 65 152 107 455
10 Jonah Bolden 23 PHI 0,415 581 41 74 147 13 27 46 108 37 17 38 35 93 21 190
11 Omari Spellman 21 ATL 0,376 805 46 98 244 32 45 72 122 47 26 25 31 67 38 272
12 Allonzo Trier 23 NYK 0,373 1459 64 232 518 179 223 31 166 119 28 14 116 117 182 695
13 Shai Gilgeous-Alexander 20 LAC 0,371 2084 79 323 681 152 190 55 166 258 92 44 139 168 173 849
14 Miles Bridges 20 CHO 0,360 1562 76 216 473 53 71 61 241 78 51 42 48 110 58 544
15 Jalen Brunson 22 DAL 0,359 1508 70 252 536 80 110 25 135 208 36 4 83 120 146 646
16 Rodions Kurucs 20 BRK 0,358 1226 60 191 410 68 87 49 176 47 39 25 75 141 67 504
17 Aaron Holiday 22 IND 0,351 576 47 94 236 38 45 4 59 77 19 13 34 61 51 264
18 Collin Sexton 20 CLE 0,343 2457 78 487 1139 207 246 57 176 222 40 6 173 179 246 1291
19 Troy Brown 19 WAS 0,334 641 49 84 203 30 45 32 97 70 20 4 27 51 38 217
20 Hamidou Diallo 20 OKC 0,329 525 50 75 165 36 59 38 59 17 20 10 23 77 51 190
21 Landry Shamet 21 TOT 0,305 1724 76 230 534 72 87 20 106 108 37 9 41 149 79 691
22 Frank Jackson 20 NOP 0,299 1169 61 194 447 54 73 25 109 69 25 2 48 92 65 495
23 Mikal Bridges 22 PHO 0,288 2294 79 229 533 86 108 54 199 167 125 37 70 196 100 646
24 Kevin Huerter 20 ATL 0,288 1993 73 265 639 41 56 58 178 205 64 24 105 148 58 701
25 Kevin Knox 19 NYK 0,286 2032 71 320 858 149 203 58 248 74 42 23 108 170 157 908
26 Josh Okogie 20 MIN 0,286 1664 70 190 489 114 157 41 174 84 79 30 63 157 155 553
27 Kenrich Williams 24 NOP 0,286 978 43 96 254 11 17 50 153 68 40 15 33 88 42 250
28 Chandler Hutchison 22 CHI 0,282 895 44 96 209 23 38 31 154 34 23 6 25 59 46 229
29 Devonte’ Graham 23 CHO 0,270 609 42 68 195 33 44 8 46 113 22 2 27 46 45 201
30 De’Anthony Melton 20 PHO 0,261 915 47 90 237 16 22 21 101 150 64 23 68 108 41 224
31 Gary Clark 24 HOU 0,256 620 49 47 143 7 7 21 89 18 19 26 7 45 18 139
32 Elie Okobo 21 PHO 0,219 883 50 103 267 33 43 11 82 117 28 7 64 104 40 274
33 Isaiah Briscoe 22 ORL 0,218 559 39 55 138 15 26 5 69 87 11 2 31 66 52 136
34 Bruce Brown 22 DET 0,199 1361 70 116 299 38 53 43 129 85 35 35 45 168 51 294
Player Total Contribution per minute (PTC/min) for the 2018/19 NBA regular season: ROOKIES / April,4,2019


Seguiremos acutalizando este post con nuevos datos hasta obtener los resultados finales de la temporada regular.

Cómo citar este artículo: Martínez, J. A. (2019, abril 4). Los rookies más productivos de la NBA 2018/19. Descargado desde www.cienciasinmiedo.es/b407

Todos los posts relacionados




(#405). EFECTO MODESTO DE SENSIBILIZACIÓN A UNA SECUENCIA DE PROMOCIONES DE DESCUENTO

[REVISIÓN DE ARTÍCULO] En este estudio publicado en  Quantitative Marketing and Economics, los autores profundizan analizan el efecto del valor de diferentes descuentos en promociones en supermercados sobre la compra posterior de otros productos.

La literatura ha mostrado que pueden ocurrir dos alternativas contrapuestas: (1) el consumidor se vuelve “adicto” a la promoción, por lo que el proveedor debe seguir realizando promociones atractivas para que el cliente continúe comprando; (2) el consumidor se “sensibiliza” con la promoción por lo que después el proveedor puede disminuir el valor del descuento en posteriores promociones y, pese a ello, conseguir fidelizar al cliente.

El objetivo de esta investigación es, por tanto, analizar cuál de esos dos posibles efectos prevalece sobre el otro.

Metodología

Los autores contaron con la colaboración de un importante distribuidor en Chile que les permitió realizar un gran experimento de campo, en el que se variaron los precios de 170 productos (de 17 categorías diferentes) en 10 supermercados.

En la primera fase del estudio, un conjunto de productos se promocionó con un 30% de descuento en 5 de esos supermercados (grupo experimental), mientras que esos mismos productos se promocionaron con un 10% de descuentos en los otros 5 establecimientos (grupo de control).

En la segunda fase del experimento, todos esos productos se promocionaron con un 10% de descuento en los 10 supermercados. De este modo, se pretendía analizar si el patrón de compra de los consumidores difería en esta segunda fase en función de la exposición al grupo experimental de la primera. Cada producto estuvo en promoción durante una semana, y las compras fueron seguidas a través del control de las tarjetas de fidelización del supermercado.

Los autores modelaron el comportamiento de compra individual, controlando por diferentes variables sociodemográficas (asociadas a la información de la tarjeta de fidelización) y también por el comportamiento  de compra histórico en el supermercado.

Resultados e implicaciones

Los resultados mostraron que los consumidores del grupo experimental no sólo compraron más productos (algo esperable porque la promoción era más intensa) sino que luego lo hicieron también en la segunda fase del experimento, es decir, cuando la promoción era idéntica en todos los supermercados. Ese incremento fue de sólo 3.6 puntos percentuales (la probabilidad de compra en la segunda fase se incrementó un 3.6% para el grupo experimental de la primera fase).

Por tanto, existe un efecto aunque débil (relativamente modesto, según los autores). No osbtante, cuando los autores escogieron una submuestra más homogénea en las variables de control, esa probabilidad aumentaba.

Limitaciones/Comentarios

Los efectos son modestos, pero indican una especie de efecto de arrastre que puede justificar el uso de este tipo de secuencia promocional (altos descuentos seguidos de descuentos más ligeros). Sin embargo, no se dice nada sobre la rentabilidad económica de esta estrategia, es decir, si los márgenes obtenidos por esa ganancia modesta de ventas compensa el margen perdido al incrementar el tamaño del descuento en la primera fase del experimento.  Este análisis se antoja fundamental para valorar el éxito de esta estrategia.

En cualquier caso, y como reconocen los autores, si todos los distribuidores emplearan este procedimiento  se podría entrar en una guerra de precios que no les beneficiaría. En mi opinión, no creo que el modesto tamaño de efecto encontrado justifique una clara recomendación de emplear estas estrategias.

Además, hay que considerar que las promociones en los productos seleccionados no fueron exactamente un 10 y un 30% tal y como estaban inicialmente diseñadas, sino que variaron ligeramente en torno a esos valores, aunque no de manera homogénea.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Elberg, et al. (2018). Dynamic effects of price promotions: field evidence, consumer search, and supply-side implications. Quantitative Marketing and Economics, doi 10.1007/s11129-018-9205-5

Indicadores de calidad de la revista*

  Impact Factor (2017) Cuartil Categoría
Thomson-Reuters (JCR) 1.000 Q3 BUSINESS
Scimago (SJR) 6.239 Q1 MARKETING

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados

 




(#402). RECLAMOS PARA MEJORAR EL SISTEMA DE VENTA FREEMIUM

[REVISIÓN DE ARTÍCULO] En este estudio publicado en el Journal of Marketing, los autores profundizan en un tipo de estrategia de venta consistente en ofrecer un producto gratuito y luego una versión de más valor de pago; el llamado sistema freemium.

Un ejemplo de este sistema es el servicio que ofrece Dropbox: 2 GB de almacenaje gratuito, que pueden ampliarse a 1 TB pagando una suscripción mensual de $9.99, o por un pago anual de $99. Según datos de 2018, este método ha permitido a Dropbox obtener 11 millones de clientes de pago, entre los más de 500 millones registrados en 2017.

Como indican los autores, esta forma de venta es una buena forma de atraer consumidores potenciales que luego pueden ser captados a productos de pago de manera más sencilla, al conocer el producto y testar las características de su proveeder (servicio, confianza, calidad, etc.).

Los consumidores tienden a sobrevalorar el producto gratuito (efecto de precio-cero) y toman como punto de ancla el precio de la versión premium como una forma de “ganancia” al decidirse por la opción sin coste. Este es un problema para las empresas que quieren obtener rendimientos empleando este método de venta.

El objetivo de esta investigación es analizar el efecto de la extensión de la línea premium para espolear la demanda de los productos premium actuales.

Según la revisión de la literatura que hacen los autores, los efectos esperados sobre el beneficio global cuando se lanza una nueva línea de mayor calidad y precio es mayor que cuando esa nueva alternativa es de calidad y precio más bajo que la actual premium.

Metodología

Los autores estudiaron el caso de la editorial  National Academies Press (NAP), donde se pasó de vender libros en pdf por internet a  un modelo freemium, en el que los pdf se ofrecían gratis, mientras que una verisón impresa se podía comprar por un pago premium.

Esta estrategia les derivó a una péridida de ingresos por ventas, por lo que decidieron ofrecer también una versión e-book (de pago) y luego otra de mayor calidad en papel con tapas duras.

Los autores seleccionaron aleatoriamente 2501 títulos de libro de NAP. Cuando el nuevo formato de venta comenzó, también lo hizo el experimento de campo, que duró 32 semanas (hasta agosto de 2016), y que consistía en tener un grupo de control con el método de venta anterior, y dos grupos experimentales en el que se ofrecía además la opcíón de comprar un e-book o un libro de tapa dura. Los autores también recogieron datos de las 32 semanas previas al inicio del experimento, es decir, de 64 semanas en total.

Los autores crearon los bloques dividiendo la distribución de precios y popularidad en cuartiles, empleando el primero y el último para los niveles bajo y medio, respectivamente.

Los precios del e-book variaban entre un 25% y un 80% con respecto a la versión impresa, mientras que los de la versión en tapa dura lo hacían entre un 160% y un 790%.

Resultados e implicaciones

Los autores implementaron un modelo estadístico de diferencias en diferencias que consideraba también diversas variables de control, como el número de páginas de los libros, el año del copyright o los emails de promoción enviados.

Los resultados mostraron un incremento de las ventas de los libros de la versión premium al introducir tanto la opción de tapa dura como la del e-book, como muestra la tabla siguiente:

En promedio, se vendieron 1.156 ejemplares más por cada título en el grupo experimental de la tapa dura, y 2.582 en el grupo experimental del e-book. No sólo las ventas de la versión en papel se incrementaron, sino también los ingresos globales.

Limitaciones/Comentarios

Esta ambiciosa investigación ha mostrado en un entorno real y de manera robusta que la introducción de nuevas versiones premium incrementa las ventas de la versión premium original.

Aunque los autores discuten diferentes explicaciones sobre el mecanismo subyacente, curiosamente dejan de lado el efecto reclamo, o cómo la introducción de una tercera alternativa cambio el patrón de respuesta de compra de las dos originales. En este caso, tanto el e-book como el ejemplar de tapa dura son reclamos que se comparan con el producto premium, pero lo hacen de manera diferente.

El e-book es un reclamo que puede ser valorado como de calidad menor a un precio menor, mientras que el ejemplar de tapa dura es un reclamo de mayor calidad a un precio mayor. Cuando la empresa prone precios al e-book cercanos al precio del producto premium es cuando se produce una mayor probabilidad de trasvase de elección al producto premium. Esto es lógico ya que el consumidor ve entonces una ganancia relativa de conseguir el producto premium, al acercarse ambos precios.

En el caso de los ejemplares de tapa dura, también se muestra que cuando el precio se aleja del premium el trasvase de elección y los ingresos aumentan (aunque el patrón es menos claro), pero sí que con precios de alrededor del 400% del premium se maximizan los ingresos.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Gu, X. et al. (2018). Selling the Premium in Freemium . Journal of Marketing, doi 10.1177/0022242918807170

Indicadores de calidad de la revista*

  Impact Factor (2017) Cuartil Categoría
Thomson-Reuters (JCR) 7.338 Q1 BUSINESS
Scimago (SJR) 8.616 Q1 MARKETING

* Es simplemente un indicador aproximado para valorar la calidad de la publicación

Todos los posts relacionados




(#399). MÚSICA CON VOLUMEN BAJO PARA INCENTIVAR EL CONSUMO DE PRODUCTOS SALUDABLES

[REVISIÓN DE ARTÍCULO] En este artículo publicado en el Journal of the Academy of Marketing Science, los autores estudian el efecto de diferentes condiciones ambientales relativas a la música y el ruido sobre el consumo de productos saludables.

La música y el sonido ambiente son características de un establecimiento comercial que pueden ser gestionadas por la influencia que tienen sobre el comportamiento de compra. Como indican los autores, hay establecimientos con sonidos excesivamente altos (un 33% de restaurantes/tiendas en Nueva York tienen un nivel de sonido tan alto que los trabajadores deben llevar protecciones en los oídos), pero también otros donde se cuidan los niveles de sonido para que sean más bajos.

Entre las marcas que deliberadamente permiten sonidos altos está Abercrombie & Fitch, cuyos establecimientos tienen sonidos entre los 85 y 90 dB, en el límite justo de lo que la ley permite sin llevar protección (un cortacésped, por ejemplo, produce 90 dB). Según los autores, esa estrategia se concibe para alejar a los consumidores más veteranos de las tiendas, y atraer al público más joven.

El objetivo de esta investigación es analizar la posible influencia de la gestión de la intensidad de la música y el sonido ambiente sobre la elección de comida saludable (vs no saludable) en restaurantes y establecimientos de alimentación.

Los autores muestran una interesante relación de estudios realizados desde 2006 sobre el efecto de la música ambiente sobre diferentes variables de interés en marketing:

En esta extensa revisión se pueden apreciar los efectos beneficios de gestionar adecuadamente la música. En cuanto al volumen, tal y como indican los autores, su efecto es congruente con la intuición de que la alta intensidad se relaciona con la excitación, el estrés y el arousal, mientras que la baja intensidad se asocia con la relajación.

Metodología y resultados

Los autores realizaron 2 experimentos de campo (café y supermercado) y 5 en laboratorio, con el objetivo de analizar el efecto del volumen de la música en diferentes variables de interés para los investigadores.

Los resultados mostraron que el volumen de la música influye en los latidos del corazón, ya que a mayor intensidad el número de latidos se incrementaba. La relajación inducida por la música a bajo volumen es la razón que plantean los autores para explicar que los consumidores prefieran los productos saludables en ese entorno ambiental, lo que afecta no sólo a la compra de un producto específico (en un café), sino también a una cesta de productos (en un supermercado).

Estos resultados tienen unas implicaciones claras para la gestión de establecimientos de alimentación, en función del tipo de producto que se quiera promocionar, o el posicionamiento de la misma tienda en sí. Los autores, muestran un esquema básico en la siguiente tabla

Limitaciones/Comentarios

Es evidente que otras características de la música, como el tempo pueden moderar esta relación entre el volumen y el comportamiento de compra. Pero admitiendo esta limitación, el estudio presenta resultados interesantes sobre la importancia del nivel de relajación en la elección de productos de consumo.

El estrés y la activación producen decisiones menos saludables, mientras que un ambiente apacible, que abogue por la lentitud en lugar de las prisas, por lo sosegado en lugar de lo inmediato, hace que los consumidores tomen decisiones más razonadas, que probablemente les lleven a unos mejores hábitos de vida.

LEE EL ARTÍCULO ORIGINAL AQUÍ:

Biswas, D. et al. (2018). Sounds like a healthy retail atmospheric strategy: Effects of ambient music and background noise on food sales. Journal of the Academy of Marketing Science, doi 10.1007/s11747-018-0583-8

Indicadores de calidad de la revista*

Impact Factor (2017) Cuartil Categoría
Thomson-Reuters (JCR) 8.488 Q1 BUSINESS
Scimago (SJR) 4.614 Q1 MARKETING

*Es simplemente un indicador aproximado de la calidad de la publicación

Todos los posts relacionados




(#398). AJUSTE DE FUNCIONES (II): CAPACIDAD EXPLICATIVA Y PARTICIÓN DE LA FUNCIÓN

[MONOTEMA] Continuamos con una introducción sencilla al análisis de datos. Tras comparar los resultados de las splines cúbicas y el método de mínimos cuadrados, debemos ahora plantearnos algunas cuestiones sobre la idoneidad de lo que hemos hecho hasta ahora, y las opciones que aparecen entonces. Lo vamos a hacer de forma muy simple, para estimular el interés de los estudiantes hacia cuestiones más complejas.

Datos de partida

Recordemos que tenemos los siguientes datos analizados con splines y mínimos cuadrados:

load (interpol);
p:[[1,1],[3,2],[4,4], [6,5],[7,7],[8,9],[9,2],[10,10],[11,10],[12,10]];
splines: cspline(p);

x_:[1,3,4,6,7,8,9,10,11,12];
fx:[1,2,4,5,7,9,2,10,10,10];
x_aproximar:2;
x_interpolar:x_aproximar;
fx_estimada:0.8212147134302823*z+0.1693755346449957;
fx_estimada_x_aproximar: ev(fx_estimada, z=x_aproximar), numer;
f_splines: ev(splines,x=x_interpolar), numer;
plot2d([[discrete, x_, fx], [discrete, [[x_aproximar,fx_estimada_x_aproximar],
[x_interpolar,f_splines]]],fx_estimada,splines],
[x,0,15],[y,0,10], [style, points, points, lines, lines], [color, green, red, magenta, orange, magenta],
[xlabel, “Número de empleados”],
[ylabel, “Satisfacción del cliente”], [legend, false]);

b397_4Capacidad explicativa

La capacidad explicativa del modelo ajustado por mínimos cuadrados se suele medir con el coeficiente de determinación (R-cuadrado), que es una medida de la varianza explicada por el modelo, es decir, cuantifica la importancia de la varianza de error, y que está entre 0 y 1 (siendo 1 el ajuste perfecto). Se obtiene por el cociente entre la varianza de los datos ajustados frente a la de las imágenes de los datos observados.

En Maxima podemos obtenerlo así:

load(descriptive);
varianza_fx:var1(fx_traspuesta), numer;
ajuste: transpose(ev(fx_estimada,z=x));

varianza_fx_estimada:var1(ajuste);

R_cuadrado:(varianza_fx_estimada/varianza_fx);

El resultado es:

Pero debemos plantearnos dos cuestiones fundamentales tras inspeccionar gráficamente los datos. En primer lugar, la hipótesis de relación lineal parece no cumplirse a medida que el número de empleados crece. Y en segundo lugar el dato [9,2] puede ser un dato atípico, un outlier que por diferentes razones (sean aleatorias o no), nos está condicionando la estimación, y que quizá habría que estudiar obviar.

Parte lineal

¿Cómo sería el ajuste si sólo nos centramos en el rango de datos [1,8]? Vamos a verlo:

x:matrix([1,3,4,6,7,8]);
fx:matrix([1,2,4,5,7,9]);
x_traspuesta: transpose(x);
fx_traspuesta:transpose(fx);
n: length(x_traspuesta);
datos: zeromatrix(n,1);
datos_xcuad:x_traspuesta.x;
datos_y:fx_traspuesta;
datos_xy:fx_traspuesta.x;
datos_x: x_traspuesta;
print(datos_xcuad,datos_y, datos_xy,datos_x);
suma_xcuad:sum(datos_xcuad[i,i],i,1,n);
suma_y:sum(datos_y[i,1],i,1,n);
suma_xy:sum(datos_xy[i,i],i,1,n);
suma_x:sum(datos_x[i,1],i,1,n);
cuad_suma_x:suma_x^2;
alpha:((suma_xcuad*suma_y)-(suma_xy*suma_x))/((n*suma_xcuad)-cuad_suma_x), numer;
beta:((n*suma_xy)-(suma_x*suma_y))/((n*suma_xcuad)-cuad_suma_x), numer;
fx_estimada:alpha+beta*z;

Lo que nos da la siguiente recta de ajuste (la estimación de la función).

Entonces podemos hacer la representación gráfica del ajuste de los datos:

b398_3

La recta azul es la nueva función de ajuste, cuya capacidad explicativa es:

El ajuste es mucho mejor, claramente. Lo que sucede es que sólo podemos hacer esta acción si podemos justificar muy bien esa estimación de mínimos cuadrados para sólo una parte de los datos empíricos.

Los outliers pueden surgir aleatoriamente, y es parte de la variabilidad global, pero en detemrinados casos podemos intentar eliminarlos si sospechamos que hay “algo raro” en ese dato (alguna variación sistemática que ha producido un valor extraño).

Viendo gráficamente los datos, y teniendo en cuenta el contexto teórico, está claro de que hay un punto de saturación donde por más que se añadan vendedores no se incrementa el nivel de satisfacción (es máximo ya con 10 vendedores). Por tanto, no tiene mucho sentido intentar modelar esa parte de los datos junto al resto.

Conclusión

Hemos visto que, a veces, y si la teoría y la perspicacia del investigador lo permiten, podemos descartar algunos datos para obtener ajustes mucho mejores, y de este modo, realizar predicciones más fiables en el rango de datos que nos interese. No siempre, desde luego, ello es recomendable, pero la idea es que a los datos hay que mirarlos muy bien antes de analizarlos.

Hay dos aspectos fundamentables que no hemos tocado aquí, pero que son inherentes a cualquier éxito en los análisis: (1) El modelo teórico tiene que estar causalmente bien especificado, no importa la R-cuadrado (aunque sea alto) si no es teóricamente plausible esa relación; (2) El planteamiento de un modelo estadístico es también el de sus asunciones, las cuales no hemos testado en su totalidad, como por ejemplo, si la varianza de error es homogénea.

En futuros posts iremos aclarando mejor estas y otras cuestiones.

Todos los posts relacionados

 

 

 




(#397). AJUSTE DE FUNCIONES (I): SPLINES VS MÍNIMOS CUADRADOS

[MONOTEMA] Tras explicar varios de los más empleados métodos de interpolación para buscar aproximarnos a la función que describe los datos empíricos, hemos visto que las splines cúbicas nos ofrecen mucha flexibiliad. Sin embargo, y aunque pueda parecer paradójico, el hecho de buscar una función de interpolación que pase por todos los nodos puede ser contraproducente, porque podemos estar dando demasiada importancia al ruido, cuando lo que buscamos es la señal. Es decir, cuando en los datos hay errores aleatorios (y también algún error sistemático puntual), buscar aproximaciones con funciones que no pasen necesariamente por esos nodos pero que tengan otras propiedades (como la minimización de una variable de error), puede ser más útil.

El método básico para realizar este ajuste es el de mínimos cuadrados, un potente método no paramétrico que minimiza la suma al cuadrado de los errores. Y es lo que vamos a ver en este post, aunque da manera muy simplificada ya que está sobradamente explicado en multitud de textos especializados de prácticamente todas las áreas científicas.

Así, compararemos gráficamente el ajuste por mínimos cuadrados con el método de las splines cúbicas, para estimular la reflexión de los alumnos.

Datos de partida

Usaremos los mismos datos que en el método de Lagrange, y en el de todos los ejemplos sobre interpolación:

x f(x)
1 1
3 2
4 4
6 5
7 7
8 9
9 2
10 10
11 10
12 10

Estos datos relacionan la cantidad de empleados utilizados en un gran supermercado (x) con la saltisfacción del cliente . La satisfacción del cliente se mide en una escala de 0 a 10, donde 0 es el valor mínimo y 10 el valor máximo.

x_:[1,3,4,6,7,8,9,10,11,12];
fx_:[1,2,4,5,7,9,2,10,10,10];
plot2d([discrete, x_, fx_],
[x,0,15],[y,0,10], [style, points], [color,green],
[xlabel, “Número de empleados”],
[ylabel, “Satisfacción del cliente”], [legend, false]);

Splines cúbicos

Una vez que ya sabemos programar las splines paso a paso, podemos actuar de forma más directa con Maxima, pidiendo que use todos los datos disponibles:

load (interpol);

p:[[1,1],[3,2],[4,4], [6,5],[7,7],[8,9],[9,2],[10,10],[11,10],[12,10]];

splines: cspline(p);

Y lo podemos graficar de la siguiente forma:

x_:[1,3,4,6,7,8,9,10,11,12];
fx:[1,2,4,5,7,9,2,10,10,10];
plot2d([[discrete, x_, fx], splines],
[x,0,15],[y,0,10], [style, points, lines], [color,green, orange],
[xlabel, “Número de empleados”],
[ylabel, “Satisfacción del cliente”], [legend, false]);

b397_2

Vemos que las splines hacen aparentemente un “buen trabajo” de ajuste, pero tenemos ese punto “problemático” [9,2] que hace que la curva de interpolación cambie drásticamente. Sin embargo, en este caso no nos afecta demasiado a nuestro objetivo de interpolar puntos que no están en los datos en el intervalo [1,12]. Tanto el nodo 2 como el nodo 5 se pueden evaluar con la curva de interpolación ya que las splines van de nodo a nodo, por lo que ese comportamiento “raro” en el punto [9,2] no afecta prácticamente a las evaluaciones entre los otros nodos.

Mínimos cuadrados lineales

Este método se basa en la minimización de la función de error:

donde  se corresponde con las imágenes de los datos brutos , y son parámetros a estimar.

Minimizar esa función requiere que:

Es importante señalar que se asume que el error tiene de media cero, es decir, es aleatorio (ruido blanco).

De este modo:

Así, podemos programarlo con Maxima usando el siguiente código:

x:matrix([1,3,4,6,7,8,9,10,11,12]);
fx:matrix([1,2,4,5,7,9,2,10,10,10]);
x_traspuesta: transpose(x);
fx_traspuesta:transpose(fx);
n: length(x_traspuesta);
datos: zeromatrix(n,1);
datos_xcuad:x_traspuesta.x;
datos_y:fx_traspuesta;
datos_xy:fx_traspuesta.x;
datos_x: x_traspuesta;
print(datos_xcuad,datos_y, datos_xy,datos_x);
suma_xcuad:sum(datos_xcuad[i,i],i,1,n);
suma_y:sum(datos_y[i,1],i,1,n);
suma_xy:sum(datos_xy[i,i],i,1,n);
suma_x:sum(datos_x[i,1],i,1,n);
cuad_suma_x:suma_x^2;
alpha:((suma_xcuad*suma_y)-(suma_xy*suma_x))/((n*suma_xcuad)-cuad_suma_x), numer;
beta:((n*suma_xy)-(suma_x*suma_y))/((n*suma_xcuad)-cuad_suma_x), numer;
fx_estimada:alpha+beta*x_;

Lo que nos da la siguiente recta de ajuste (la estimación de la función).

Entonces podemos hacer la representación gráfica del ajuste de los datos:

kill (all);
x_:[1,3,4,6,7,8,9,10,11,12];
fx:[1,2,4,5,7,9,2,10,10,10];
x_aproximar:2;
fx_estimada:0.8212147134302823*x+0.1693755346449957;
fx_estimada_x_aproximar: ev(fx_estimada, x=x_aproximar), numer;
plot2d([[discrete, x_, fx], [discrete, [[x_aproximar,fx_estimada_x_aproximar]]],fx_estimada],
 [x,0,15],[y,0,10], [style, points, points, lines], [color,green, red, orange],
[xlabel, “Número de empleados”],
    [ylabel, “Satisfacción del cliente”], [legend, false]);

b397_3Para 2 empleados la función de ajuste estimada nos dice que la satisfacción será de 1.81.

En próximos posts hablaremos con más detalle de la evaluación de este ajuste, pero ahora simplemente los estudiantes pueden hacer un ejercicio de reflexión ante el visionado de la superposición de las dos funciones computadas, la primera con splines cúbicas y la segunda con el método de los mínimos cuadrados.

load (interpol);
p:[[1,1],[3,2],[4,4], [6,5],[7,7],[8,9],[9,2],[10,10],[11,10],[12,10]];
splines: cspline(p);

x_:[1,3,4,6,7,8,9,10,11,12];
fx:[1,2,4,5,7,9,2,10,10,10];
x_aproximar:2;
x_interpolar:x_aproximar;
fx_estimada:0.8212147134302823*x+0.1693755346449957;
fx_estimada_x_aproximar: ev(fx_estimada, x=x_aproximar), numer;
f_splines: ev(splines,x=x_interpolar), numer;
plot2d([[discrete, x_, fx], [discrete, [[x_aproximar,fx_estimada_x_aproximar],
        [x_interpolar,f_splines]]],fx_estimada,splines],
 [x,0,15],[y,0,10], [style, points, points, lines, lines], [color, green, red, magenta, orange, magenta],
[xlabel, “Número de empleados”],
    [ylabel, “Satisfacción del cliente”], [legend, false]);

b397_4

Cuando el número de empleados es 2, la estimación del nivel de satisfacción difiere en función del método empleado. Además, hemos realizado el ajuste de mínimos cuadrados sin tener en cuenta que aparentemente hay una ruptura de la linealidad cuando el número de empleados se incrementa. En posteriores posts, analizaremos con más tranquilidad estos detalles.

Conclusión

Hemos comparado los resultados obtenidos con splines cúbicas con respecto al ajuste de mínimos cuadrados ordinarios, sin entrar en profundidades sobre la idoneidad de ambos análisis. Las predicciones que podemos hacer en base a los datos empíricos divergen, lo que nos debe advertir de lo prudentes que hemos de ser a la hora de analizar los datos.

Todos los posts relacionados

 

 

 




(#396). INTERPOLACIÓN (IV): MÉTODO DE SPLINE CÚBICO

[MONOTEMA] Los métodos de interpolación vistos hasta ahora no permitían aproximar a la función por tramos. El método de spline sí que lo puede hacer, y es muy potente para conseguir buenos resultados en cualquier tipo de análisis de datos. Seguiremos a Burden, Faires & Burden (2017), y lo enfocaremos, como siempre, de manera simplificada.

Datos de partida

Usaremos los mismos datos que en el método de Lagrange:

x f(x)
1 1
3 2
4 4
6 5
7 7
8 9
9 2
10 10
11 10
12 10

Estos datos relacionan la cantidad de empleados utilizados en un gran supermercado (x) con la saltisfacción del cliente . La satisfacción del cliente se mide en una escala de 0 a 10, donde 0 es el valor mínimo y 10 el valor máximo.

x_:[1,3,4,6,7,8,9,10,11,12];
fx_:[1,2,4,5,7,9,2,10,10,10];
plot2d([discrete, x_, fx_],
[x,0,15],[y,0,10], [style, points], [color,green],
[xlabel, “Número de empleados”],
[ylabel, “Satisfacción del cliente”], [legend, false]);

Método de spline cúbico

(1) Objetivo: Aproximarse numéricamente a la función , de la que conocemos sólo ciertos datos por medio de varios polinomios que pasen por los i puntos conocidos, es decir, calcularemos polinomios por tramos de datos. Emplearemos, además, splines cúbicos, es decir, polinomios de orden 3.

(2) Condiciones: La función debe ser continua en el intervalo considerado y además tiene que ser doblemente diferenciable.

(3) Descripción rápida: Partimos de la serie de datos , los cuales es conveniente ordenar de manera creciente por los nodos ,  y escogemos los j subintervalos para los cuales vamos a calcular splines .

La condiciones que deben satisfacerse son las siguientes:

a) son los j polinomios que se calculan para los i=j+1 nodos.

b) y para cada j. Es decir, el spline cúbico debe pasar por todas las imágenes de los datos, y esto hace que dos splines consecutivos pasen por un nodo común, por lo que al evaluar ambos splines en el mismo punto el resultado deba ser el mismo.

c) para cada j=1…n-2.  No sólo las evaluaciones de los splines, sino también sus derivadas primera y segunda deben coincidir en los nodos de conexión.

d) Si el spline es natural (frontera libre), entonces: 

Los splines de frontera condicionada no los vamos a comentar ya que es necesario conocer los valores de la derivada de la función original en los extremos, algo de lo que carecemos, debido a que sólo tenemos un conjunto de datos brutos y sus imágenes.

Estas condiciones suponen unas restricciones en la resolución de un sistema de ecuaciones con 4xj incógnitas. Es decir, 4 incógnitas por cada spline calculado. Así, para n=3 puntos obtendríamos j=2 splines cúbicos, de la forma:

Ahora tenemos que determinar esas constantes usando las restricciones comentadas anteriormente.

b) , ,

c)  , por lo que 

y , por lo que  

d) , por lo que

y , por lo que 

Ya sólo queda resolver el sistema de ecuaciones anterior, es decir, y considerando los  nodos [1,3,4] e imágenes [1,2,4]:

Implementación en Maxima

Vamos a realizar nuestra estimación en Maxima. Supongamos, como en el caso del método de Lagrange, que queremos aproximarnos a un valor que desconocemos, cuando el número de empleados es 2. Para ello vamos a coger los 3 primeros puntos, con la programación siguiente:

x_:[1,3,4];
fx:[1,2,4];
S1: a1+b1*(x-x_[1])+c1*(x-x_[1])^2+d1*(x-x_[1])^3;
S2: a2+b2*(x-x_[2])+c2*(x-x_[2])^2+d2*(x-x_[2])^3;

fx1:ev(S1,x=x_[1]);

fx2:ev(S1,x=x_[2]);

fx2_:ev(S2,x=x_[2]);

fx3:ev(S2,x=x_[3]);

S1prima: diff(S1,x);

S1prima_ev:ev(S1prima,x=x_[2]);

S2prima: diff(S2,x);

S2prima_ev:ev(S2prima,x=x_[2]);

S1primaprima: diff(S1prima,x);

S1primaprima_ev:ev(S1primaprima,x=x_[2]);

S2primaprima: diff(S2prima,x);

S2primaprima_ev:ev(S2primaprima,x=x_[2]);

S1primaprimainicio_ev:ev(S1primaprima,x=x_[1]);

S2primaprimafin_ev:ev(S2primaprima,x=x_[3]);

e1: fx1-fx[1];
e2: fx2-fx[2];
e3: fx2_-fx[2];
e4:fx3-fx[3];
e5:S1prima_ev-S2prima_ev;
e6:S1primaprima_ev-S2primaprima_ev;
e7:S1primaprimainicio_ev-0;
e8: S2primaprimafin_ev-0;

algsys ([e1, e2, e3, e4,e5,e6,e7,e8], [a1,b1,c1,d1,a2,b2,c2,d2]);

Aunque a priori parece un código algo complejo, lo cierto es que sigue paso a paso el algoritmo que deviene de las restricciones planteadas. Para formular el sistema de ecuaciones a resolver, hay que recordar que debemos escribir esas ecuaciones en  Maxima de la forma x-a=0 y no de la forma x=a.

Con el comando “algsys” resolvemos el sistema de ecuaciones, y obtenemos la siguiente solución:

Por tanto, podemos construir las dos splines:

Y ahora hacemos la comprobación con Maxima. Esas splines evaluadas en los nodos tienen que dar sus imágenes correspondientes:

S1solucion: 1+(1/8)*(x-x_[1])^3;
S2solucion: 2+(3/2)*(x-x_[2])+(3/4)*(x-x_[2])^2-(1/4)*(x-x_[2])^3;

Comprobacionnodo1: ev(S1solucion,x=x_[1]);

Comprobacionnodo2: ev(S1solucion,x=x_[2]);

Comprobacionnodo2_: ev(S2solucion,x=x_[2]);

Comprobacionnodo3: ev(S2solucion,x=x_[3]);

Como vemos, los resultados coinciden,  lo que indica que hemos hecho bien la programación y ya tenemos las 2 splines cúbicas.

Podemos dibujar las splines y estimar el valor para el cual queríamos hacer la interpolación, es decir, ¿cuál sería el valor de satisfacción del cliente con 2 empleados en el establecimiento?.

Para ello empleamos la primea spline que es la que pasa por los dos nodos que contienen al valor en cuestión, y su resultado es 1.125. Con Maxima lo podemos hacer fácilmente, y además representarlo en un gráfico:

x_:[1,3,4,6,7,8,9,10,11,12];
fx:[1,2,4,5,7,9,2,10,10,10];
x_interpolar:2;
f_S1solucion: ev(S1solucion,x=x_interpolar), numer;
plot2d([[discrete, x_, fx], [discrete, [[x_interpolar,f_S1solucion]]],S1solucion,S2solucion],
[x,0,15],[y,0,10], [style, points, points, lines,lines], [color,green, red, orange,magenta],
[xlabel, “Número de empleados”],
[ylabel, “Satisfacción del cliente”], [legend, false]);

b396_2La curva naranja representa la primera spline y la curva rosa la segunda.

Podemos hacer una comprobación con el comando de Maxima “cspline” y veremos que nos da el mismo resultado:

S1solucion: 1+(1/8)*(x-x_[1])^3, expand;
S2solucion: 2+(3/2)*(x-x_[2])+(3/4)*(x-x_[2])^2-(1/4)*(x-x_[2])^3,expand;

load (interpol);

p:[[1,1],[3,2],[4,4]];

cspline(p);

Conclusión

Las splines cúbicas son una muy interesante forma de realizar interpolaciones, probablemente una de las que más ventajas conlleva y que permite realizar aproximaciones más fiables. Su procedimiento en Maxima es un poco laborioso, pero si seguirmos ordenadamente los pasos que surgen de las restricciones del método, no debemos tener problema.

Todos los posts relacionados