< Previous28 Vol. 25 • No. 5 Artículo Técnico “La nada”. El vacío cuántico es lo más cerca al auténtico vacío que podemos llegar en nuestro universo, puesto que su contenido en energía media es igual a cero. Sin embargo, debido al principio de incertidumbre de Heisenberg, aunque su energía media sea cero, fl uctúa continuamente, lo que permite la creación de partículas y antipartículas de él, sin que se viole el principio de conservación de la energía. Final- mente, podemos observar que el universo tiende siempre a un estado de mínima energía, lo que tal vez signifi que que trata de acercarse a la auténtica “nada”. Ya que ni la fi losofía, ni la física habían resuelto claramente que es “la nada”, quizás las matemáticas lograrían resolver esto a través de la defi nición del conjunto vacío. Éste, es aquel conjunto matemático no intuitivo sin elemento alguno. El conjunto vacío sí tiene un elemento y es él mismo; es decir, el conjunto vacío (cardinal 0); y esto es porque, según la teoría de conjuntos, todo conjunto ha de contenerse a sí mismo. El argumento ontológico del conjunto vacío trata de explicar como si “la nada” fuera el conjunto vacío, ésta podría llegar a originar algo de “la nada”. Si no contiene a nadie excepto al conjunto vacío, nadie incumple ninguna propiedad. Al no contener a nadie que incumpla sus propie- dades, podemos decir que cumple infi nitas de ellas. Tras haber expuesto “la nada” desde diferentes aspectos (filosófico, físico) y tomando como hilo argumental “Ser y Tiempo”, y habiéndose encontrado con numerosos problemas en su defi nición, quizás desde las matemáticas se tuviera una posible solución con el argumento del conjunto vacío, ya que si éste fuera “la nada” podría surgir algo de “la nada”, luego entonces podría surgir un universo de “la nada”. Para fi nalizar con este cadena de eventos fi losófi cos sobre el cero equivalente a la nada retomaremos una frase de Barrow1: “Si uno mira el cero no ve nada, pero si mira a través de él ve el mundo”. La aceptación del cero como número 6 El siglo XV dio inicio a un nuevo paradigma que trascendió las matemáticas y cambió para siempre la física, biología, química, economía, estadística, informática y mucho más. Permitió a los números volverse entes con vida propia, en otras palabras el cero pasó de ser “la nada” a convertirse en una de las mayores innovaciones de la humanidad. Para algunos, el cero no fue considerado un número hasta la axiomatización de los números naturales en el siglo XIX, formulada por el matemático italiano Giuseppe Peano (Fig. 3) con el ánimo de dar una estructura rigurosa a la aritmética y, en consecuencia, a la matemática en general. El cero en la ciencia Ahora abordaremos el cero y sus diferentes signifi cados en el mundo de la ciencia. En el campo de la física, el cero absoluto, en la escala Kelvin (0 K), es la temperatura más baja que puede alcanzar la materia. En estadística, por su parte, el cero adquiere una connotación de correlación con respecto a sus variables estudiadas, si se adquiere un valor de cero nos indica que no hay correlación. También nos señala que un evento sea probable o no, cuando el evento es imposible se dice que su probabilidad es cero, si el evento es cierto y éste siempre tiene que ocurrir, su probabilidad es 1. Otra manera de ver al cero es en el cálculo diferencial e integral, cuando usamos los límites, por ejemplo “límite para x tendiendo a cero”, estamos diciendo que la región que nos interesa es la de valores de x bien cercanos a cero, pero que no vamos a considerar x precisamente igual a cero, jamás adquirirá un valor de cero. En la vida cotidiana podemos usar esta estructura matemática en áreas como ingeniería, economía, producción, construcción, etc. Por otra parte, el sistema que utilizan los ordenadores y el resto de los dispositivos electrónicos, es el sistema binario, es un sistema numérico posicional de base dos, en el cual sólo se utilizan dos cifras que son: el 1 y el 0 (cero), la base matemática del sistema binario fue documentada por pri- mera vez en el siglo XVII por el matemático alemán Leibniz, y también cabe destacar las aportaciones del matemático británico Boole. Para convertir un número natural a binario se divide este último entre dos cuantas veces sea necesario hasta llegar al 1 indivisible, se cuenta este número como inicio del binario y seguido de los residuos de las divisiones anteriores (de la última a la primera). Este último acercamiento del cero en el área de computación nos llevará al tema de la IA y a comprender si en verdad esta es “inteligente” o no, o si nosotros debemos adquirir las bases matemáticas (algorit- mos, hilos, promts, etc) y de lenguaje (ordenación, posición, vocabulario) para alimentarla con información correcta y, a su vez, sustraer información de ella y, por tanto, que no se cometan errores o éstos sean mínimos o tendiendo a cero a la “nada”, lo que nos llevará al logro de “Cero defectos en la IA”. Usar la tecnología a nuestro favor y no que está nos use. El cero en la Manufactura Moderna 2,4 La manufactura ha evolucionado mucho desde la revolución industrial, muchos han infl uido en la defi nición de la calidad de una empresa, dentro de ellos están Juran, quien incluye el concepto de “ausencia de defi ciencias”; por su parte Deming, en 1950, adoptó el concepto de “calidad total”. A fi nales de la década de 1970, los fabricantes norteamericanos estaban perdiendo mercado frente a los productos japoneses por lo que la respuesta de Crosby 2 a la crisis de la calidad fue el principio de “hacerlo bien la primera vez” (Do it right the fi rst time - DIRFT). También incluyó cuatro “principios absolutos” (Fig. 4) lo que él llamaba “Absolutos de la Administración de la Calidad”: 1 . El cliente como eje vertebrador. La defi nición de calidad es la conformidad con los requisitos (requisitos que signifi can tanto los requisitos del producto como los del cliente). 2. El sistema de calidad es prevención. Se refi ere a los costos asociados a la prevención de daños, así como los costos de errores y errores. La opinión radica en que, al enfocarse 30 Vol. 25 • No. 5 Artículo Técnico en la prevención, se pueden reducir signifi cativamente los costos totales. 3. La fi losofía de cero imperfecciones. Se sugiere que todos en la organización deben comprometerse a llevar a cabo las acciones correctamente desde el primer intento, sin aceptar errores. 4. La medida de la calidad es el precio de la no conformidad. Es fundamental establecer métricas precisas para evaluar el rendimiento y la calidad de los procesos. ¿Cómo se integra esta visión de “la Nada”, del “cero” abstracto, fi losófi co, matemático, al entorno de negocios donde la tendencia está fuertemente infl uenciada por la Economía y la Excelencia Operacional? Dentro de la manufactura moderna el enfoque al resultado a veces no da espacio a la comprensión del error buscando caminos para lograr Ceros defectos, e ignorando el valor de la pérdida como parte del proceso cognitivo en la búsqueda de enriquecer el conocimiento interno de la organización, es entonces donde la cosmovisión hace sentido, en el contexto del equilibrio de la comprensión humana del error y las plataformas disponibles para abordarla. Después de haber realizado en organizaciones de varios tamaños estudios de estilos de pensamiento, hemos encontrado que, en general, el hemisferio racional domina al intuitivo, lo que evita el equilibrio entre lo espiritual y lo material para poder entender la mejora continua. Bibliografía: 1 . Barrow, J. (2012). El libro de la nada (Trad. J. García). Barcelona: Crítica. 2. Crosby P., (1980). Zero defects: Quality Comes To service (Cero defectos: La calidad llega a los servicios), Nueva York: McGraw-Hill. 3. Godínez, H. S. (2016). El vínculo de la nada con el cero, la negación y la ausencia. Eikasía: revista de fi losofía, ISSN-e 1885-5679, Nº. 71. pag. 241-262. 4. Quesada-Pineda, H., Asistente, P., Products, F., Buehlmann, V. T. U., Asociado, P., Products, F., Arias, V. T. E., de Doctorado, E., Products, F., & Tech, V. (s/f). Pensamiento Lean: Ejemplos y Aplicaciones en la Industria de Productos de Madera. Ext. vt.edu. 5. Jabaloyes A. I. (2020). La Nada: una aproximación desde la fi losofía, la física y la matemática. Claridades: revista de fi losofía, ISSN-e 1989-3787, Vol. 12, Nº. 2. pag. 275-286. 6. Villamil, J., & Riscanevo, L. (2020). Perspectivas históri- cas y epistemológicas del número cero. Praxis & Saber, 11(26), e9847. https://doi.org/10.19053/22160159.v11. n26.2020.9847 *Ofelia E. Carreón-Rodríguez es Doctora en Ciencias Bio- químicas, Biotecnóloga especializada en ingeniería genética, fermentaciones, biología de sistemas y análisis de datos ómicos de microorganismos. Es profesionista de la Química de los Alimentos habiendo trabajado en AGA de México (Jarritos) como Analista Químico. Es Consultora Autónoma. Para mayor información, contacto: efelio2000@gmail.com, LinkedIn: linkedin.com/in/ofelia-carreon ** Rogelio Bautista es director de Smarthinking, con más de 20 años de experiencia en procesos de manufactura de alimentos, creador del concepto NeuroKaizen, así como enfocado a la mejora y optimización de Sistemas de Calidad y Productividad trabajando con ISO, FSSC22000, TPM, WCM y Lean6Sigma, basada en humanos. Para mayor información, contacto: rogelio.bautista@smart-thinking.com.mx Fig. 4. Crosby y sus cuatro principios fundamentales2. Elab- oración Propia. Debido a esto, Crosby creía que era menos costoso hacerlo bien la primera vez que pagar por retrabajos y reparaciones y que la calidad es gratis, por lo cual creó el concepto de “Cero Defectos”2. Opinaba que la clave para mejorar la calidad con- sistía en cambiar la mentalidad de la Alta Dirección. Si lo que ésta esperaba era imperfección y defectos, los tendría, ya que sus trabajadores impondrían expectativas similares a su trabajo. En resumen, la Teoría de Cero Defectos de Crosby busca crear una cultura organizacional donde la calidad fuera una prioridad y todos los empleados se sintieran responsables de mantener altos estándares Pensamiento Cero Pérdidas en Lean 4 La idea radica en que cualquier actividad que no aporte valor al producto o servicio es considerada una pérdida y, de esta forma, debe ser eliminada o minimizada. El enfoque se centra en la eliminación del desperdicio con el propósito de incrementar la satisfacción de los clientes. De este modo, el pensamiento tiene un impacto positivo en el bienestar fi nanciero de un negocio. Asimismo, el pensamiento abandona el enfoque tradicional de fi jación de precios establecido por la formula Precio = Costo + Ganancia. El enfoque se centra en incrementar el valor en favor del cliente y, de la misma manera, eliminar los desperdicios con el fi n de incrementar las ganancias. De acuerdo con el enfoque de pensamiento Lean, la formu- lación de precios debe ajustarse a Ganancia = Precio - Costo, lo cual signifi ca que la única forma de incrementar las ganancias será mediante la disminución de desperdicios o costos.32 Vol. 25 • No. 5 Artículo Técnico Interpretación y comparación de Cpk y Ppk Índice 1 ) Conocimientos mínimos requeridos 2) Introducción 3) Alcancde 4) Requerimientos normativos 5) Planteamiento del problema 6) Pla de ejecución 6.1) Base de datos 6.2 Resultados simulación 6.3 Análisis e interpretación 7) Conclusiones 8) Bibliografía 1 )Conocimientos mínimos requeridos Para tener una mejor compresión de este documento, es necesario tener conocimientos en control estadístico de procesos. 2) Introducción Debido a que los procesos farmacéuticos para elaborar me- dicamentos a pesar de que se realicen de la misma manera, su resultado no puede anticiparse y es aleatorio, razón por la cual es necesario que durante todo su ciclo de vida, a través del sistema de gestión de calidad, se identifi quen y se controlen las causas (variables independientes) de la varia- ción en la variable de respuesta (atributo de calidad), para que de manera consistente se encuentren dentro de una especifi cación y no pongan en riesgo el efecto y seguridad del paciente. Dado que los atributos de calidad son una variable aleatoria, es necesario utilizar modelos estadísticos que permitan comprender, describir y cuantifi car los procesos para identifi car y controlar las causas (parámetros del pro- ceso y atributos de materiales) de la variación del atributo de calidad, de manera tal que, una vez que son defi nidos los parámetros del proceso y las características de los atributos de los materiales para su fabricación (producción, empaque y distribución), nos permitan tener la variación del atributo de calidad consistentemente dentro de una especifi cación desde su fabricación hasta su fecha de caducidad que no pongan en peligro su efecto terapéutico y su seguridad en el paciente. Es bien conocido que hay procesos farmacéuticos cuyos atributos de calidad (peso de tabletas, llenado de frascos, Por: Ramón Rodríguez, José Antonio Huertas, Alejandro Alcántara número de tabletas rotas, por citar algunos ejemplos) requie- ren de un monitoreo a través del tiempo (control estadístico de proceso), para verifi car que los datos individuales, su va- riación y su medida de tendencia central sean satisfactorios en el cumplimiento de una especifi cación que no ponga en riesgo el efecto y seguridad del paciente. La NORMA Ofi cial Mexicana NOM-059-SSA1-2015, Buenas prácticas de fabricación de medicamentos en su numeral 5.1.4.8, nos requiere tener medidas de monitoreo durante el proceso de fabricación, por lo que es una práctica común llevar gráfi cas de control de proceso cuyo atributo de calidad en las unidades fabricadas (tabletas, cápsulas, frascos, blísters, etc.) requieren de un control estadístico de proceso durante su producción (tableteado, emblistado, etc.). En general para los atributos de calidad cuantitativos continuos, este control estadístico se lleva con gráfi cas de control que evalúan que los datos individuales, las medidas de tendencia central y las medidas de dispersión cumplan la especifi cación establecida, en las unidades muestreadas a diferentes tiempos. Estas gráfi cas de control en proceso nos permiten detectar si los procesos son estables y consistentes en el cumplimiento de la especifi cación del atributo de calidad evaluado. En este documento se considera estable un proceso de producción, si la distribución de probabilidad de los datos del atributo de calidad es consistentemente similar en la forma de la distri- bución al igual que en sus medidas de tendencia central y de dispersión durante su proceso de producción (inicio, medio y fi nal) y entre lotes. Es recomendable que para establecer índices de desempeño (IPC) de la capacidad de proceso, antes se tenga un pro- ceso estable y consistente dentro del lote y entre lotes del atributo de calidad evaluado en las unidades de producción. Desafortunadamente, en la práctica esto no se evalúa y es común defi nir IPCs para evaluar la capacidad de proceso, siendo el de Cpk, uno de los frecuentemente utilizados, con la problemática de que este IPC es utilizado sin verifi car la validez de su modelo estadístico en el cumplimiento de los supuestos en que los datos tengan una distribución normal, sean independientes y sin datos aberrantes.34 Vol. 25 • No. 5 Artículo Técnico Con el uso de paquetes estadístico para calcular Cpk es frecuente que también estos calculen el Ppk. A continuación, se describirá cómo se realiza su cálculo, su interpretación y comparación, quedando pendiente la comprobación de los supuestos, ya que las bases de datos fueron generadas de manera aleatoria suponiendo una distribución normal. La diferencia en el cálculo de Cpk y Ppk es la estimación de desviación estándar de los datos colectados. En el Cpk el pro- ceso se subdivide en grupos de toma de muestra y se calcula la variación del proceso, mientras que en el Ppk la variación se calcula con todos los datos colectados del proceso. Esto trae como consecuencia que el Cpk no pueda evaluar los cambios o desviaciones entre subgrupos. De manera general, cuando los valores de Cpk y Ppk son similares indica que el proceso es centrado y estable, mientras que si hay una diferencia entre Cpk y Ppk probablemente sea debida a una inestabilidad en el proceso. Es importante notar que para calcular el Cpk es necesario hacer una evaluación de la variable de respuesta (atributo de calidad) en la división en subgrupos del total de unidades muestreadas, mientras que para el Ppk esto no es necesario. Para diferenciarlos, el Cpk se conoce como la capacidad de proceso a corto plazo mientras que para el Ppk lo conocemos como la capacidad de proceso a largo plazo o índice de desempeño. Las fórmulas de cálculo de Cpk y Ppk son similares con la diferencia en el cálculo de la desviación estándar a corto y largo plazo (ver Tabla 1 ). Índices de desempeño de proceso Tabla 1. Fórmulas de cálculo de Cpk y Ppk donde es estimado por s y con el estimador ỹ. Dependiendo de los subgrupos que se tengan y en la cantidad de unidades por submuestra, existen diferentes formas de estimar la desviación estándar a corto plazo (s cp ) (ver Tabla 2). Tabla 2. Fórmulas de cálculo de la s cp y s lp . 3) Alcance Identifi car si la diferencia entre Ppk y Cpk es debida a una inestabilidad del proceso por su variación o por el cambio de la media aritmética o por ambas en el proceso con datos obtenidos de la simulación aleatoria de la distribución normal. 4) Requerimientos normativos Aunque no es un requerimiento normativo el cálculo de Cpk y Ppk, la NORMA Ofi cial Mexicana NOM-059-SSA1-2015, Buenas prácticas de fabricación de medicamentos en sus numerales: 5.1.4.8 Se establece y mantiene un estado de control de la ejecución del proceso y la calidad del producto mediante medidas de monitoreo y los resultados de dichas medidas se tienen en cuenta para la liberación del lote, para la inves- tigación de las desviaciones y para llevar a cabo acciones preventivas que permitan eliminar la recurrencia. 9.9.2.1.2 En esta etapa debe defi nirse la estrategia para el control del proceso, la cual debe documentarse. Ésta debe incluir la calidad de los materiales, el monitoreo de los parámetros Críticos del Proceso y de los Atributos Críticos de la Calidad que se han identifi cado, incluyendo los resultados obtenidos durante la ejecución del protocolo de la trans- ferencia de tecnología. Nos requieren tener medidas de monitoreo del proceso y tener defi nidas las estrategias de control de proceso. Razón por la cual, una práctica frecuentemente utilizada para evaluar la capacidad de proceso es con el cálculo de Cpk y que éste tenga un valor mayor de 1.33, lo cual equivale a tener menos de 32 (unilateral) o 64 (bilateral) defectos en un millón de unidades muestreadas (ver tabla 3), sin considerar el cálculo de Ppk.36 Vol. 25 • No. 5 Artículo Técnico Tabla 3. Equivalencia del valor de Cpk/Ppk en el número de unidades defectuosas en un millón de unidades. 5) Planteamiento del Problema Con el uso de paquetes estadísticos que incluyen la evaluación de la capacidad de proceso es una práctica común que se reporten los resultados de Cpk y Ppk, con el problema de casos en que éstos pueden ser diferentes y sólo se indica que esto es debido a la inestabilidad del proceso, mas no tener alguna certeza si esta inestabilidad es por cambios en la variabilidad o por cambios en la medida de tendencia central de cada submuestra tomada durante el proceso. Razón por la cual a través de la simulación Montecarlo se buscará tener la evidencia si esta diferencia de valores de Cpk y Ppk es debida al cambio en su variabilidad (rango) o al cambio de la medida de tendencia cen- tral (media) en los subgrupos de muestra tomadas en el proceso. 6) Plan ejecución Para detectar si hay diferencia de valores de Cpk y Ppk se harán simulaciones con nueve sub- grupos de muestra con 10 datos. Donde para cada subgrupo se evaluará su medida de tendencia central y su variación que permita calcular su Cpk y Ppk para su posterior comparación y evaluación si la diferencia es por el cambio de la medida de tendencia central o por su variación o por ambas. Para el cálculo de la medida de tendencia central se selecciona la media aritmética y para la variación el rango. Tabla 5. Calculo teórico de la media y s para cada subgrupo. Las unidades son mg/tableta. 6.2) Resultados simulación Se realizaron 20 simulaciones y cálculos de Cpk y Ppk como se muestra en la Tabla 6. También se defi nió un indicador de diferencia (ID) con la fórmula 1. Tabla 6. Condiciones de simulación y cálculo de Cpk, Ppk, ID y la razón de variación a corto plazo/variación a largo plazo. 6.3) Análisis e interpretación Como se indica en la Tabla 6 con el color amarillo y color café, la diferencia más importante de Cpk y Ppk que se identifi ca con el ID es cuando se tiene un cambio en la media aritmética. 6.1) Base de datos Para cada simulación se tendrá una base de da- tos como se muestra en las Tablas 4 y 5, donde cada dato es el peso en mg de cada tableta. Se harán simulaciones de 10 datos suponien- do la distribución normal y se seleccionarán las simulaciones que tengan la media y desviación estándar con una variación menor al 10% al teórico estimado. Tabla 4. Base de datos para cada simulación, en este caso la simulación consiste en tener tres subgrupos con una media de 98, 100 y 102 y una desviación estándar de 1.00 para cada subgrupo.Next >