Tema: Esquema General de la Empresa
La empresa se define como la unidad económica (el objetivo de toda empresa es la obtención de beneficios, es decir, crear valor), autónoma (es independiente) de producción (producir es la fabricación y su entorno).
Cada empresa tiene su propio esquema general dependiendo del tipo de empresa que sea y de la actividad que realice; siendo el más común el siguiente esquema dividido en los bloques comercial, producción, económico-contable y financiero. Como ejemplo, podemos plantear el siguiente esquema general:
Tema: Función de Operaciones
La función de operaciones es la función de producción cuando, además de productos, se generaliza también a servicios. La función de operaciones representa las transformaciones que hay que hacer a las entradas al sistema de la empresa para obtener un producto o servicio.
Dentro de la función de operaciones, vamos a encontrar distintas áreas de actividad como pueden ser: la fabricación, el control de producción, el mantenimiento, la gestión de la calidad, los procesos, los tiempos (de producción, para poder calcular los costes, la planificación…), almacenes, compras,…
Al cargo de la función de operaciones, vamos a encontrar al gerente de operaciones, que en función del tipo de empresa se llama: director de la producción, decano,…
Dentro de la función de operaciones, debemos poner especial atención a los siguientes aspectos críticos:
- La falta de productividad en el sector servicios: producida por una carencia de incentivos que provoca una falta de interés por parte del trabajador. Se va a producir tanto en el sector público como en el privado.
- Utilización inadecuada de la informática: informatizar las distintas operaciones es beneficioso siempre que sea coherente su uso, ya que si no, podemos estar empeorando la situación.
- La mejora de la calidad: es un aspecto del que se habla mucho, pero que en realidad se suele actuar poco.
- Respuesta rápida ante los cambios de la demanda: es uno de los puntos más importantes, ya que el desarrollo se produce a un ritmo muy elevado y hay que saber adaptarse para no quedarse rezagado.
- Es básico capitalizar los recursos humanos por su capacidad intelectual.
- Es muy importante conseguir y mantener una competitividad globalizada.
Tema: Productividad
La productividad se define como la relación que existe entre las unidades producidas y los recursos empleados en dicha producción, es decir:
Vamos a tener, básicamente, dos formas de mejorar la productividad:
- O conseguimos disminuir las entradas (recursos consumidos), manteniendo constantes las salidas (unidades producidas) (siempre se puede hacer).
- O bien, con las mismas entradas, conseguimos aumentar las salidas (no siempre se puede hacer porque puede que el propio mercado no nos permita un aumento de las salidas).
A la hora de medir la productividad, nos vamos a encontrar con los siguientes problemas:
- Podemos llegar a variar la calidad, aunque no hayamos variado la calidad de entrada y salida.
- La productividad no solo va a depender de las entradas y salidas, sino que también depende de factores externos que nos van a influir.
- Podemos encontrarnos con que no tengamos las unidades de medida adecuadas, especialmente en el sector servicios debido a: la utilización de mano de obra intensiva, la realización de procesos individuales, que muchas de las tareas son intelectuales, o a que la mayoría de los procesos son muy difíciles de mecanizar o automatizar. Esto lleva a que, aunque en el sector servicios, la productividad representa un 75% de la mano de obra, solo va a aportar un 50% del PNB.
En la medición de la productividad, además de los problemas vistos, también tenemos que tener en cuenta las siguientes variables:
- La mano de obra: debe tener la formación adecuada, debe estar correctamente alimentada para obtener el rendimiento óptimo y requiere unos gastos sociales.
- El capital: ya que un aumento de este provoca un aumento de productividad.
- La gestión: que es la responsable de las dos terceras partes del incremento de la productividad.
Tema: Estrategia de Recursos Humanos
La estrategia de recursos humanos, o estrategia de personal, son los pasos a seguir para obtener un buen rendimiento de los empleados manteniendo la calidad de vida laboral (la idea es que el trabajador esté como en casa para que rinda al máximo) y estableciendo un compromiso y confianza mutua (la empresa y los trabajadores renuncian a ser enemigos).
Para establecer la estrategia, vamos a tener las siguientes áreas de decisión:
- La planificación de la mano de obra: fijando la estabilidad en el empleo, ya sea siguiendo la demanda mediante un ajuste constante de la plantilla (poco recomendable, solo para trabajos básicos), o todo lo contrario, manteniendo el empleo constante (es la situación ideal). También habrá que elegir el tipo de jornada laboral, escogiendo entre: estándar (continua o partida), flexible diaria o semanal (es el trabajador quien decide el horario de entrada y salida dentro de unos márgenes establecidos), elástica (es la empresa quien tiene la flexibilidad) o a tiempo parcial, ya sea fijo o eventual (no jornada completa).
- El diseño del puesto de trabajo: donde vamos a hacer especial hincapié en:
- Los equipos auto-dirigidos que son un grupo de personas con la formación correcta, adecuados a la función del equipo, con un objetivo claro y con un ciclo de vida establecido, que van a obtener una recompensa y/o reconocimiento por su labor.
- Sistema de motivación e incentivos. El trabajador, además de su sueldo, es bueno recompensarlo con pluses (por objetivos alcanzados), ya sean retribuidos o no, con una participación en los beneficios de la empresa, con un reparto en las ganancias o con incentivos por aumento de la productividad media. De esta forma conseguimos la motivación y el interés del trabajador, no solo por la remuneración, sino, lo que es más importante, el trabajador se da cuenta de que su esfuerzo se valora.
Tema: Tiempos de Trabajo
Determinar los tiempos de trabajo nos va a servir para conocer el coste de la mano de obra y, por lo tanto, poder realizar la estimación de costes antes de tomar las decisiones de producir, para conocer las necesidades del personal, para diseñar las líneas de producción con capacidad suficiente, para calcular la producción esperada, establecer las bases de los incentivos, o para poder determinar la eficiencia de los trabajadores.
Para calcular los tiempos de trabajo, disponemos de los siguientes métodos:
- Experiencia histórica: solo para productos poco repetitivos y cuyo periodo sea muy grande.
- Cronometraje: aparece la figura del cronometrador, que es el que obtiene el tiempo estándar mediante el siguiente procedimiento: lo primero será definir la tarea que vamos a estudiar, y una vez definida, hay que establecer los elementos en los que se divide y el número de muestras que será necesario tomar. Una vez que ya tenemos todo esto definido, pasamos a cronometrar los tiempos elementales y a estimar las actividades (entendemos la actividad como el ritmo de trabajo y se evalúa en función de si es normal u óptima); cuando ya hemos obtenido los tiempos elementales, se calcula: el tiempo normal, el tiempo normal de la tarea (como suma de los tiempos normales) y el tiempo estándar.
- Tiempos predeterminados: son tablas con tiempos elementales de movimientos unitarios y trabajos mentales; de forma que se pueden fijar antes de comenzar la tarea, por lo que no requieren estimación de la tarea, ni están influenciados por el operario. Son muy costosos, por lo que solo son rentables en series muy altas. Entre los tiempos predeterminados destacan el MTM y el Work Factor.
- Muestreo del trabajo: son observaciones aleatorias que solo se encargan de medir si el empleado está o no trabajando. Con este método podemos determinar los porcentajes de tiempo en espera, estándares de trabajo, y medimos también la actividad del trabajador.
- Estimación de tiempos: se emplea cuando tenemos que estimar el tiempo de duración de una tarea nueva de la que no se tienen referencias. Lo que se hace es ir comparando la tarea nueva con otras que sean similares de las que sí que se tienen datos, hasta que conseguimos acotar los tiempos.
Una vez conocidos los tiempos y las actividades, podemos establecer las curvas de incentivos que indican el tanto por ciento del salario que se debe pagar en función de la productividad alcanzada, es decir, para una productividad o rendimiento por debajo del 100%, el empleado cobrará solamente su sueldo, pero si su productividad o rendimiento superan el 100%, entonces pasará a cobrar su salario más un porcentaje de este como recompensas.
Tema: Ergonomía
Consiste en analizar los procesos industriales con el fin de acoplar los seres humanos con las máquinas, de forma que dicha combinación resulte confortable, segura y más eficiente.
La ergonomía está relacionada con distintos campos como pueden ser: la anatomía, la fisiología, la organización, la psicología, la ingeniería o la arquitectura.
Dentro de la ergonomía, vamos a estudiar los siguientes aspectos:
- Diseño del centro de trabajo: debe tener un equilibrio entre la actividad laboral, el ocio y el descanso. Debe estar bien comunicado y debe ser funcional a la vez que equilibrado.
- Diseño del puesto de trabajo: debemos adecuarlo a las necesidades del individuo y del proceso, fijándonos en cada trabajador y no en valores medios.
- Iluminación y color: el 80% de la información que percibimos nos llega a través de la vista, por lo que debemos tener unos niveles adecuados, a cada situación, de iluminación y contraste, así como un correcto ambiente cromático.
- Carga física de trabajo (fatiga): tenemos que tener en cuenta que, por la realización de un esfuerzo muscular, ya sea estático o dinámico, el trabajador se va a ir cansando y van a ir apareciendo una serie de efectos negativos que hay que estudiar y evitar.
- Mandos y señales: son muy importantes ya que son los medios por los que el operario se comunica con la máquina (mandos) y viceversa (señales).
- Ruidos y vibraciones: es uno de los puntos más importantes porque producen efectos muy negativos sobre el empleado. Siempre que se pueda, vamos a actuar sobre el origen de la causa para erradicarla.
- Ambiente térmico: le va a permitir al operario tener una temperatura corporal adecuada.
- Calidad del aire: debemos tener una correcta ventilación para evitar que la acumulación de gases y humos provoquen el síndrome del edificio enfermo.
- Máquinas y herramientas: la mecanización reduce el esfuerzo físico, pero aumenta la carga mental del operario, y en cuanto a las herramientas, estas deben estar adaptadas ergonómicamente y deben usarse exclusivamente para el fin para el cual se han diseñado.
- Alimentación: una correcta alimentación le va a proporcionar al trabajador un aporte continuo de energía.
Diseño del Centro de Trabajo
El diseño del centro de trabajo es muy importante, ya que en él se pasa buena parte del día, y además de trabajar se realizan otras tareas (descansar, comer,…), por lo que se va a buscar un equilibrio entre la actividad laboral, el ocio y el descanso.
Hay que diseñar el centro según la función que se va a desempeñar en él, pero además debemos cuidar la relación entre los ambientes exteriores e interiores, incluir equipamientos sociales (áreas de descanso, comedores, zonas de esparcimiento y ocio…), de forma y manera que, sin perder la función para la cual se ha diseñado el centro, resulte un conjunto completo y equilibrado.
En cuanto al emplazamiento del centro, habrá que estudiar el impacto ambiental (temperatura, humedad, luminosidad), así como el entorno social; además, debemos buscar la proximidad entre el entorno laboral y el doméstico, o en su defecto, una buena vía de comunicación.
Diseño del Puesto de Trabajo
No podemos organizar el puesto de trabajo en función de unos valores medios (porque realmente nadie se ajusta a los valores medios), sino que hay que considerar un mínimo y un máximo para los percentiles entre el 5 y el 95, siempre teniendo presentes la antropometría y la biomecánica.
Habrá que tener en cuenta tanto las características estáticas como las dinámicas; las características estáticas porque habrá que definir el espacio entre el cuerpo y el entorno circundante, y las características dinámicas, porque tendremos que tener en cuenta los movimientos necesarios para poder realizar el trabajo.
Además de organizar el puesto de trabajo, tendremos que hacer un estudio dimensional de este, en el que vamos a definir:
- La altura del plano de trabajo, en función de si el trabajo requiere precisión (plano alto) o si requiere fuerza (plano bajo).
- Las zonas de alcance óptimas, situando aquellos elementos más frecuentes y con menor peso más próximos para que el grupo de músculos empleados sea el menor (no nos vamos a levantar para coger un bolígrafo, a ser posible utilizaremos solo el antebrazo).
- Espacio reservado para las piernas.
- Diseño antropométrico del asiento, que se caracteriza por: una altura regulable para adaptarse a todas las necesidades, ser ancho, tener un buen fondo, debe tener un acolchamiento de espuma sobre una base rígida y cubierto con una tela transpirable, el borde anterior debe estar curvado hacia abajo, el asiento debe ser estable, para ello la longitud de las patas debe ser como mínimo igual a la anchura del asiento, y por último, los apoyabrazos, que deben ser lo suficientemente anchos para que el brazo esté correctamente apoyado y además deben estar curvados y llegar hasta abajo para que la mano no se quede suspendida en el aire.
Iluminación y Color
Una correcta iluminación y ambiente cromático es fundamental, ya que el 80% de la información que percibimos es a través de la vista.
En cuanto a la iluminación, tendremos que establecer que como condiciones esenciales debemos tener una distribución uniforme y una cantidad adecuada de forma que exista un equilibrio entre la radiación directa y la difusa (con sombras suaves), pero para evitar los deslumbramientos y las sombras excesivas, que además de ser peligrosos (la vista tarda unos segundos en acomodarse y mientras tanto estamos cegados), continuos cambios provocan un aumento de la fatiga (hay que tener cuidado con los puestos con pantallas de ordenador, porque tienen continuos cambios de contraste). Además, debemos facilitar el mantenimiento y tener una temperatura de color adecuada (se define la temperatura de color como la temperatura que debe tener un cuerpo negro absoluto (aquel que a 0 K no emite ninguna radiación) para que emita exactamente la misma radiación que el color que estamos estudiando).
Emplearemos los colores, en función de su simbología: rojo (peligro), naranja (calor o posible peligro), amarillo (precaución), verde (ayuda a la concentración), azul (frío), violeta (radiación). O en función de donde se vayan a emplear, de forma que para los techos utilizaremos colores claros con un factor de reflexión del 75%, para las paredes colores pastel con un factor de reflexión de 50-75%, para los suelos colores oscuros que dan sensación de firmeza con un factor de reflexión de 20-25%.
El nivel de iluminación va a depender del tamaño de los detalles a visualizar (poco tamaño, necesita más luz), de la distancia entre el ojo y el objeto (a mayor distancia, más luz), del factor de reflexión del objeto (si el objeto refleja mucha luz, necesitamos una menor iluminación), del contraste, ya sea entre los detalles del propio objeto o entre el objeto y el fondo (a mayor contraste, requeriremos menor luz) y de la edad del observador (a más edad, más luz).
Llamamos contraste a la diferencia de luminancias (brillos) en una dirección (el mayor contraste lo produce el negro sobre un fondo amarillo y el menor, el blanco sobre negro).
El deslumbramiento se produce porque tenemos una fuente brillante dentro del campo visual. Si esta fuente es directa, hablamos de deslumbramiento directo y si la fuente es por reflexión, el deslumbramiento es indirecto.
Los factores visuales que nos influyen en la iluminación son: la agudeza visual (capacidad para distinguir objetos muy pequeños próximos entre sí), la acomodación (la capacidad del ojo para enfocar objetos a distintas distancias) y la adaptación (capacidad del ojo para adaptarse a distintos niveles de luz).
Vamos a tener varios sistemas de iluminación como son: el general uniforme, el general con iluminación localizada de apoyo y el general localizado.
Carga Física del Trabajo (Fatiga)
La carga física de trabajo es el consumo de energía al que se ve sometida la persona en la jornada laboral. Si es superior a las 2500 kcal/día, aparece la fatiga.
Debido a movimientos repetitivos, aparecen una serie de patologías como son: el síndrome del túnel carpiano (compresión del nervio mediano), tendinitis, tenosinovitis o lumbalgias. Las lumbalgias aparecen, entre otras causas, por levantamiento incorrecto de cargas. Para levantar cargas, debemos colocar los pies a la altura de los hombros, bajar y subir la carga con la espalda recta flexionando las rodillas, los giros se realizarán con el cuerpo y no con el torso, y la carga debe ir lo más pegada al cuerpo posible.
Para que no aparezcan estas patologías, debemos evitar siete tipos de tareas: tareas con ciclos inferiores a 30 segundos, trabajos prolongados o repetitivos que necesiten más del 30% de la capacidad muscular, posturas extremas, mantenimiento prolongado de cualquier postura, trabajo con vibraciones, exposición de zonas del cuerpo al frío o contra zonas duras de forma repetitiva y cualquier combinación de las anteriores. También hay que tener cuidado con el uso de guantes porque disminuyen la sensibilidad y podemos estar haciendo más fuerza de la necesaria, lo que lleva a un aumento de la fatiga o a la aparición de alguna de las patologías vistas.
Para medir la carga física del trabajador, vamos a tener 3 métodos:
- Nivel 1: estimando la carga en base a la actividad. Es muy impreciso.
- Nivel 2: estimación basándonos en tablas con movimientos elementales.
- Nivel 3: medición directa (máxima precisión) o indirecta (muy buena precisión).
También nos produce fatiga la carga mental que tengamos y nos van a influir factores como el tipo de tarea en función de la cantidad y complejidad de la información que manejemos o como el tiempo del que se dispone para elaborar la respuesta o durante el cual tenemos que mantenernos en atención.
Hay que tener cuidado con la fatiga mental porque, aunque si es puntual no tiene mayor problema, si es crónica puede llevar a la inhabilitación permanente de la persona.
Mandos y Señales
El intercambio de información entre las máquinas y las personas se produce mediante los mandos si es de personas a máquinas o mediante señales si es de máquinas a personas.
Las señales que emiten las máquinas pueden ser:
- Señales visuales: se emplean para ambientes muy ruidosos cuando no se necesita una respuesta inmediata, si el mensaje es largo y complejo y hay que consultarlo. Las señales visuales deben dar la información justa y necesaria para no saturar el campo. Pueden ser luces (variando el color o el parpadeo) o indicadores, ya sean digitales (si necesitamos el valor exacto) o analógicos (para miradas rápidas; solo necesitamos el rango, no el valor exacto).
- Señales auditivas: se emplean cuando el campo visual está saturado, si es independiente de la posición del observador, cuando la visualización es limitada, o si necesitamos una respuesta rápida. Se suelen clasificar en informativas (transmiten una orden), de alerta (hay que prestar atención), de alarma (hay que actuar con rapidez) o de emergencia (situación límite).
Las señales, tanto visuales como auditivas, deben cumplir una serie de condiciones: compatibilidad, aproximación (avisa de otra señal), discriminación (frecuencias distintas), precisión (solo transmite la información necesaria), invariabilidad (no hay que cambiar), neutralidad (evita molestias) y nivel adecuado con el ruido ambiente.
Los mandos, como ya se ha dicho, son una vía por la cual las personas transmiten la información a las máquinas. Existen tantos tipos de mando como usos y funciones, y podemos destacar: la manivela, el volante, el botón, la palanca, el pulsador, el interruptor giratorio o el de palanca, el pedal…
Ruido y Vibraciones
El ruido se define como aquel sonido no deseado y molesto.
El oído humano tiene un rango de frecuencias muy amplio (de 20 Hz a 20 kHz), pero el rango de frecuencias para el cual es más sensible es mucho más estrecho (de 1 kHz a 4 kHz).
Para uniformar la respuesta del oído, la medición del ruido se mide en bandas de frecuencias, que a su vez se miden en dB. Se corrigen los valores de dB en cada una de ellas de forma que su sonoridad sea equivalente, es decir, igual número de fonios (se define un fonio como el número de dB de un sonido medidos a 1000 Hz, que el oído percibe como de la misma magnitud que otros de otras frecuencias diferentes). Al valor obtenido según la curva correspondiente a 40 fonios se le denomina dB(A).
Los aparatos que se emplean para medir el nivel de ruido se llaman sonómetros (pueden llevar filtros para obtener los valores ya en dB(A)). También empleamos el dosímetro, que nos mide la dosis total de ruido que recibe un individuo en un tiempo determinado.
Exposiciones de 8 h/día durante varios años a 80 dB(A) pueden llegar a producir pérdidas de audición.
Como las bandas de frecuencias que utilizamos para medir el ruido tienen un carácter logarítmico, un aumento al doble de la presión equivale únicamente a un aumento de 3 dB; por lo que una exposición durante 4 h/día a 93 dB produce el mismo efecto que una exposición durante 8 h/día a 90 dB.
El efecto de las vibraciones en el cuerpo suele medirse en términos de aceleración. Se miden con un vibrómetro y, al igual que con el ruido, también existen curvas de valores corregidos, en función de cómo sufre el cuerpo humano las vibraciones a distintas frecuencias. La norma ISO 2631 nos da las aceleraciones máximas para las distintas frecuencias que afectan a la totalidad del cuerpo y la norma ISO 5349 las que afectan a brazos y manos.
Para prevenir los efectos del ruido y las vibraciones, hay que actuar sobre el foco de emisión reduciéndolo, y si no es posible, aislándolo. Como último recurso, se deben emplear protecciones individuales.
Ambiente Térmico
Cuando el calor generado por el metabolismo (el basal más el laboral) más el calor recibido por radiación, convección o conducción es igual al calor perdido por la evaporación del sudor, se dice que una persona en actividad está en equilibrio térmico.
Si aumenta el primer término, ya sea el metabolismo o el calor recibido (aumento de la temperatura ambiente, existencia de focos…), o si disminuye el calor perdido por la evaporación del sudor (aumento de la humedad relativa, disminución de las corrientes de aire…), provocan un desequilibrio térmico y un aumento del estrés térmico de la persona.
Las condiciones ideales que deben existir en un puesto de trabajo para que tengamos equilibrio térmico son:
- En invierno: debe existir un rango de temperaturas entre los 20 y 24 ºC, la velocidad del aire no debe ser superior a los 0,15 m/s, la humedad relativa estará en torno al 50% (si es menor al 50% aparece sequedad en las mucosas, y si es mayor, hay sensación de bochorno) y la resistencia térmica del vestido debe ser igual a 1 clo (ropa interior, pantalón grueso, camisa de manga larga, jersey, calcetines gruesos y zapatos).
- En verano: la temperatura estará entre 23 y 26 ºC (es más alta que en invierno porque llevamos menos ropa), la velocidad del aire debe ser inferior a 0,25 m/s (en verano necesitamos un poco más de aire para refrescarnos), la humedad debe seguir en torno al 50%, la ropa será igual a 0,5 clo (pantalón ligero, camisa de manga corta, calcetines ligeros y zapatos).
Para prevenir el estrés térmico, podemos: disminuir el ritmo de trabajo, aumentar el número de pausas (para disminuir el ritmo de trabajo), generar corrientes de aire y/o colocar aire acondicionado, y rotar los puestos de trabajo.
Calidad del Aire
Es muy importante la correcta ventilación y renovación del aire para evitar lo que se conoce como síndrome del edificio enfermo, que es aquel edificio que, por alguna de sus características, provoca que sus trabajadores caigan continuamente enfermos.
Los factores que provocan el síndrome del edificio enfermo pueden ser:
- Factores contaminantes: son cualquier acumulación de gases, vapores, humos, etc. de origen químico como el CO (muy peligrosos por su carácter incoloro, inodoro e insípido), el CO2, el SOx o el NOx (que en combinación con la humedad ambiente producen ácidos muy dañinos), partículas químicamente activas (amianto, la fibra de vidrio, compuestos volátiles…), los hidrocarburos… o de origen biológicos como pueden ser las bacterias, los virus, los hongos…
- Factores físicos: entre los que destacan un exceso de ruido y una mala iluminación.
- Factores psicosociales: como pueden ser una mala organización del trabajo, provocada o no por unos ritmos o cargas de trabajo excesivas, o unas malas relaciones laborales que producen un entorno de trabajo incómodo y molesto.
Para prevenir todos estos factores, podemos:
- Renovar continuamente el aire. Es una solución muy buena porque evita que se produzcan elevadas concentraciones de elementos nocivos, pero es prácticamente inviable por el tremendo derroche energético que ello supone.
- Filtrado. Estos pueden ser mecánicos (necesitan mucho mantenimiento) o electrostático más un filtro de absorción (el filtro se encarga de absorber los elementos químicos del ambiente. Hay que cambiarlo con regularidad).
- Control de humidificación. Debemos asegurarnos de que la humedad ambiente se encuentre en torno al 50%, para que no provoque resequedad de las mucosas ni sensación de bochorno.
Tema: Procesos y Estrategias
Se conoce como estrategias de proceso al enfoque que adopta una organización para transformar los recursos en bienes. Su objetivo es encontrar una forma que satisfaga tanto las necesidades de los clientes como las especificaciones de los productos y servicios, a un coste concreto y bajo determinadas restricciones de gestión.
Los distintos tipos de procesos que podemos tener son:
- Enfocada a proceso: tenemos varias entradas y varias salidas. Se emplean para cuando el volumen de las series es bajo y hay mucha variedad. Tiene el problema de que es un tipo de estrategia con muy baja productividad.
- Repetitiva: tenemos muchas entradas y muchas salidas. Son muchas líneas de montaje para el ensamblaje de módulos prefabricados. Tienen una productividad media.
- Enfocada al producto: presenta pocas entradas y pocas salidas. Se emplea cuando la variedad es baja y las cadenas son largas. Empleada en la producción continua o en cadena. Tiene una productividad alta.
Para garantizar que las estrategias se llevan a cabo, aparecen los sistemas de control de estrategias como el PERT, el JIT, el MRP, las restricciones…
Hay que definir algunos de los conceptos relacionados con la estrategia de productos:
- Capacidad: es el máximo volumen de salida de una máquina o proceso en condiciones ideales. Llamamos capacidad efectiva o de utilización al cociente entre la capacidad esperada y la capacidad teórica máxima. Podemos definir también la capacidad estimada como el producto entre la capacidad teórica máxima, por la utilización, por la eficiencia, siendo la eficiencia el cociente de la cantidad de salida real y la capacidad efectiva, es decir, la relación entre lo que sale y lo que queríamos que saliese.
- Análisis de equilibrio: se llama también punto muerto y es aquel momento en el cual los costes totales son iguales a los ingresos totales.
La implantación de una estrategia de producción requiere de una inversión importante, por lo que habrá que realizar un estudio previo en el que analizaremos para cada uno de los casos: el capital necesario, los costes variables, el flujo de caja y el valor actual neto.
Para el caso del sector servicios, se emplea una estrategia enfocada a proceso, pero existe el problema de que el cliente interacciona con el proceso productivo, que junto con la baja inversión llevan a que tengan muy baja productividad. Va a ser muy difícil cambiar a una estrategia enfocada a producto, pero nos podemos acercar reduciendo la oferta, estructurando al servicio para que el cliente vaya donde necesita, separando los servicios que se pueden automatizar, proporcionando autoservicios…
MRP
Sigue cada proceso código a código, para cada uno estudia sus niveles y hace un fichero en función de las necesidades semana a semana. Antes de implantar el MRP, debemos formar correctamente al trabajador y asegurarnos de que comprende cómo funciona el sistema.
Se basa en una serie de elementos básicos: se implanta en función de un programa maestro de producción (PMP); gestiona los artículos de demanda dependiente e independiente; nos proporciona una lista de materiales estructurada por niveles; crea y gestiona unos archivos de inventario; nos proporciona los tiempos de producción y/o de adquisición para cada fase de cada componente; nos proporciona la recepción programada, que es la cantidad que se espera recibir de un componente; nos determina el inventario final proyectado, o cantidad que debe existir en los almacenes al final de cada período una vez recibidas las reposiciones y satisfecho los requerimientos brutos; calcula la recepción planificada, entendiéndose como tal, la cantidad que se espera recibir a comienzos del período futuro.
Cuando tenemos todos los elementos establecidos correctamente, el MRP nos va a calcular las necesidades brutas (cantidad necesaria de cada componente para cumplir el programa establecido por el PMP) y netas y las remisiones planificadas (órdenes de fabricación que deben efectuarse en un período una vez recibidas las reposiciones y satisfecho los requerimientos brutos) en función del PMP o de los períodos reales conocidos (si el plazo de entrega es superior al plazo de fabricación), estableciendo lo que hay que fabricar en el período actual.
Si se produce un cambio en las necesidades brutas, podemos hacer un cambio regenerativo o una actualización de cambio neto que solo afecte a los elementos que han sido cambiados (más rápida).
En el proceso productivo, trabajamos con lotes de producción. Para establecer el tamaño del lote, podemos: lote a lote, si los costes de preparación son bajos, vamos a pedir solo las necesidades de cada período. Lote económico de fabricación o compra, dependerá de la cantidad periódica de pedido y del algoritmo de pedido parcial.
Al implantar el MRP, debemos tener las siguientes precauciones: debemos realizar inventarios rotativos de los almacenes de forma frecuente para tener actualizados los ficheros; se deben informar todas las órdenes de fabricación o compra, sobre todo, si se han obtenido menos unidades y no es rentable fabricar el resto pendiente; normalmente podemos introducir existencias y tiempos de seguridad, como por ejemplo un factor de desecho en aquellos productos que tengan facilidad de romperse, o si los proveedores no son muy fiables, debemos incluir un sobredimensionamiento del pedido, pero hay que tener cuidado de donde se aplican estas existencias de seguridad, porque si las aplicamos en toda la cascada del producto o en todos los pedidos, podemos tener excesivamente sobredimensionado el almacén, hasta darse el caso de que llegue el pedido y tengamos el almacén lleno.
MRP II
Dado que el MRP, que hemos visto, no incorpora el estudio de la planta ni de los proveedores, considerando así una capacidad infinita y dejando que sea la práctica la que regule el problema. Esto provoca que cuando tenemos una producción muy compleja, el sistema sea muy complicado de manejar.
Para solucionar este problema, aparece una evolución del MRP que es el MRP II.
Este sistema incorpora ficheros de rutas y capacidades, cuyo objetivo es informar de posibles cuellos de botella (solo vamos a tener, en un instante determinado, un único cuello de botella, pero cuando lo solucionemos, nos aparecerá otro elemento que nos genere otro nuevo) o incumplimiento de los proveedores.
Con esta información se puede actuar sobre los problemas desviando alguna fase de la producción por rutas alternativas, dividir los pedidos entre más proveedores, usar máquinas equivalentes, o incluso, subcontratar lo que no seamos capaces de producir.
Como evolución del MRP II, aparece el PLE, que incorpora al sistema todos los pasos de la cadena de valor, llevando así el sistema a la totalidad del proceso.
Just in Time (JIT)
En el JIT, la demanda es la que tira de la producción, de forma que cualquier modificación en la demanda nos va a modificar toda la producción.
Se basa en reducir drásticamente los tiempos de preparación en planta y los plazos de entrega de proveedores para fabricar y comprar solo lo que se requiere para satisfacer la demanda conocida ya vendida, reduciéndose casi a cero los almacenes, aunque en la práctica no lleguen a cero porque en todas las secciones hay pequeños stocks para satisfacer la demanda de puestos posteriores.
Generalmente, a estas acciones se les une un plan de mejora continua de todas las áreas de la empresa.
Para que el JIT funcione correctamente, debe ser un sistema muy rígido, ya que es un sistema muy sensible a los fallos de calidad y de plazo en cada una de las operaciones, por lo que dos aspectos que van a tener mucha importancia son: el mantenimiento de los equipos para evitar dichos fallos, así como la selección y compromiso de los proveedores, que pueden llegar incluso a situarse junto a las líneas de producción.
Para nivelar la capacidad productiva de los distintos puestos de trabajo de la planta, se emplean programas heurísticos de ordenador que realizan la nivelación en dos pasos:
- Crean un plan de trabajo para el período fijo, pudiendo ser la producción de cada día variada, pero intentando que las secuencias sean similares entre un día y otro.
- Crean una secuencia base dentro de cada día, que se repite varias veces a lo largo del día.
El problema de que el JIT sea tan riguroso es que va a presentar los siguientes problemas:
- Si por algún problema de calidad, se para un puesto, entonces se va a parar toda la producción.
- Si los proveedores fallan y no nos proporcionan las materias primas, no vamos a poder producir.
- Si falla alguna máquina, pasa como con los problemas de producción, que se va a parar todo.
Operaciones Sincronizadas
Se centra en la importancia de maximizar la utilización de los recursos cuellos de botella. Por lo tanto, los incentivos deben ser colectivos.
Es más sencillo porque no es un sistema tan rígido como los anteriores, ya que no depende de un programa de ordenador que nos gestione la producción.
Se basa en cinco principios:
- Permitir que el recurso cuello de botella marque el ritmo de la producción, es decir, si adaptamos toda la producción al ritmo del cuello de botella, evitamos que se produzcan acumulaciones y retrasos en dicho recurso.
- Emplear tamaño de lotes variables para reducir los inventarios de obra en curso (ahorrar una hora de un recurso que no es cuello de botella no sirve para nada, es una hora ficticia).
- Hacer énfasis en el incremento de la capacidad del cuello de botella, haciendo que el mantenimiento dependa del propio operario, para evitar que se pare la producción; instaurar varios equipos de trabajo y solapar los descansos, para que mientras unos descansan, otros trabajen, de forma que siempre se esté produciendo; suministraremos el número exacto de piezas en los cuellos, ya que estos no pueden gestionar más piezas.
- Establecer reservas de inventario junto a los cuellos de botellas. Estas reservas visibles nos van a servir de indicador, ya que no se debe recurrir a ellas, de forma y manera que si vemos que se ha producido una disminución de las reservas es porque está pasando algo y vamos a poder actuar en el momento.
- Intentar mejorar el sistema para que la necesidad de inventarios de reserva disminuya hasta que no sean necesarios.
En función del tipo de empresa que tengamos, vamos a implantar un tipo de estrategia, de forma que:
- Si la producción es orientada a proceso y si no son muy grandes, emplearemos operaciones sincronizadas.
- Si se van a fabricar gran variedad de productos con gran estabilidad en el tiempo, vamos a emplear un JIT, o por lo menos, si no en totalidad, implantaremos un MRP para el principio y un JIT para las fases finales.
- Para las empresas de servicios donde dependen fuertemente de la demanda (si aumenta la producción, disminuye el precio), lo mejor será implantar un MRP.
Tema: Logística
Se encarga de la planificación, la organización y el control de todas las actividades relacionadas con la obtención, el traslado y almacenamiento (los sistemas de almacenamiento pueden ser por huecos libres, si vamos colocando donde existe un hueco; o por huecos asignados, si cada producto tiene su referencia) de los materiales y productos desde su adquisición hasta el consumo, a través de toda la organización, de forma integrada e incluyendo el flujo de información, que es fundamental.
Se define la logística integral como aquella logística que se encarga de la coordinación de los proveedores, los productores y los clientes, y los canales de distribución entre ellos.
El objetivo de la logística es conseguir que los productos y/o servicios estén en el lugar adecuado, en el momento preciso y en las condiciones previstas. Dentro de la logística, hay que definir: las áreas básicas de la logística, que son el aprovisionamiento, la producción y la distribución, ya que existe, entre ellas, unas zonas comunes o “tierra de nadie”, donde aparece un entorno competitivo dentro de la misma empresa; las actividades fundamentales, como el procesado de pedidos, la gestión de inventario, el transporte, y el nivel de servicio al cliente; y por último, lo que son actividades de apoyo de la logística, como las compras, el almacenamiento, el tratamiento de las mercancías y la gestión de la información.
Una vez establecido el territorio de la logística, vamos a necesitar definir los flujos de materiales, productos e información que se dan dentro de ella: aguas abajo o descendente: son los flujos de materiales y productos. Presenta un subsistema que se encarga del aprovisionamiento, la producción y la distribución. Aguas arriba o ascendente: es el flujo correspondiente a la información documental.
El sistema logístico es una combinación del sistema descendente y del ascendente para la obtención de un objetivo logístico. Todas las operaciones logísticas añaden costes, pero no todas añaden valor, y estas hay que identificarlas y eliminarlas. Para mejorar la eficiencia del sistema logístico, debemos mejorar el margen comercial (disminuyéndolo) y el coeficiente de rotación (aumentándolo) (cuanto más rápido seamos capaces de recuperar el capital invertido, más vamos a rotar el capital y más vamos a ganar), además aparece el rendimiento sobre la inversión que se define como el cociente entre beneficio neto y el capital.
Definimos el punto de penetración del pedido como el porcentaje en que el plazo de aceptación para el servicio de un pedido cubre el tiempo total de producción del producto y la obtención de sus componentes (si es del 100% estamos bajo pedido), si no es del 100%, hay que almacenar en el punto correspondiente al punto de penetración.
La parte anterior al punto de penetración, en sentido descendente, debe gestionarse mediante un sistema de lotes y stocks de seguridad o con un MRP, mientras que aguas arriba puede gestionarse con JIT. En el JIT, la información de pedidos y el tratamiento de los mismos ha de producirse en tiempos mínimos, así como también el aprovisionamiento y la distribución (principio de Quick Response (QR)).
Operadores Logísticos
Los operadores logísticos son empresas de transporte que, además del transporte en sí, añaden algunos de los siguientes servicios que nos aportan valor al producto, es decir, aunque aumente el coste, nos están proporcionando un servicio que para nosotros tiene valor:
- Almacenamiento: solo nos añade el coste, podemos tener total o parcialmente los almacenes de nuestra empresa en el operador logístico.
- Descarga y gestión de stocks y almacenes.
- Aprovisionamientos y transportes a larga distancia.
- Distribución: el operador logístico no solo nos almacena el producto, sino que además lo distribuye entre nuestros clientes.
- Envasado y etiquetaje: podemos comprar el producto por un lado y el embalaje por otro, y es el operador quien los embala, los etiqueta y los distribuye.
- Manipulaciones.
- Gestión de la importación y de la exportación.
- Gestión de activos: aparecen el leasing, que es un arrendamiento financiero, es decir, otra empresa compra el producto y me lo vende a mí en concepto de alquiler, por lo que a mí me consta como gasto y no como inversión, disminuyendo así los impuestos que hay que pagar; y el renting, es igual que el leasing, pero la empresa que se encarga de comprar el producto y vendérmelo en alquiler, también se va a encargar de todo lo demás: del mantenimiento, de los costes… que van asociados a dicho producto.
- Cesión de personal y alquiler de equipos: este servicio, junto con el de gestión de activos, son los más discutibles de estar aquí, ya que son servicios más propios de otras empresas más especializadas.
Tema: Confiabilidad
La confiabilidad se define como la posibilidad de que un producto o servicio desempeñe la función para la que se había previsto, durante un período y unas condiciones establecidas.
Se aplica normalmente desde el diseño, a aquellos productos y/o servicios que no se vayan a utilizar solo una vez y que estén compuestos de elementos múltiples que interactúan entre sí. La confiabilidad de un sistema es menor que la de cada uno de sus componentes por separado, salvo que la confiabilidad de todos sus componentes sea 1.
Como en los servicios intervienen las personas, lo cual incluye una variabilidad muy elevada, la confiabilidad de los servicios será, en la mayoría de los casos, menor que la de los productos.
Para mejorar la confiabilidad del sistema, podemos incluir elementos redundantes, de forma que si falla uno, vamos a tener otro que siga funcionando; aumentar la propia confiabilidad de los elementos que componen el sistema, buscando siempre que el elemento débil sea el más fácil de reponer y el elemento crítico el que tenga una mayor confiabilidad; mejorar las condiciones de trabajo, es decir, sin llevar el sistema al borde de su capacidad; efectuar un mantenimiento preventivo, aunque habrá que estudiar en cada caso cuál es el mantenimiento que más nos conviene; tener un sistema de reserva, solo para aquellos sistemas tan críticos de los que no podemos prescindir; acelerar el proceso de reparación, dejando la reparación en manos del trabajador, ya que es él el que mejor conoce la máquina, tiene los conocimientos suficientes y los materiales adecuados, de forma que en cuanto se estropea, la repara y sigue trabajando sin que afecte a la producción; aislar elementos del sistema, para que si falla algo no afecte al resto; por último, aceptar el riesgo, si estudiamos los costes de mejora de la fiabilidad y los de los costes por los fallos, puede que sea compensable.
Definimos la confiabilidad instantánea como la probabilidad de que un sistema funcione adecuadamente cada vez que quiera usarlo, depende de si los elementos están conectados en serie (la confiabilidad del conjunto es el producto de las confiabilidades de los elementos, por lo que el conjunto tendrá una confiabilidad menor) o en paralelo (la confiabilidad es la suma de las confiabilidades de los elementos menos la confiabilidad conjunta de ellos, la confiabilidad del conjunto resulta mayor).
La confiabilidad continua se define como la probabilidad de que un producto y/o servicio funcione durante un período de tiempo dado. Se aplica en garantías. Durante el período de vida útil, los fallos son aleatorios y siguen una distribución exponencial negativa. La distribución de los fallos de un sistema en el tiempo tiene tres fases (se conoce como curva de la bañera).
Tema: Mantenimiento
El mantenimiento depende de si hablamos de un equipo, el cual tiene su manual que nos indica el mantenimiento que requiere, o si hablamos de la empresa en sí, en la cual vamos a tener nuestro equipo de mantenimiento que se va a encargar de ello.
Los tipos de mantenimientos que podemos implantar son:
- Mantenimiento correctivo: espera a que se produzca el fallo y entonces lo arregla, tiene el problema de que dejamos que se produzca la avería, pero la ventaja de que agotamos la vida útil de la pieza.
- Mantenimiento preventivo: se realiza un plan, ya que conocemos la vida útil de los elementos de los equipos, de forma que sabemos cuándo se va a producir la avería y actuamos antes de que se dé. De esta forma mantenemos el equipo sin averías, pero con el inconveniente de estar desechando un elemento que aún tiene vida útil. Se emplea si el tiempo de mantenimiento preventivo es mucho menor que el correctivo y además el fallo puede provocar una avería muy grave.
- Mantenimiento predictivo: para elementos muy caros de gran criticidad. Colocamos un indicador que nos avisa de cuando un elemento acaba de gastar su vida útil y ha entrado en período de desgaste y hay que cambiarlo. Es muy caro, pero vamos a aprovechar toda la vida útil del elemento y además evitamos que se dé la avería.
Si conocemos el tiempo medio que necesitamos para reparar el equipo (TMPR) y conocemos el tiempo medio que transcurre entre los fallos (TMEF), vamos a poder determinar el período de disponibilidad del que dispone dicho equipo, como el cociente entre el TMEF y la suma del TMEF y el TMPR.
Tema: Gestión de la Calidad
Hablamos de que un producto tiene calidad cuando satisface las expectativas de los clientes, es decir, la calidad se va a medir en función del grado de satisfacción del usuario.
Hay que buscar que la calidad de proyecto o diseño, que está en concordancia con las demandas del mercado y establece los niveles de calidad que deben alcanzarse en la fabricación de productos; y la calidad de concordancia (establecida entre el diseñador y fabricación) entre el proyecto y lo fabricado, sean lo más parecidas posibles.
Decimos que hay una gestión integral de la calidad cuando existen unos esfuerzos efectivos en toda la empresa.
La política de calidad de una empresa viene dada por la norma 9000/2000 que exige la satisfacción 100% del cliente y un proceso de continua mejora. La mejor manera de realizarlo es mediante una correcta gestión de las reclamaciones de los clientes. En la política de calidad, vamos a necesitar que se implique la gerencia y un manual de calidad que se compone de: una declaración de intenciones, los procedimientos que deben realizarse, una correcta sintaxis, revisiones continuas (mejor por internet para evitar el follón administrativo) y una lista de distribución.
Aunque debemos asegurarnos de que el producto se fabrica correctamente, de forma que al final hemos obtenido un producto con la calidad deseada (“la calidad no se controla, se fabrica”), vamos a implantar un control de calidad, que controla el nivel de calidad y determina su aceptación o rechazo, y la gestión de la calidad. A esto se le denomina autocontrol, y se va a implantar a lo largo de toda la cadena, excepto al final, donde los controladores lo comprueban personalmente.
La gestión de la calidad está compuesta por una serie de áreas funcionales que son:
- Ingeniería de calidad: es un área en alza y constituye todo lo que se encarga de la prevención y de evitar los fallos, se encarga de: planificar y administrar el sistema; definir los métodos de control (nivel de calidad, pautas de inspección, control de equipos); control de proyectos (análisis de planos y especificaciones, ensayos de funcionalidad y vida); estudios de costes de calidad, evaluación y selección de proveedores; estudios de las reclamaciones (es la mejor fuente de información sobre cómo funcionamos).
- Inspección: esta área tiende a desaparecer porque nos supone un coste, pero no añade valor al producto. Se encarga de: detectar los fallos; identificar las causas; establecer medidas correctoras; establecer medidas preventivas.
- Auditoría: también es un área en alza. Se encarga de comprobar que el sistema se cumple, que estamos obteniendo los resultados esperados, y analiza el sistema para proponer mejoras.
Costes de la Calidad
Incluimos en el coste de la calidad todos los costes de personal, materiales y equipos empleados de la empresa que estén relacionados con la calidad. Si la gestión de la calidad se realiza bien, los costes de calidad son mínimos, pero si no se realiza bien, los costes aumentan infinitamente. Podemos clasificar los costes de calidad en contables o no contables en función de si son medibles o no. Otra clasificación puede ser:
- Internos: están compuestos por los costes de prevención como: administración e información de la calidad, ingeniería de control de la calidad, verificación de los medios de control, adiestramiento para la calidad, supervisión y evaluación de los proveedores, etc.; los costes de evaluación, dentro de los que entran la inspección de recepción, la inspección del proceso, las auditorías de calidad, etc.; y por último, los costes asociados a los fallos internos, que se detectan dentro de la empresa, entre los que destacamos los productos y materiales inútiles, las recuperaciones, las inactividades por falta de materiales, etc.
- Externos: son los costes asociados a los fallos que se detectan en las manos del cliente, se detectan mediante: las reclamaciones en garantía, la administración de las garantías, análisis de las devoluciones, sustituciones…
Hasta ahora hemos estudiado los costes que podemos medir, pero una mala calidad también nos provoca unas pérdidas no contables que influyen disminuyendo las ventas, como por ejemplo la mala imagen de producto y/o marca, la falta de disponibilidad de los stocks o aquellas reclamaciones que tengan repercusión mediática.
Por lo tanto, aparecen unas curvas de costes de la calidad, que están en función de los costes de los fallos y los costes de la prevención:
Observamos como el coste mínimo de la calidad no se produce cuando tenemos una calidad 100%, es más, la calidad 100% tiene un coste infinito, sino que el coste mínimo se da en el equilibrio entre los costes de los fallos y los costes de la prevención.
Tema: Control Estadístico de Procesos
Llamamos control estadístico de procesos a la aplicación de técnicas estadísticas con el objetivo de determinar si el proceso concuerda con el diseño del producto o servicio correspondiente.
Como estamos aplicando técnicas estadísticas, vamos a tener diversas fuentes de variación, que podemos clasificar en:
- Causas comunes: son aquellas causas aleatorias, no identificables, imposibles de evitar y que están caracterizadas por la media, la expansión (rango y/o desviación típica) y la forma (simétrica o asimétrica).
- Causas asignables: cuando existen factores de variación identificables y eliminables que afectan a la localización (posición respecto a la media), la expansión y la forma. Decimos que un proceso está bajo control cuando la localización, la expansión y la forma de su distribución no cambian con el tiempo.
Para el control estadístico de procesos, vamos a necesitar utilizar las gráficas de control. Las gráficas de control aparecen porque al efectuar el muestreo a lo largo del tiempo de una determinada característica de calidad se obtienen valores que se pueden representar en gráficas con una línea central (objetivo) y dos acotamientos (superior e inferior) que nos indica si el proceso está bajo control (si no se superan). Si la oscilación se mueve entre los límites, decimos que ocurren causas comunes, mientras que si no estamos bajo control, diremos que existe una causa asignable que habrá que identificar y eliminar. Estos límites se suelen establecer como un número de veces el valor de la media, que suele coincidir con el valor central.
La capacidad de procesos define la capacidad de un proceso que está bajo control estadístico para cumplir las tolerancias de las especificaciones de diseño. Cuanto mayor sea el nivel de acotamiento de control, la acotación es más estrecha y hay más probabilidad de que el producto o servicio quede dentro de las tolerancias de servicio. Si cumplimos las especificaciones del diseño, decimos que el proceso es capaz.
Si somos capaces de trabajar entre los límites de control (dados por la máquina), decimos que estamos bajo control. Si somos capaces de trabajar entre los límites de tolerancia (impuestos por el cliente), decimos que somos capaces. Tiene prioridad ser capaz a estar bajo control.
Planes de Muestreo
El muestreo de aceptación se emplea para, a partir de una pequeña muestra del lote, decidir si un lote de material se acepta o se rechaza sin que tengamos que inspeccionar todo el lote. Se realiza en tres pasos:
- Tomamos una muestra aleatoria (empleando las tablas de números aleatorios, no con los ordenadores porque se basan en unos algoritmos para generar los números aleatorios y, por lo tanto, no son 100% aleatorios) y medimos la característica de calidad investigada.
- Si la muestra pasa la prueba, el muestreo entero es aceptado.
- Si la muestra no pasa la prueba, se puede rechazar todo el lote o bien someterlo a un muestreo del 100%.
Dado que ningún plan de muestreo, excepto el muestreo 100%, puede garantizar que una vez definido un nivel aceptable de porcentaje de unidades defectuosas y realizado el muestreo, podamos garantizar que en la totalidad del lote va a existir el mismo porcentaje de defectos que en la muestra; podemos cometer dos tipos de errores: de tipo I, que es el porcentaje de lotes que pueden ser rechazados aun siendo válidos (riesgo del productor); o de tipo II, que es el porcentaje de lotes que pueden ser aceptados cuando se tenían que rechazar (riesgo del consumidor).
Para llevar a cabo el muestreo de aceptación, tenemos que establecer los planes de muestreo que vamos a emplear. Pueden ser:
- Simple: se toma una única muestra de tamaño n, y en función de si el número de defectos encontrados supera o no el número de defectos permisibles c, se rechaza o acepta el lote.
- Doble: tenemos dos tamaños de muestras n1 y n2, y dos números de aceptación c1 y c2. Si el número de defectos de la muestra n1 es menor que c1, entonces se acepta el lote y si es superior a c2 se rechaza; si el número de defectos está entre c1 y c2, se añaden n2 elementos y se analiza la característica de calidad, si el número de fallos encontrados es inferior a c2, se acepta y si es superior se rechaza todo el lote.
- Secuencial: trazamos una gráfica con los límites de aceptación y rechazo en función del número de elementos inspeccionados. Se toma una muestra y si el valor supera los límites de aceptación o rechazo, se acepta o se rechaza el lote; si el valor está entre ambos límites, se vuelve a tomar una segunda muestra, el proceso se repite hasta que superemos uno de los dos límites.
La calidad saliente promedio es el nivel de calidad que tiene un lote en el que: si el lote ha sido aceptado, hemos sustituido el número de defectos encontrados por unidades sin defectos; y si el lote ha sido rechazado, hemos realizado un muestreo del 100% de las unidades y hemos reemplazado todas las unidades defectuosas por unidades buenas.