La forma actual de dirigir es considerablemente diferente de la utilizada por quienes dirigían las empresas hace tan sólo una generación
Enviado por Jillian • 3 de Diciembre de 2018 • 3.685 Palabras (15 Páginas) • 375 Visitas
...
La personalización en serie funciona especialmente bien en productos de alta gama, ya que dentro de este segmento las necesidades de los clientes suelen ser más variadas y éstos están más dispuestos a pagar un precio más elevado, principios de la década de 1980 nació en Estados Unidos –en parte como reacción al malestar por la supremacía de las empresas japonesas- la reingeniería de procesos comerciales (BPR, del inglés Business ProcessRe-engineering) que era una variante moderna de la gestión científica de Taylor, aunque con el añadido de una importante dosis de producción ajustada.
Tal y como escribió Michael Hammer, uno de los partidarios de la BPR más conocidos: “Si hoy tuviera que volver a crear esta compañía, teniendo en cuenta lo que sé y la tecnología actual, ¿cómo lo haría?” Las mejoras que busca la BPR incluyen costes más bajos y tiempos de ciclo más cortos, lo cual se consigue eliminando las actividades innecesarias, a los empleados que las ejecutan y los niveles jerárquicos que las gestionan, pero al igual que si alguien habla de producción científica es probable que se le acuse de esclavista, hablar de reingeniería a las claras muchos lo identifican con capitalismo “salvaje”. En las décadas de 1980 y 1990 se puso en marcha la revolución de la gestión de la cadena de suministro (SCM, del inglés Suply Chain Management).
Estas innovaciones pretendían mejorar la eficacia de toda la cadena de suministro, dejando de centrarse exclusivamente en aquellas actividades propias de una compañía. La última gran innovación en la gestión de procesos es seis sigma, introducida por John Smith en Motorola en 1987 y luego asumida por. General Electric. Seis sigmas era una extensión lógica de la gestión de la calidad total, ya que aplicaba mecanismos estadísticos de control de procesos para eliminar defectos pero en una escala mucho más extensa. TQM se fijaba como meta los cero defectos, pero veía como aceptable que en una fábrica se produjera un defecto por cada mil productos elaborados.
Por el contrario, en seis sigma el objetivo de los cero defectos se mantenía pero todos los procesos productivos tenían que ajustarse para que nunca se produjeran más de 3,4 defectos por cada millón de productos fabricados, con el tiempo seis sigma, se convirtió en una de las grandes innovaciones en gestión (tanto en fábricas como en empresas de servicios) de los noventa gracias, en parte, a la eficaz manera de empaquetar las herramientas y los métodos para su uso por parte de otras empresas, como hemos visto, considerada en su conjunto, la gestión de procesos ha evolucionado de manera básicamente lineal y directa.
La siguiente ola de innovaciones en contabilidad se remonta al siglo XIX, con la introducción de los análisis coste-beneficiocomo medio para evaluar los costes y los beneficios antes de decidir poner en marcha un proyecto en particular, y después con la contabilidad de costes para que las empresas pudieran disponer de información detallada sobre los inductores de costes de varias actividades. El invento de la contabilidad de costes permitió realizar un seguimiento, registrar y analizar los costes asociados a los productos o actividades de una empresa. La práctica de la contabilidad de costes evolucionó desde el simple registro de los costes históricos, hasta la asignación de una parte de los costes fijos de un período de tiempo concreto a los artículos
Las empresas pudieron definir como coste estándar un coste predeterminado que tenía en cuenta un cierto nivel aceptado de costes de mano de obra, gastos generales y demás, a continuación, el coste estándar se utilizaba como referencia a partir de la cual se juzgaba el rendimiento y se medía la eficacia, así pues, si yo creo que el hecho de realizar una tarea concreta en un tiempo concreto debería costarme X, teniendo en cuenta todos los costes, esta unidad de medida me permitirá medir mi rendimiento y eficacia en esta tarea, en palabras de Andrew Carnegie, el propietario de la acerera norteamericana y uno de los primeros en introducir la contabilidad de costes: “Antes de este sistema contable éramos como topos cavando en la oscuridad, la contabilidad de costes nos enseñó qué hacía cada hombre, quién ahorraba material, quién lo malgastaba y quién producía los mejores resultados”. Más recientemente, el ROI se ha calculado simplemente restando los costes de inversión de los beneficios y después dividiendo el resultado por los costes de inversión.
El ROI permite comparar mucho más directamente el rendimiento de múltiples divisiones de una empresa o incluso de múltiples empresas, que quizá operan en diferentes sectores industriales, algunos han comentado que el trabajo con el ROI –y otras medidas similares como el ROA, ROE o EBITDA) lleva a concentrarse en exceso en el éxito financiero a corto plazo en detrimento de otros indicadores también importantes para el éxito de una empresa, como la cuota de mercado o la satisfacción de clientes y empleados. Además, si los directivos y empleados se juzgan a partir de un único criterio de éxito, se convierten en muy eficientes en la manipulación de los resultados del criterio en cuestión.
En la década de 1960 ya se habían aplicado las técnicas básicas de contabilidad y de elaboración de presupuestos, pero, evidentemente aún quedaban muchos retos, la cada vez mayor complejidad de las compañías hacía que fuera mucho más difícil asignar los costes de una manera justa a las diferentes actividades; y la importancia cada vez mayor de los activos de “conocimiento”, en detrimento de los activos físicos como fábricas y los equipos, hizo que fuera mucho más difícil asignar un valor a las empresas. Los sistemas de contabilidad tradicionales evaluaban en primer lugar los costes directos, como las materias primas o los servicios comprados externamente, y después añadían un cierto porcentaje de costes indirectos en función de los gastos generales que se producían en los diversos departamentos y demás divisiones de la organización, no obstante, a menudo surgían distorsiones debido a que se asumía que los recursos se consumían en relación directa con el número de artículos producidos, cuando estos cálculos de costes distorsionados se utilizaban para determinar los precios de los productos, los problemas potenciales se convertían en reales –algunos productos se vendían a precios inferiores a la tasa de rentabilidad aceptable, mientras que los productos de precio excesivo se vendían poco, con lo cual el efecto neto sobre la rentabilidad era altamente negativo.
Por ejemplo, Texas Instruments introdujo el concepto del presupuesto de base cero en 1969 para que sus directivos empezaran cada ciclo presupuestario
...