UNIVERSITAT AUTONOMA DE BARCELONA DEPARTAMENT D´ ECONOMIA DE L´EMPRESA TESIS DOCTORAL En Dirección y Administración de Empresas ANALISIS DE LAS DIFICULTADES FINANCIERAS DE LAS EMPRESAS EN UNA ECONOMIA EMERGENTE: LAS BASES DE DATOS Y LAS VARIABLES INDEPENDIENTES EN EL SECTOR HOTELERO DE LA BOLSA MEXICANA DE VALORES DIRECTOR: Dr. Joan Montllor i Serrats PRESENTADA POR: Alberto Ibarra Mares BARCELONA, JUNIO DE 2001. _______________________________________ Indice General y Agradecimientos INDICE AGRADECIMIENTOS PARTE I INTRODUCCION Y ANTECEDENTES CAPITULO 1: ESTRUCTURA GENERAL DE LA TESIS 1.1. 1.2. 1.3. 1.4. Objetivos e Importancia de la Investigación Descripción General de la Metodología Problemas y Limitaciones de los Modelos Predictivos Alcance y Limitaciones de la Investigación 1 4 10 12 17 CAPITULO 2: ANTECEDENTES HISTORICOS 2.1. Estudios Univariables y Multivariables para Predecir Quiebras 2.2. Etapa Descriptiva a través del Método de Ratios 2.3. Inicio de la Etapa Predictiva a través de Modelos Univariables con Base Histórica 2.3.1. Modelo Beaver 2.4. Desarrollo de la Etapa Predictiva a través de Modelos Multivariables con Base Histórica 2.4.1. Modelo Altman 2.4.2. Algunos Estudios de Países Emergentes Basados en el Modelo Altman 2.4.3. Modelo Deakin 2.4.4. Modelo Edmister 2.4.5. Modelo Blum 2.4.6. Modelo Ohlson 2.4.7. Modelo Rose y Giroux 2.4.8. Modelo Taffler 2.4.9. Modelo Zavgren 2.5. Estudios Basados en Flujos de Efectivo para Predecir Quiebras 2.5.1. Modelo Dambolena y Khoury 2.5.2. Modelo Casey 2.5.3. Modelo Casey y Bartczak 2.5.4. Modelo Gentry, Newbold y Witford 2.5.5. Modelo Takahasi y Kurokawua 2.6. Modelos Multivariables basados en el Análisis Factorial 2.6.1. Modelo Pinches, Mingo y Caruthers 2.6.2. Modelo Chen y Shimerda 2.6.3. Modelo Gombola y Ketz 2.6.4. Modelo Gombola, Haskins, Kentz y Williams 2.7. Modelo de Redes Neuronales de Giancarlo y Varetto 24 28 33 33 39 41 49 61 65 71 75 79 80 82 85 87 89 91 94 96 101 102 106 107 112 114 _______________________________________ Indice General y Agradecimientos PARTE II MARCO TEORICO CAPITULO 3: LA ESTRUCTURACION DE LAS BASES DE DATOS Y EL EFECTO WINDOW DRESSING 3.1. El Efecto Window Dressing y su Repercusión en la Utilidad del Sistema Contable 3.1.1. Estructura Conceptual y Categorías Básicas de la Técnica Contable 3.1.2. Características de la Información Contable 3.1.3. La Contabilidad Positiva 3.1.4. El Efecto Window Dressing como Contabilidad Creativa y Contabilidad de Fraude 3.1.5. Aplicación del Efecto Window Dressing 3.1.6. Alternativas ante los Efectos Negativos del Efecto Window Dressing 3.2. El Problema de la Estructuración de la Base de Datos ante la Presentación y Comparación de los Estados Financieros 3.2.1. Modelos de Armonización de Acuerdo a la Influencia de sus Respectivos Mercados 3.2.2. El Modelo Norteamericano con Base al Tratado de Libre Comercio 3.2.3. El Modelo de la Unión Europea CAPITULO 4: LA ACTUALIZACION DE LAS BASES DE DATOS 4.1. 4.2. 4.3. 4.4. 4.5. 4.6. 4.7. El Problema de la Estructuración de las Bases de Datos y la Actualización de las Cifras Diferencia significativa entre el Boletín B-7 y el B-10 Actualización de Cifras: Técnicas de Revelación y Reexpresión Contabilidad en Moneda Constante Contabilidad al Coste Actual El Coste Integral de Financiamiento y sus Componentes Las Ventajas y Desventajas entre los Diferentes Tipos de Estructuras Contables 151 154 156 161 163 167 169 118 119 125 127 128 132 139 141 142 144 146 CAPITULO 5: LA VARIABLE DEPENDIENTE 5.1. Los Problemas Conceptuales y Técnicos para Determinar el Fracaso Empresarial 5.2. El Fracaso Empresarial como Variable Dependiente 5.2.1. Definición del Concepto de Cesación de Pagos 5.2.2. La Suspensión de Pagos y el Convenio Preventivo 5.2.3. La Extinción de la Quiebra y la Rehabilitación 5.3. El Problema Doctrinal del Sistema Concursal Mexicano para Definir a la Variable Dependiente CAPITULO 6: LAS VARIABLES INDEPENDIENTES 6.1. Problemas de la Técnica de Ratios y Definición de las Variables Independientes 6.2. Significación y Lectura de los Ratios 6.2.1. El Valor Contable y el Valor de Mercado 6.3. Factor y Ratios Rentabilidad 6.3.1. La Efectividad y los Diversos Criterios de la Tasa de Rentabilidad 6.3.2. Rentabilidad de la Explotación 6.3.3. Rentabilidad de la Empresa 6.3.4. Rentabilidad Financiera 6.3.5. Otros Tipos de Base para la Tasa de Rentabilidad 6.3.6. Rentabilidad Financiera cuya Base de Inversión es el Activo Total Bruto y el Modelo Dupont 6.3.7. Rentabilidad Unitaria sobre el Capital Propio 6.3.8. Descomposición de la Tasa de Rentabilidad a través de la Variable Ventas 6.4. Factores de Productividad y Eficiencia 6.5. Factor de Liquidez 6.6. Factor de Cash Flow 196 199 200 202 203 205 206 207 208 211 215 216 218 226 232 174 176 181 184 186 188 _______________________________________ Indice General y Agradecimientos 6.7. Factor de Solvencia 6.7.1. La Relación entre la Insolvencia y el Término “Cesación de Pagos” 6.8. Factor de Endeudamiento 6.9. Selección Preliminar de las Variables Independientes ante la Ausencia de Datos CAPITULO 7: OTROS ELEMENTOS DEL MODELO 7.1. 7.2. 7.3. 7.4. 7.5. La Unidad de Análisis La Unidad Geográfica La Unidad Temporal La Muestra La Base de Datos 240 242 243 244 253 255 256 258 260 PARTE III DESARROLLO EMPIRICO DEL MODELO CAPITULO 8: ESTADISTICO DEFINICION DEL METODO DE ANALISIS FINANCIERO Y 265 269 269 274 274 276 281 286 302 8.1. Análisis Previo o Primario 8.2. Análisis Principal o Final 8.3. Modelo Multivariable: Análisis Factorial a través de Componentes Principales 8.4.1. Metodología a Seguir para la Aplicación del Factorial 8.4.2. Cálculo de la Matriz de Correlaciones entre las variables 8.4.3. Extracción de los Factores Iniciales y Necesarios que Representen a los Datos Originales 8.4.4. Rotación de los Factores Iniciales y su Representación Gráfica para Facilitar su Interpretación CAPITULO 9: CONCLUSIONES BIBLIOGRAFIA _______________________________________ Indice General y Agradecimientos Dedico esta tesis: Con todo mi amor para ti Sagrario, por lo que siempre nos ha mantenido unidos. Gracias por tu paciencia, esfuerzo y apoyo. Con todo mi amor y cariño para ti Faustina Mares Hernández y Jorge Ibarra Mares. Lo hemos logrado después de tantos años de ilusión y esfuerzo. Gracias por su confianza. A todos mis tíos, primos y mi cuñada: gracias por todos sus cuidados. A mi padre que me dio la mejor herencia: el estudio. A la memoria de Luis Ramírez, Javier Ledezma y mi mamá Chuy. A mi país México. _______________________________________ Indice General y Agradecimientos AGRADECIMIENTOS Primero quiero agradecer de forma muy especial por sus consejos y apoyo al director de la tesis el Dr. Joan Montllor i Serrats. Por la valiosa asesoría en la parte estadística mi agradecimiento al Dr. Esteban Burguete Hernandéz y al Maestro David Pujoral Morales. En cuanto a las instituciones, quiero reiterar mi gratitud al Consejo Nacional de Ciencia y Tecnología de México (CONACYT) por todo el apoyo que me brindó a lo largo del programa doctoral. Sin la beca de esta institución no hubiera sido posible llevar a cabo este bonito sueño profesional. También agradezco a todos los profesores y al personal de la secretaría del Departamento de Economía de la Empresa, así como a la biblioteca de Ciencias Económicas de la Universidad Autónoma de Barcelona, pues aquí fue donde realicé la mayor parte de la investigación en compañía de otros doctorandos de diversos países, con muchos de los cuales a parte de compartir la experiencia académica, logramos establecer una linda amistad. De forma muy especial dedico este trabajo a todas aquellas personas y universidades en donde se me ha dado la oportunidad de desarrollarme como académico. A mis actuales compañeros de trabajo de la Universidad de las Américas-Puebla, y en especial al Dr. Roberto Solano Méndez y al Dr. Luis Felipe Juárez Valdez, quienes a parte de haberme dado la confianza de colaborar con ellos como profesor de tiempo completo, también me han apoyado de forma extraordinaria en todos los aspectos para reintegrarme nuevamente a mi país después de muchos años en el extranjero. Con la Universidad Nacional Autónoma de México estaré siempre en deuda por todo su apoyo al postularme a la Beca del CONACYT. En especial les envio mi más sincero agradecimiento a las siguientes personas: al director de la Facultad de Contaduría y Administración, C.P. Arturo Díaz Alonso, a la Maestra Lupita Solís, al Maestro Carlos Villela y al C.P. José Antonio Echenique. Por último, quiero hacer mención de otras dos instituciones en las que recibí mucho apoyo al trabajar como docente. Al Instituto Tecnológico de Estudios Superiores de Monterrey, en donde tuve la fortuna de colaborar con el Dr. Luis Alfonso Pérez. A la Universidad de las AméricasD.F., en donde trabajé y adquirí valiosa experiencia con el Dr. Gregorio Herrera. También quiero mencionar a las principales instituciones en donde encontré una rica información sobre los temas que se trataron a lo largo de este trabajo: La Bolsa Mexicana de Valores, en donde obtuve la base de datos para desarrollar la parte empírica de la investigación; el Instituto Mexicano de Contadores Públicos, por las excelentes publicaciones que me hicieron llegar de forma desinteresada y gratuita; y la London Business School, donde me dieron todas las facilidades para recopilar la mayor parte de los artículos sobre los modelos predictivos. Así mismo, creo que es importante destacar lo mucho que me sirvió para adentrarme en esta línea de estudios, el excelente trabajo doctoral del Dr. Fermín Lizarraga de la Universidad Pública de _______________________________________ Indice General y Agradecimientos Navarra, así como las publicaciones del Dr. Francisco Gabás Trigo, de la Universidad de Zaragoza, y las del Dr. Manuel García- Ayuso Corvasí, de la Universidad de Sevilla. Por su bondad, sencillez y hospitalidad, así como por toda la amistad y apoyo que me brindaron durante mi estancia en Barcelona, quiero hacer una mención especial para mis buenos amigos: Miguel Angel García Cestona, César Augusto Angel, Matías Preti, Domenico Cappaso, Josep Vicent (bibliotecario), Jordi Porteros, Ma. Antonia Tarrazón, Antonio Hurtado y David Urbano. Por otra parte, por todo el apoyo que he recibido desde el inicio de mi etapa estudiantil agradezco a las siguientes familias en México: Mares, Ledezma, Ramírez, Vázquez, Avila, Jaramillo y nuestros queridos vecinos los Solís. También quiero hacer un reconocimiento a mis entrañables amigos del Instituto Politécnico Nacional que nunca me han olvidado: Jorge de la Cruz Amieva, Marco Antonio Reyes Herrera, Benjamín Córdova Cárdenas y Mario Ortiz Sánchez, así como al Lic. Angel Torres quien fue determinante para poder estudiar en el IPN. Por último, dedico esta tesis a la Universidad Autónoma de Barcelona y a mi querido Instituto Politécnico Nacional, en donde sin duda alguna adquirí los fundamentos, no sólo de tipo académico sino también ético, para desarrollar mi programa doctoral y reafirmar la verdadera función que debe perseguir la ciencia y la técnica: intentar transformar, siempre a través de la educación y preparación personal, esa enorme contradicción e injusticia que existe entre la riqueza y la pobreza extrema que afecta a tantos millones de personas. Barcelona, Junio del 2001 _______________________________________ Indice General y Agradecimientos PARTE I INTRODUCCION Y ANTECEDENTES _______________________________________Capítulo 1: Estructura General de la Tesis 1 CAPITULO 1 ESTRUCTURA GENERAL DE LA TESIS Este trabajo de investigación se desarrolla en 9 capítulos. El primero de ellos introduce al contenido de la tesis, incluye los objetivos, alcances y limitaciones de la investigación, y al final da una descripción de los dos tipos de enfoques que se aplican en este tipo de trabajos que se basan en el paradigma de la utilidad de la información contable. También este capítulo presenta los problemas más importantes que se dan en cada uno de los elementos de los modelos predictivos: la obtención y estructuración de las bases de datos, la selección de las variables independientes, la definición de la variable dependiente, la determinación de la unidad temporal, la selección de la unidad de análisis y el tipo de método estadístico multivariable más adecuado para obtener la evidencia empírica. En el capítulo 2 se incluye una amplia revisión sobre los fundamentos y antecedentes de las investigaciones de tipo empírico más importantes que se han desarrollado en torno a los modelos para predecir quiebras, a partir del trabajo pionero de Fitzpatrick (1932) que fue de tipo descriptivo. Posteriormente, se analizan los trabajos predictivos de Beaver (1966), Altman (1968) y todos aquellos trabajos clásicos que se han realizado principalmente en el ámbito de países desarrollados. Sin embargo, incluimos cuatro trabajos de diferentes países emergentes (Argentina, Uruguay, Brasil y Corea) pues presentan condiciones más similares a las que imperan en México. A lo largo de la revisión bibliográfica se puso especial atención a las siguientes tres cuestiones: a) cuáles fueron las variables independientes que consideraron los investigadores; b) cómo definieron el fracaso empresarial; y c) cuáles fueron los resultados y conclusiones más significativas que se obtuvieron en estos trabajos. Por otra parte, el análisis histórico lo dividimos básicamente en cinco etapas: a) la etapa descriptiva a través del método de ratios; b) el inicio de la etapa predictiva con modelos univariables; c) el inicio de la etapa predictiva con modelos multivariables; d) los modelos predictivos que se desarrollaron con base en los flujos de efectivo; y por último, e) los modelos predictivos basados en el análisis factorial. Los capítulos tercero y cuarto contienen el inicio del marco teórico de esta investigación. Aquí se desarrolló un amplio marco conceptual contable que esta estrechamente relacionado con los modelos predictivos. Este hecho se debe a que las bases de datos están representadas por los estados financieros de las empresas que se utilizan como muestra para aplicar el modelo. Desde un punto de vista metodológico, con la información financiera se determinan los ratios que posteriormente son utilizados como variables independientes en las funciones lineales de los diversos modelos predictivos. Sin embargo, observamos que aunque las bases de datos forman uno de los problemas centrales de los modelos, su tratamiento teórico suele ser poco estudiado dentro de esta línea de investigación. De ahí que en el capítulo 3 se destaque el problema del efecto window dressing y su repercusión negativa en la utilidad del sistema contable. También se explica la estructura conceptual actual de la contabilidad en México, así como el problema que representa la falta de armonización contable dentro del país y entre los países de economías abiertas, con objeto de llamar la atención sobre la dificultad que sigue representando el obtener bases de datos fiables. En el capítulo 4 se analiza la actualización de las bases de datos a través de la revelación, y lo que en México, y por consiguiente en este estudio, hemos denominado la reexpresión como sinónimo de actualización de los estados financieros. Este análisis se debe a que los modelos predictivos requieren como “inputs” datos contables con periodicidades superiores a los tres años. Si consideramos este factor temporal junto con la inflación, que es un fenómeno negativo y permanente en México, entonces podremos _______________________________________Capítulo 1: Estructura General de la Tesis 2 entender por qué la información contable pierde su utilidad como base de datos a través del tiempo al estar expresada en moneda nominal. En general, hemos observado que gran parte de los investigadores se enfocan más, sino es que exclusivamente, a analizar la complejidad del método estadístico multivariable para aumentar la capacidad predictiva del modelo. Sin embrago, es conveniente detenerse a analizar otros aspectos también muy importantes como pueden ser la base de datos, la muestra o la definición de las variables independientes. Con base en esto nos propusimos destacar en el capítulo 4, la importancia que representa el reexpresar las bases de datos en moneda constante para mantener la utilidad y comparabilidad a través de los años de los informes financieros, pues este hecho puede repercutir de forma más directa en la mejoría de la exactitud de los modelos predictivos. Por último, y considerando que las empresas muestreadas se ubican en México, en este capítulo profundizamos más sobre las actuales normativas que guían la reexpresión de la información financiera en el país a través del Boletín B-10 del Instituto Mexicano de Contadores Públicos. Con respecto al capítulo 5, se trató el problema de la variable dependiente. Como sabemos dicha variable puede establecerse desde el enfoque del éxito empresarial, o bien, el fracaso empresarial. En el segundo caso que es el más utilizado, se presenta siempre una serie de problemas conceptuales y técnicos para su definición. Esta situación parte del estado actual en que la gran mayoría de los sistemas concursales se encuentran. Por eso a lo largo de este capítulo incluimos varios conceptos que permiten entender mejor la complejidad y los desacuerdos teóricos que existen hasta la fecha para definir a la variable dependiente. En el capítulo 6 desarrollamos el aspecto teórico de las variables independientes. Aquí el objetivo estuvo enfocado en primer lugar, a definir una serie de ratios que tengan potencial explicativo y probabilidad de ser incluidos como variables independientes, en una función lineal muy específica del sector hotelero que cotiza en la Bolsa Mexicana de Valores. Para ello, realizamos una profunda revisión documental sobre los ratios financieros que se utilizan y que tienen un marco teórico bien fundamentado. Dicha selección dio como resultado 71 ratios que quedaron clasificados en 7 factores: rentabilidad, productividad, eficiencia, liquidez, cash flow, solvencia y endeudamiento. Todos estos factores tienen a su vez la característica de estar bien diferenciados entre sí, en términos teóricos, y de emplearse normalmente en el análisis financiero tradicional de las empresas mexicanas. Con base en ello, incluimos la explicación conceptual de cada uno de los factores así como de sus respectivos ratios. En el capítulo 7 explicamos brevemente en qué consisten los otros elementos o componentes centrales de los modelos predictivos. Además, incluimos una descripción de la base de datos que utilizamos, así como la clasificación sectorial de la Bolsa Mexicana de Valores porque los datos que utilizamos fueron proporcionados por esta institución. Es importante mencionar que actualmente se continúa con la ampliación de la muestra y la actualización constante de la base de datos a través del software de “Economática”. Una vez desarrollado un amplio marco conceptual y metodológico, se consideró importante llevar a cabo de forma complementaria una aplicación empírica de la primera parte del modelo, que consiste en la selección de las variables independientes a través de un análisis estadístico. Esto se juzgó importante por dos razones: a) Para contrastar el marco conceptual de nuestro estudio en torno a las variables independientes así como de sus respectivos factores con relación a los resultados del análisis factorial; b) Una vez obtenidos los anteriores resultados, se consideró importante comparar éstos con los resultados de los otros estudios que analizamos en el capítulo 2, con el fin de poder llegar a las conclusiones finales de esta investigación. En el capítulo 8 aplicamos el modelo estadístico multivariable del factorial a través de los componentes principales. Aquí incluimos la metodología a seguir: cálculo de la matriz de correlaciones, la extracción de los factores iniciales así como su rotación y representación gráfica, y por _______________________________________Capítulo 1: Estructura General de la Tesis 3 último, llevamos a cabo la selección de las variables independientes finales que representan mejor a cada uno de los factores seleccionados. En el capítulo 9 están contenidas las conclusiones, limitaciones y propuestas para la estructuración de las bases de datos contables de los modelos predictivos en México. También incluimos algunas conclusiones que consideramos interesantes sobre la variable dependiente, la muestra, la unidad temporal, la unidad geográfica y el método del factorial. Con respecto al software, se utilizó la hoja de cálculo Excel y el paquete estadístico SPSS para llevar a cabo todo el desarrollo empírico. Por último, es importante resaltar que algunas notas de pie de página se refieren a citas que están contenidas en varios de los artículos que consideramos como complementarios y de los que sólo se extrajeron breves ideas. _______________________________________Capítulo 1: Estructura General de la Tesis 4 1.1. OBJETIVOS CONCRETOS A ALCANZAR E IMPORTANCIA DEL ESTUDIO. Este trabajo tiene como primer objetivo estudiar en una economía emergente como la mexicana y dentro de un sector muy específico, el marco conceptual de las bases de datos contables a partir de las cuales se estiman los ratios, los que a su vez se utilizan como variables independientes en las funciones lineales empleadas en los modelos predictivos. Como segundo objetivo nos propusimos desarrollar una metodología basada en el modelo estadístico del factorial de componentes principales, para reducir de un conjunto de ratios financieros seleccionados rigurosamente, a aquellos que representen mejor a cada uno de los factores que resulten ser más significativos estadísticamente y que se incluirán en posteriores estudios en una función lineal del sector hotelero que cotiza en la Bolsa Mexicana de Valores. Este sector actualmente esta compuesto por cinco empresas que son : Aristos, Calinda, Posadas, Realtur y Situr. La investigación se enfoca a mejorar la metodología, el marco conceptual y los resultados empíricos de la primera fase de un modelo predictivo en el contexto de un país cuya economía es emergente. La primera fase de los modelos predictivos se refieren a la estructuración de las bases de datos y a la determinación de las variables independientes, pero sin llegar a proponer ningún coeficiente o ponderación para los ratios seleccionados. Esto se debe a que la muestra se seleccionó sólo para cumplir la primera fase, ya que para la estimación de la función lineal, que constituye la segunda fase, se requiere una muestra más robusta y emparejada de empresas sanas y empresas fracasadas. El análisis conceptual que se desarrolla en los primeros capítulos del trabajo está justificado por el hecho de que las principales investigaciones sobre este tema se han llevado a cabo en economías altamente desarrolladas. A pesar de que esta línea de investigación tiene más tres décadas, su desarrollo en Latinoamérica y en específico en México ha sido muy incipiente. Este hecho ya había sido comentado por los brasileños Baida y Ribeiro (1979) quienes a finales de la década de los setenta concluyeron a través de su estudio que, en el caso de las economías emergentes de la región, el modelo de Altman aplicado en nuestro contexto presentaba problemas de calidad y disponibilidad para obtener bases de datos fiables, pues en la práctica existía una alteración de la información financiera y no se contaba con programas específicos para desarrollar bancos de bases de datos a largo plazo. Un década después esta situación no había cambiado. Los argentinos Swason y Tybout (1988) volvieron a destacar este problema al apuntar que pocos estudios predictvos se enfocaban a países en vías de desarrollo, y según ellos, esto obedecía al problema de la disponibilidad y al problema de la correcta interpretación de las bases de datos en estos países por el tipo de contenido tan singular de la información financiera que producen. En Uruguay Pascale (1988) también coincidía con lo anterior y apuntaba que la estructuración de las bases de datos debería ser rigurosa dada la importancia que representa para el modelo predictivo. Por eso en su trabajo intentó que la metodología fuera detallada para el tratamiento de los datos contables y para ello puso especial énfasis sobre el control de la calidad de los estados financieros. Es importante apuntar que todos estos trabajos contaron con el decidido apoyo de los Bancos Centrales y de algunos de los principales ministerios de sus respectivos gobiernos. Altman también advirtió lo anterior, y con Haldeman y Narayaman (1977) destacaron en una parte de su trabajo la importancia sobre la naturaleza temporal de las bases de datos, estableciendo así la necesidad de actualizar constantemente el modelo y recurrir a las notas de los estados financieros para efectuar ajustes contables apegados en los principios de contabilidad generalmente aceptados, con el fin de mejorar las bases de datos. En cuanto a la adecuación de los modelos predictivos dentro de las economías emergentes, es importante destacar que Altman participó directamente en la experiencia Brasileña y Argentina antes citadas. Más _______________________________________Capítulo 1: Estructura General de la Tesis 5 recientemente en México, Altman, Hartzcel y Peck (1995) propusieron la adaptación del modelo original "Z-Score Model", por otro modelo que denominaron "Emerging Market Scoring Model". Este trabajo reconoció que en los países emergentes existen ciertos riesgos adicionales, que el análisis tradicional y los modelos predictivos no consideran en contextos de economías desarrolladas, tal es el caso del "riesgo de la moneda" y el "riesgo industrial". Por eso, en este trabajo partimos del hecho de que el tipo de información contable que se toma como base de datos en los estudios predictivos de economías desarrolladas es, en definitiva, sustancialmente diferente con respecto de aquella información que producen las empresas que se ubican en economías en vías de desarrollo, en donde por cierto, la utilidad de la información contable se ve más frecuentemente cuestionada por fenómenos tan comunes como el efecto window dressing, o bien, por la incorrecta reexpresión de los estados financieros. Originalmente esta investigación parte de dos ideas. La primera de ellas fue expuesta en el trabajo clásico de Beaver (1966), quien afirma que el acierto principal de su investigación fue sugerir una metodología para la evaluación de los datos contables con miras a diferentes propósitos y no sólo para la determinación de la solvencia. La segunda idea corresponde al trabajo de Gombola y Ketz (1983), en donde los autores, más que buscar obtener la capacidad predictiva de un modelo sobre quiebras, buscaron desarrollar ciertos patrones de clasificación de ratios financieros a través del establecimiento de una serie de factores estratégicos que estuvieran diferenciados entre sí. También en la investigación de Pinches, Mingo y Caruthers (1973) se estableció como un objetivo prioritario desarrollar un trabajo empírico sobre las clasificaciones de los ratios, midiendo la estabilidad de los factores a largo plazo para obtener una clasificación de factores estadísticamente independientes con relación al gran número de ratios expuestos en la literatura especializada. Con base en ello, consideramos importante desarrollar en una parte del trabajo la clasificación de los factores y la selección de cada uno de los ratios que los representaran dentro del sector hotelero mexicano que cotiza en bolsa. Una de las críticas más importantes que se hicieron, tanto al modelo original de Altman como a gran número de trabajos predictivos posteriores, es que las variables independientes seleccionadas no siempre son las más representativas. Por otra parte, también ha sido común para este tipo de trabajos recibir serias críticas en cuanto a que las variables independientes y sus respectivos factores utilizados en la función lineal no tienen un sustento teórico bien fundamentado. Por lo que respecta a los estados financieros utilizados en los diferentes estudios predictivos, que en este caso ya no son el producto final del proceso contable sino la “materia prima” para estimar los ratios, se ha criticado también la ligereza de su análisis dentro del modelo. De ahí que muchos estudios al seleccionar a las variables independientes hayan optado por apoyarse más en el trabajo univariable de Beaver, y únicamente para el aspecto metodológico se centran en modelos multivariables como los de Altman. Por ejemplo, Johnson (1970) fue uno de los primeros investigadores en destacar estas desventajas del modelo Altman al referirse a la poca capacidad de los ratios financieros para llevar a cabo predicciones “ex-ante”. Sin embargo, este autor también reconoció que cuando las predicciones eran “ex-post”, el modelo Altman tendía a ser más exacto y se podían analizar mejor las causas del fracaso a través de los estados financieros, aunque el modelo no por eso podía diferenciar realmente a las empresas que iban a fracasar, pues no todas las clasificadas como fracasadas llegaban a su fin. _______________________________________Capítulo 1: Estructura General de la Tesis 6 Desde nuestro punto de vista, uno de los problemas más importantes que presentan este tipo de modelos se refiere a cómo clasificar a los ratios dentro de ciertos factores, con base en un marco teórico financiero bien fundamentado para que nos lleve a una correcta interpretación de los resultados. En el caso de este trabajo se partió de una clasificación inicial de siete factores que fueron: la rentabilidad, la productividad, la eficiencia, la liquidez, el cash flow, la solvencia y el endeudamiento. Cada uno de ellos fue estudiado de forma detallada en sus aspectos teóricos para seleccionar a los ratios más representativos de cada factor (Capítulo 6). Inicialmente obtuvimos a través de una minuciosa revisión bibliográfica un total de 71 ratios, de los cuales posteriormente tuvimos que reducir a 21 ratios ante una considerable ausencia de datos que creemos fue provocada principalmente por el uso incorrecto de algunas cuentas contables concentradoras, y que forman parte del numerador o denominador de ciertos ratios. Por otra parte, dicha ausencia de datos también pudo ser provocada por el efecto window dressing que comúnmente se aplica a los estados financieros. Sin embargo, el contar al final con 21 ratios financieros y un total de 160 observaciones provenientes de cinco empresas hoteleras, representó un número razonable para desarrollar el análisis factorial a través de la técnica de componentes principales con el fin contrastar los resultados con el marco conceptual. Todos los factores analizados en su conjunto mediante técnicas tradicionales y técnicas estadísticas multivariables, se supone que proporcionan una visión más completa sobre la verdadera situación financiera y económica de la empresa. Estas ideas primero se comenzaron a exponer a finales de la década de los sesenta, y posteriormente se intensificaron en las décadas de los setenta y ochenta en diversas partes del mundo industrializado (Pinches y Mingo: 1973; Libby: 1975; Pinches, Mingo y Caruthers: 1973, 1975; Largay y Stickney: 1980; Chen y Shimerda: 1981; Gombola y Ketz: 1983; Gahlon y Vigeland: 1988; Dambolena y Shulman: 1988; entre otros). A partir de entonces se ha continuado aplicando ininterrumpidamente una serie de herramientas cada vez más eficientes, como es el caso del análisis factorial común y el análisis de componentes principales, los cuales se consideran un paso previo y mejor fundamentado para aplicar posteriormente los métodos multivariables discriminantes. Esto se debe a que para la obtención de mayor capacidad predictiva se requiere contar sobre todo con una base de datos de estados financieros contables de forma sintetizada, y como se apuntó, esto se logra a través de su expresión en ratios, los cuales a continuación se ordenan en una matriz de datos mediante algún método multivariable reductivo. Posteriormente, se obtiene una matriz de correlaciones a partir de la cual se pueden llevar a cabo las estimaciones, que tiendan a la selección fundamentada dentro de un marco teórico y técnica estadística eficiente, para así obtener los mejores factores y variables con las que se efectuará la estimación discriminante. A través de la revisión bibliográfica detectamos que en uno de los principales trabajos sobre la predicción de quiebras y que llevó a cabo Taffler (1984), se aplicó el método de componentes principales a cincuenta ratios. El autor con anterioridad transformó los ratios para aproximar sus distribuciones a la normalidad univariable. Posteriormente, de seis factores seleccionados inicialmente, utilizó cinco para su función discriminante: “Performance Analysis Service Score” (Pas-Score). El principal objetivo de este trabajo en realidad no estuvo encaminado a obtener más poder predictivo en el modelo, sino que se enfocó a analizar algunos de los principales problemas conceptuales y estadísticos que se presentaron en la reducción de los componentes o factores. A partir de entonces en numerosos trabajos el análisis de componentes principales se ha fijado como principal objetivo la extracción de los factores, y no la aplicación del análisis factorial como paso previo para desarrollar el análisis multivariable predictivo. _______________________________________Capítulo 1: Estructura General de la Tesis 7 El análisis multivariable requiere previamente un examen riguroso de los datos, pues como apunta Hair (2000: p. 20): la influencia de atípicos, violaciones de los supuestos y la pérdida de datos puede agravarse a través de la pérdida de varias variables y tener efectos sustancialmente diferentes. Por eso, este autor apunta que el investigador de un problema multivariable tiene que tomarse su tiempo en utilizar medidas de diagnóstico para un mayor entendimiento de los datos y de las relaciones básicas que existen. Para Hair (2000), con la recogida y estructuración de los datos, el primer análisis del modelo predictivo no tiene que consistir en estimar principalmente dicho modelo, sino en evaluar los supuestos subyacentes que son tan importantes como el propio resultado final. Todas las técnicas multivariables tienen supuestos subyacentes, tanto conceptuales como estadísticos, que se ven afectados de forma importante para representar las relaciones multivariables. Sin embargo, el examen de las bases de datos es complejo y lleva tiempo. Habitualmente esto provoca que se descuide este importante aspecto por parte del analista. Pero un análisis eficiente de las bases llevará siempre a una mejor predicción, y por lo tanto, a una mejor evaluación de las empresas muestreadas. Otros problemas que conciernen al analista cuando está examinando las bases de datos son: cómo evaluar y solucionar los problemas de los datos ausentes, la identificación de casos atípicos y la comprobación de los supuestos subyacentes de los modelos multivariables predictivos. Los datos ausentes tienen efectos negativos en cualquier investigación y son producto de la introducción o estimación de los datos. Los casos atípicos son magnitudes extremas que tienen influencia negativa o ilógica en los resultados. Por último, es necesario considerar los supuestos que puedan subyacer en un análisis multivariable. El trabajo implícito que conlleva el análisis de las bases de datos puede parecer insignificante y sin mayores consecuencias, sin embargo, es tan importante como cada una de las fases del análisis financiero univariable y multivariable. Examinando previamente los datos de aplicación para un análisis multivariable predictivo, el analista obtiene un conocimiento fundamental sobre como se produce la información contable y las relaciones entre las variables independientes que están representadas por los ratios. Las técnicas multivariables en particular plantean serios problemas al analista sobre la comprensión, interpretación y articulación de resultados basados en relaciones cuya complejidad está en continuo aumento. El conocimiento de las interrelaciones de las variables puede ayudar a mejorar la especificación del modelo, así como proporcionar una perspectiva razonable para interpretar con las apropiadas limitaciones los resultados obtenidos. Todos estos supuestos nos llevaron a la necesidad de desarrollar ampliamente un marco teórico sobre la estructuración y actualización de las bases de datos (Capítulos 3 y 4). Por eso, es importante resaltar que la efectividad estadística de las técnicas multivariables requiere antes que nada grandes bases de datos y supuestos más complejos que los exigidos por el análisis tradicional y el univariable. La sofisticación analítica que se presenta al utilizar técnicas multivariables lleva a que se examinen cada vez más las técnicas para producir y verificar la información financiera, y esto en definitiva ha llevado actualmente a que se tenga una complejidad similar a la del propio análisis final que consiste en aplicar principalmente la técnica discriminante. Por otra parte, también existe la necesidad de obtener información contable cuya utilidad sea estable a través del tiempo, pues el análisis requiere de la observación de datos correspondientes a varios ejercicios económicos para constatar que pueden ser comparados. Aunque Rees (1990) indica que la comparación entre los ratios ajustados al nivel de precios y los ratios no ajustados que se utilizan como base de datos no presentan dimensiones diferentes, posteriormente se ha comprobado que esto en definitiva no es cierto, pues al no actualizarse dichas bases las distorsiones en la información contable se tornan graves, y máxime si existen altos e inestables índices de inflación como es el caso actual de la mayoría de las economías _______________________________________Capítulo 1: Estructura General de la Tesis 8 emergentes. Por eso, en este trabajo también abordamos ampliamente la actualización de los estados financieros en México a través del Boletín B-10: “Reconocimiento de los Efectos de la Inflación en la Información Financiera”, pues esto responde ya más a las características muy particulares que presentan las bases de datos para un modelo predictivo desarrollado en nuestro entorno económico. Desde el punto de vista de Baidya y Ribeiro (1979), el problema del desarrollo de las bases de datos en Latinoamérica ha sido generalizado, pues tanto en Brasil como en los demás países del área, cuyas economías han sido inestables y cambiantes en sus estructuras macroeconómicas, el analista financiero se ha encontrado ante diferentes criterios contables dentro de tres tipos de empresas: las del estado, las filiales multinacionales y las domésticas (que pueden ser privadas y con participación estatal). Según los autores, esto ha llevado a que algunos investigadores, como Taylor (1977) en Colombia, optaran por no utilizar bases de datos públicas, pues generalmente corresponden a empresas grandes que aplican frecuentemente el efecto window dressing. Algunos trabajos, como alternativa, han seguido el ejemplo de Edmister (1972) que utilizó datos de empresas pequeñas, pues consideró que en ocasiones es más fácil obtener en este tipo de empresas información más confiable. Sin embargo, hemos de señalar que este supuesto no es del todo cierto por la no obligatoriedad de una auditoría externa, lo cual repercute directamente en la calidad de la información. El problema de las bases de datos con efecto window dressing también puede presentarse en los países desarrollados, y prueba de ello fue la mala experiencia que tuvo Altman (1973) en Francia al aplicar su modelo. Aquí sus resultados fueron malos debido a la calidad de los datos. En este país, hasta finales de la década de los setenta, la Comisión de Operaciones de la Bolsa apoyaba la estricta confidencialidad de los estados financieros, y por lo tanto, era muy difícil saber los criterios contables que se aplicaban en partidas muy específicas. Para ese entonces Altman aún consideraba que la aplicación de su modelo por parte de las instituciones financieras podía llevarse a cabo de forma similar en cualquier país. Esta idea posteriormente la cambiaría a partir de su estudio en Brasil y luego en México, en donde propuso la nueva Z-Score, pues tomó en cuenta las características muy particulares que presentaba la información financiera de las economías emergentes latinoamericanas. Con respecto a las bases de datos del estudio llevado a cabo en Argentina, Swason y Tybout (1988) seleccionaron únicamente un conjunto de estados financieros de empresas manufactureras, pues estos autores consideraron importante el comportamiento sectorial. En el caso de Uruguay, Pascale (1988) consideró que la estructuración de su base de datos podía mejorarse a través de un cuestionario estandarizado que se envió a las empresas para verificar el grado de acuerdo y desacuerdo en cuanto a la contabilización. Con esto el autor reconocía que debía ponerse un énfasis especial en el control de la calidad de los datos a través de: a) la correcta clasificación de las partidas dentro de los estados financieros; b) la correcta valuación de los activos y pasivos en moneda extranjera (utilizándose el período final de la tasa de cambio); y c) verificó la valuación de los activos fijos estandarizándolos de acuerdo a las leyes fiscales. Por otra parte, entre una de las principales conclusiones de Ohlson(1980) está la que se refiere a que el éxito de un modelo predictivo depende en gran medida de la información financiera disponible. También una crítica importante que han hecho algunos investigadores a los trabajos empíricos sobre quiebras conducidos hasta antes de mediados de la década de los ochenta, es que estos estudios sólo se realizaban sobre la base del devengo. A partir de finales de los ochenta se iniciaron estudios tendientes a investigar si existía evidencia empírica sobre una mayor capacidad predictiva al utilizarse el cash flow operativo con el fin de aplicarlo posteriormente a ratios individuales, o bien, en combinación con otros ratios basados en el devengo. Esto se llevó a cabo con métodos estadísticos similares a las que se habían _______________________________________Capítulo 1: Estructura General de la Tesis 9 estado utilizando en los modelos basados únicamente en el devengo y desarrollados principalmente en los Estados Unidos durante las décadas de los sesenta y setenta. En la década de los ochenta, los estudios sobre quiebras pasaron por alto la información sobre los componentes del cash flow operativo, de inversión y de financiación. Esto llevó a que los ratios basados sobre aquellas operaciones medidas a partir de estas variables nunca fueran considerados. Por ejemplo, estudios como los de Beaver (1966), Deakin (1972), Edmister (1972) y Ohlson (1980), aunque utilizaron diversos conceptos de cash flow, estos en realidad fueron sustituciones imprecisas, como por ejemplo los ingresos netos más la depreciación. Por su parte Takahashi y Kurokawua (1985: p.231) consideran que el poder predictivo del análisis financiero a través de modelos discriminantes aumenta si se utilizan como variables independientes a los ratios así como a las cantidades absolutas. También los autores destacan en su estudio los numerosos casos que se dan en el Japón con respecto a la poca confianza que se tiene en las bases de datos, pues en muchos de los reportes de los auditores de las empresas quebradas se muestran “excepciones” o “reservas” dado el importante efecto del window dressing que se presume existe en los estados contables. Para Takahashi y Kurokawua (1985) se pueden desarrollar diferentes tipos de modelos predictivos, dependiendo sobre todo de tipo de datos utilizados. A partir de esto consideran estos autores cuatro supuestos en cuanto a las bases de datos contables que son: a) con datos no ajustados o datos ajustados que reflejan las salvedades, negación de opinión o las notas que aparecen en los informes del auditor; b) utilizando índices con datos financieros con base acumulativa o con base en flujos de efectivo; c) con valores de índices de tres años previos a la quiebra; y c) sólo utilizando ratios o una combinación de ratios con valores absolutos. Desde un enfoque teórico, para ellos la combinación de los anteriores puntos puede llegar a producir hasta 16 tipos de modelos contables diferentes. Además, en adición a estos modelos, según los autores se puede desarrollar otra función discriminante que represente al modelo número 17, el cual utiliza ratios y cantidades absolutas derivadas de la base ajustada del acumulado y la base ajustada del cash flow durante tres años previos a la quiebra. Para cada uno de sus 17 modelos utilizaron 24 variables, o bien, 24 índices que fueron seleccionados sobre la misma base que utilizaron para el análisis de componentes principales. En el caso de Lizarraga (1996: p.71), para él existe un serio problema en gran cantidad de ratios para encontrar su claro significado económico o financiero que justifique su creación. Esto unido al hecho de que la aplicación de los ratios nunca ha tenido un carácter obligatorio, y por lo tanto, su normalización o armonización es prácticamente imposible. Además, este autor agrega que esta ausencia de sentido económico evidente que presentan los ratios como base de datos o información final, lleva a una inevitable complejidad y a diferentes tipos de interpretación que genera desacuerdos o equívocos, lo que a su vez conducen a un exagerado optimismo sobre su utilidad, la cual tras ser analizada durante décadas, posteriormente se ha demostrado en varios casos como absurda o sin sentido. Para este autor “la avalancha” actual de indicadores de nada sirve, pues al final los agentes económicos continúan en la práctica utilizando pocos ratios con pequeñas variantes en cuanto a la forma de su cálculo o interpretación, los cuales fueron desarrollados incluso antes de 1930. La gran cantidad de ratios que se presenta actualmente en la literatura contable y financiera, y que muchas veces son complejos estudios y especulaciones teóricas, ha derivado en que los analistas se refieran a un mismo ratio con diferentes nombres, o bien, se refieran con un mismo nombre para un conjunto de ratios que son distintos entre sí y en sus componentes. El análisis factorial resuelve en gran medida este tipo de problemas, aunque cabe aclarar que su utilización es compleja y que también existen diferentes métodos factoriales que dan a su vez diferentes resultados a pesar de utilizar bases de datos comunes. Sin embargo, _______________________________________Capítulo 1: Estructura General de la Tesis 10 esta metodología resulta más apropiada con respecto a la simple selección de las variables independientes mediante criterios de revisión literaria. 1.2. DESCRIPCION GENERAL DE LA METODOLOGIA. Con respecto a las investigaciones de tipo empírico este estudio tomó en cuenta la experiencia adquirida en los trabajos que forman parte del paradigma de la Utilidad de la Información Contable. Este paradigma se basa en el análisis del contenido de la información financiera y económica para la posterior toma de decisiones sobre inversión, financiación y reparto de beneficios. Dicho paradigma se ha desarrollado considerando dos tipos o clases de trabajos empíricos que Mora (1992) clasifica y diferencia fundamentalmente en: 1. Trabajos empíricos sobre los datos que analizan el comportamiento de los precios del mercado basados en el anuncio de la información contable. En estas investigaciones se parte de la teoría de la eficiencia del mercado de capitales que establece la hipótesis de que "la información contable tiene contenido informativo si provoca reacción en los precios". A partir de la contrastación empírica de ésta hipótesis, los resultados positivos de la investigación científica tienden a reforzar la teoría de la eficiencia del mercado de capitales. Para el caso de nuestro estudio, este enfoque no se tomará en cuenta. 2. El otro enfoque se refiere a aquellos trabajos empíricos que desarrollan modelos de predicción sobre la solvencia y el beneficio empresarial tomando como base los datos contables. Estas investigaciones no cuentan con una metodología única pues no existe un acuerdo generalizado sobre cuales son los más "óptimos". Sin embargo, la acumulación de evidencia empírica ha demostrado que los modelos predictivos explican significativamente cuales son y cómo evolucionan las principales variables que intervienen en la composición del beneficio y en la determinación de la solvencia. Este último tipo de investigaciones contables sobre la solvencia y el beneficio son las que sí hemos considerado para llevar a cabo este trabajo. Su desarrollo no parte de una teoría económica particular, ni tampoco de una teoría financiera específica sobre la solvencia o la liquidez, sino que se elaboran modelos muy variados tomando como fundamento los datos contables para verificar la confiabilidad de los mismos y su capacidad de medición y predicción. También se consideró importante desarrollar y analizar dentro del marco teórico a los principales elementos que componen el modelo predictivo para dar una idea más profunda sobre su correspondiente estado actual (Capítulo 7). En el caso de la variable dependiente se consideró importante tratar conceptual y jurídicamente su definición. Por ello se incluyó un análisis sobre el sistema concursal mexicano para llegar a una definición de la variable dependiente (Capítulo 5). En el desarrollo empírico del trabajo para seleccionar a las variables independientes se llegó a resultados y conclusiones mediante el análisis factorial. Este tipo de análisis se apoya en una base de datos de estados financieros básicos expresados en unidades monetarias actuales o constantes para obtener comparabilidad a través de los diferentes períodos contables. La utilización de la técnica de ratios que representa la base del análisis contable tradicional, propone el uso de ratios financieros para la evaluación de la situación y evolución económica de la empresa. Sin embargo, los ratios que son un instrumento amplio y variado cuyo buen diseño y conocimiento permiten profundizar y resolver algunos aspectos concretos para la toma de decisiones, tiene una limitada capacidad como “output” para solucionar la problemática sobre el cálculo aproximado de la solvencia, solidez financiera y la determinación del éxito o fracaso de una empresa. _______________________________________Capítulo 1: Estructura General de la Tesis 11 No obstante, como apunta Bernstein (1999: p.653), la idea básica sobre el estudio de la tendencia y el comportamiento de ciertos ratios financieros de varias empresas, es con el fin de poder identificar y utilizar con fines de predicción, las características de los ratios con más predominio. Con esto se intenta detectar signos de deterioro observados en el comportamiento de los ratios con una anticipación y claridad suficiente como para tomar a tiempo iniciativas que eviten riesgos graves de insolvencia, incumplimiento de obligaciones y procesos de quiebras. Para Brealey y Myers (1999) el utilizar ratios tiene la ventaja de no verse abrumado por el gran volumen de datos que contienen los estados financieros, ayudando al analista a plantearse la pregunta correcta aunque rara vez le ayuden a solucionar el problema. Así lo reconoce también Bernstein (1999: p. 656) al señalar que las investigaciones sobre ratios sí bien señalan su significativo potencial como predictores de quiebra, no dejan de indicar que dichos ratios son herramientas y conceptos del análisis financiero en una fase inicial de desarrollo. Los estudios realizados con ratios financieros para medir la solvencia y evitar el fracaso empresarial, se han enfocado en la comparación entre empresas en quiebra y empresas que no han quebrado (sanas y no sanas). Para algunos analistas esto ha permitido ofrecer pruebas de que las empresas que no quebraron presentaban ratios de tesorería "más firmes" que aquellas que si quebraron, aunque aún no se ha demostrado de manera concluyente la capacidad de los ratios por sí solos para la predicción de quiebras. Las anteriores limitaciones de los ratios ha llevado a no pocas investigaciones sobre el tema a la necesidad de utilizar otras técnicas de análisis más globales y potentes como las desarrolladas en los Modelos Univariables y Multivariables. La investigación empírica realizada con ambos modelos dentro del análisis de la solvencia se ha orientado principalmente hacia un caso particular que es la predicción de quiebras (Gabas:1990). Los modelos predictivos, que integran un conjunto de métodos estadísticos avanzados, se enfocan hacia el contenido de la información contable expresada en ratios. Los modelos univariables utilizan una sola variable independiente mientras los multivariables, que son los más desarrollados, hacen uso de una combinación de variables independientes para analizar dinámicamente las actividades financieras y económicas de la empresa, así como predecir su insolvencia o quiebra. En el caso del análisis factorial, que es más complejo que el análisis univariable, se integran varias características de los modelos multivariables con el fin de contar con herramientas de más alcance que sirvan para obtener los indicadores de síntesis requeridos. _______________________________________Capítulo 1: Estructura General de la Tesis 12 1.3. PROBLEMAS Y LIMITACIONES DE LOS MODELOS PARA PREDECIR QUIEBRAS. Es importante señalar que este tipo de trabajos carece de potencialidad heurística, pues por su contenido difícilmente se pueden derivar pautas normativas. Sin embargo, y como apunta Gabas (1990: p.11), estas investigaciones pueden presentar potencialidad descriptiva y explicativa importante. Los modelos para predecir quiebras requieren un conjunto de elementos o componentes, cuya definición conceptual y aplicación técnica debe tender a ser precisa con el fin de obtener resultados empíricos verdaderamente válidos. Según afirman los especialistas en este campo, si se logran obtener estos elementos entonces es posible integrarlos a todos ellos en una segunda fase, en donde a través de la aplicación de una metodología se puede llegar a obtener, “ex-post”, ciertos porcentajes de capacidad y exactitud predictiva sobre un posible fracaso empresarial. A lo largo de los años y de las diversas investigaciones llevadas a cabo, se ha observado que los elementos básicos o fundamentales a los que se refieren los especialistas son los siguientes: La obtención y estructuración de las bases de datos. La definición de la variable dependiente. La selección y definición de las variables independientes. La unidad de análisis. La unidad geográfica. La unidad temporal. La selección de la muestra. Con respecto a la obtención y estructuración de las bases de datos se puso especial interés porque a pesar de que ha sido mencionada su problemática en la mayoría de las investigaciones, su tratamiento teórico y empírico se ha limitado sólo a aspectos genéricos. Desde nuestro punto de vista este elemento constituye una de las principales claves para llevar a cabo adecuadamente las estimaciones y obtener correctamente los indicadores cuantitativos de un modelo predictivo. Por lo tanto dicho elemento es uno de los que se analizó en la investigación con más detenimiento y profundidad a través de tres diferentes e importantes matices que son los siguientes: a) El problema que existe para obtener las bases de datos ante la práctica del denominado efecto “window dressing” que afecta negativamente la utilidad del sistema contable. b) El problema que se presenta para la comparación de las bases de datos entre las diferentes empresas de la muestra seleccionada, considerando las diferentes tendencias que se dan en la presentación de los estados financieros, así como las limitaciones que presentan actualmente las propuestas para obtener nuevos modelos de homogeneización o armonización a escala mundial para la elaboración de los estados financieros básicos. _______________________________________Capítulo 1: Estructura General de la Tesis 13 c) El problema de la estructuración de las bases de datos ante los diferentes criterios de actualización de las cifras, bien sea mediante la revelación o a través de la reexpresión de los estados financieros. Como sabemos la actualización es necesaria para conservar la validez, confiabilidad y comparabilidad de la información contable a lo largo de los años. Sin embargo, a la fecha existe una controversia en cuanto al método para actualizar dichas cifras pues cada uno de estos da diferentes resultados. En la práctica continúan generándose gran cantidad de investigaciones cuya característica en común es un excesivo enfoque estadístico y una falta de nuevas proposiciones para las fases de diseño de los trabajos teóricos y empíricos. Tal vez esta circunstancia esta motivada por la mayor preocupación que el investigador da frecuentemente a la fase empírica, la cual se ha entendido erróneamente que consiste en una serie de complejas estimaciones estadísticas ya probadas y aceptadas. Esta tendencia aunque se reconoce que es de suma importancia, en definitiva no es suficiente para obtener los indicadores globales con poder predictivo real. Hemos de apuntar que hasta la fecha al no haberse logrado definir u obtener mejor los elementos que integran al modelo predictivo con la validez y confiabilidad suficiente, el complejo proceso de análisis financiero ha dado en numerosos casos sólo resultados basados en rigurosos procesos estadísticos, pero en definitiva no han contribuido significativamente a la evolución de la teoría de la solvencia y a la predicción “ante-facto” sobre el éxito o fracaso de la empresa. La aplicación de un modelo predictivo no es tarea fácil en ningún sentido. A lo largo de la exposición teórica de esta investigación veremos algunos de los principales problemas, alcances y limitaciones para obtener los elementos necesarios que requieren los modelos predictivos. Posteriormente, también estudiaremos con detalle los problemas relativos a la técnica estadística del factorial, pero sin olvidar que el éxito de su aplicación depende en gran medida de la calidad que proporcionan las bases de datos derivadas de los estados financieros y sus respectivos ratios. El factorial se aplica frecuentemente en los modelos predictivos para la reducción de datos, de ahí que hayamos incluido una breve reseña sobre los trabajos más clásicos que se han desarrollado en torno al tema dentro de la predicción del fracaso empresarial, cuya característica principal es su casi total contenido estadístico. Con respecto a la clase de problemas que presenta cada uno de los elementos, estos los hemos clasificado en términos generales en tres grupos: a) los problemas que presentan una combinación tanto de tipo conceptual como técnico; b) los problemas de tipo conceptual; y por último, c) los problemas de tipo técnico. (Ver cuadro 1.1.). Referente al desarrollo de posibles soluciones para los problemas de los modelos predictivos, su tratamiento se asocia siempre con el término del análisis de la solvencia empresarial, y así lo utilizan algunos investigadores para sus modelos cuyo objetivo central es maximizar la exactitud de predicción de los decisores. Según Jiménez (1996) para alcanzar este objetivo se requiere establecer y alcanzar varios “sub-objetivos” que resume en tres: a) Desarrollar modelos con gran exactitud predictiva. Esto se logra a través de la obtención de los siguientes elementos: a) contar con un modelo óptimo que indique cuáles son las variables predictivas (especificando su ponderación) para informar sobre la forma en que deben ser agregadas; b) el modelo debe permitir la evaluación del rendimiento del decisor y la implantación de programas de mejora; y, c) el _______________________________________Capítulo 1: Estructura General de la Tesis 14 modelo tiene que poder ser evaluado por la exactitud de sus predicciones, así como por su estabilidad y por su factibilidad para que pueda ser replicado por los decisores. b) Identificación de los modelos utilizados por los decisores. Normalmente la inestabilidad de los modelos predictivos se debe a las relaciones empíricas entre los ratios. Además, también existe en muchos casos una falta de homologación entre los términos, así como una deficiente delimitación del concepto y del ámbito dentro del análisis financiero. c) Determinación de los procedimientos de aprendizaje más adecuados. Se busca aproximar el modelo utilizado al modelo óptimo. CUADRO 1.1. LOS PROBLEMAS DE LOS MODELOS PARA PREDECIR QUIEBRAS TIPO DE PROBLEMA EN GENERAL • • PROBLEMAS CONCEPTUALES-TÉCNICOS • • • . • • PROBLEMAS CONCEPTUALES • • • • • PROBLEMAS TECNICOS • FUENTE: Elaboración Propia. TIPO DE PROBLEMA EN PARTICULAR El problema de la definición de la variable dependiente. El problema de la obtención de las bases de datos ante el window dressing en la utilidad del sistema contable. El problema de la estructuración de las bases de datos ante la presentación y comparación de los Estados Financieros. El Problema de la estructuración de las bases de datos ante la actualización de las cifras (la revelación y reexpresión.) El problema en las bases de datos sobre la exclusión de la contabilización de los nuevos instrumentos financieros o productos derivados. Determinación de la Muestra. Determinación de la Unidad de Análisis. Determinación de la Unidad Geográfica. Determinación de la Unidad Temporal. El problema de las limitaciones del análisis financiero. El problema doctrinal del Sistema Concúrsal Mexicano. El problema de la definición de las variables independientes y de la técnica de ratios. El problema de la aplicación de la técnica estadística del Factorial. Siguiendo con Jiménez (1996), este autor también considera como elementos básicos para poder validar la capacidad predictiva del modelo a los siguientes tres factores: la utilidad relativa de los ratios, las relaciones empíricas entre los ratios y las limitaciones generales de la investigación sobre predicción de quiebras Actualmente el enfoque más aceptado sobre los modelos predictivos es aquel que los divide en modelos univariables y modelos multivariables. Los primeros comprimen la extensa información financiera en una _______________________________________Capítulo 1: Estructura General de la Tesis 15 única variable o ratio que conduce regularmente a limitaciones importantes para una correcta predicción. Esto es porque la información financiera intenta medir al mismo tiempo no sólo un evento, sino todo un conjunto de transacciones distintas y todas ellas importantes para la existencia y desarrollo de la empresa. Por eso Lizarraga (1993: p.90) considera a los estados financieros como documentos multivariables que deben analizarse desde una “óptica multivariable” para llegar a mejores predicciones. No obstante, la validación de los modelos predictivos multivariables presentan serios problemas por el bajo nivel teórico que existe sobre la solvencia, además de las múltiples deficiencias metodológicas contenidas en los modelos, así como la falta de obtención de verdaderos resultados predictivos en empresas que se dirigen hacia la quiebra. Recordemos que el principal objetivo de los modelos de predicción es la detección oportuna de empresas que quebrarán en el futuro y su utilidad práctica sólo es patente cuando dichos modelos son capaces de distinguir entre empresas que “no fracasan” y tiene éxito (aunque presenten síntomas de fracaso empresarial) y empresas que sí fracasan (aunque no quiebren). Otro inconveniente relacionado con los modelos predictivos y que a llamado también nuestra atención, es el constatar que a la fecha la mayoría de las investigaciones no aplican nuevos modelos económicos en la fase de diseño del trabajo empírico, pues se interesan más en la aplicación de las técnicas estadísticas, que como apunta Jiménez (1996): “...tratan de ser más elegantes”. Sin embargo, para el trabajo del analista financiero siempre es más importante la exactitud del modelo predictivo que la contrastación de una hipótesis o la validación rigurosa de una teoría que sólo busca demostrar una compleja habilidad en el empleo de técnicas informáticas y estadísticas que se apartan de ambientes reales. Lizarraga (1993) también coincide con la idea anterior pues considera que la sofisticación metodológica, aunque imprescindible en el avance de la técnica, transforma en ocasiones a los investigadores en sólo “especuladores estadísticos”, que fundamentados en buenos resultados tras largos procesos de contrastación de variables, no tienen en cambio una base teórica y carecen de interpretaciones económicas convincentes. Ya Lev (1978: p.314) afirmó hace más de dos décadas que algunos modelos son inadecuados y cuando se emplean presentan generalmente el síntoma de la falta de una teoría base, desvirtuando en experimentos excesivos con gran número de variables y de modelos matemáticos cuyos datos y resultados son difíciles de generalizar. Con respecto a esto, Lizarraga (1993: p.103) recomienda que en la interpretación y validación de los resultados exista una interpretación económica para dar un sentido lógico a las causas del fracaso empresarial, y no sólo interpretaciones en términos estadísticos que se caracterizan frecuentemente por una ausencia de juicios económicos del investigador. Jiménez (1996) refuerza también la anterior idea al criticar la existencia de “una curiosa obstinación” por parte de algunos investigadores para demostrar que los modelos multidiscriminantes lineales, que son los más utilizados, tienen una capacidad predictiva superior o equivalente a otras técnicas avanzadas. Para él en estos trabajos se nota una falta de interés con respecto a si las variables utilizadas cumplen con los requisitos de dichos modelos o con la real exactitud predictiva. En parte la inercia de este fenómeno esta influida por el exceso de preocupación por parte de ciertos investigadores para seleccionar sólo aquellos artículos que son los más citados en las investigaciones de revistas prestigiosas. Normalmente su constante práctica busca evaluar un área para cumplir con los objetivos propuestos, olvidando a su vez recopilar otra información que pudiera dar un nuevo enfoque. Esta inercia sólo permite extender y verificar aquellos resultados que condicionan significativamente el comportamiento del investigador por el arraigo de sus convicciones defendidas y elimina los supuestos que puedan contrariar a sus hipótesis (Jiménez: 1996, p. 462). _______________________________________Capítulo 1: Estructura General de la Tesis 16 Es importante considerar que la evaluación de una área del conocimiento como la que nos ocupa, requiere la identificación de sus objetivos y “sub-objetivos” tal como se señaló líneas atrás. Posteriormente, para evaluar la capacidad de la investigación empírica con base al cumplimiento del objetivo principal, tenemos que centrarnos en dos tópicos concretos que están presentes en todas las investigaciones sobre el análisis de la solvencia empresarial y que son: a) la investigación dirigida al desarrollo de modelos con gran exactitud predictiva tiene que ser capaz de predecir la quiebra; y b) las técnicas de reducción de datos tienen que ser eficientes. Continuando con la investigación documental que realizó Jiménez (1996: p.460) sobre el estado actual de esta línea de investigación, sus resultados le indicaron una escasa utilidad de la investigación desarrollada a lo largo de los años, pues esta no cumplía con los dos objetivos antes mencionados y tampoco se logró cumplir con el objetivo central que es la de maximizar la exactitud predicitva de los decisores. Al observar los resultados de los trabajos analizados, la conclusión a la que llegó este investigador fue que a pesar de apoyarse dichos estudios en datos objetivos obtenidos a través de rigurosos procedimientos cuantitativos, estos presentaban en general la característica de ser insuficientes y sesgados para “concluir sobre una cuestión, debiendo generalmente ser replicados o matizados a la luz de otros”. Esta limitación que impide maximizar la capacidad predictiva de los decisores, causa que la dirección de la investigación se desvíe a la replica y extensión de los resultados obtenidos en alguno de los pequeños círculos de investigaciones que pretenden justificar algún logro, pero que en realidad es distinto al objetivo central, y por tanto, la evaluación de dicha investigación se presenta negativa. Por otra parte, para otros investigadores que cuestionan la utilidad de los modelos predictivos resulta significativo constatar que a largo de más de tres décadas de numerosas investigaciones, hasta la fecha ningún trabajo académico sobre este tema ha informado sobre la aplicación de los modelos de predicción en programas de evaluación o mejora en la toma de decisiones en empresas que fueron muestreadas. Además, también es significativo observar que gran número de investigaciones, con metodologías tan detalladas y rigurosas en el uso de las herramientas estadísticas, continúan caracterizándose por una total ausencia de información en sus resultados sobre quienes y cómo se están aplicando los modelos predictivos en los diferentes ambientes reales de las empresas de diversas partes del mundo. _______________________________________Capítulo 1: Estructura General de la Tesis 17 1.4. ALCANCE Y LIMITACIONES DE LA INVESTIGACION. Con base a la experiencia acumulada en previas investigaciones y a recomendaciones hechas por diversos autores especializados en el tema, este trabajo consideró en términos generales los siguientes alcances y limitaciones que a continuación se detallan. En el caso específico de empresas grandes y que cotizan en bolsa, Sánchez (1991) apunta que dada la compleja gama de circunstancias que afectan a sus títulos, los problemas o limitaciones del análisis financiero se pueden clasificar en los siguientes grupos o categorías: los derivados del entorno macroeconómico en general; los que se refieren a la empresa en su relación con el sector; las convenciones propias de cada mercado así como las presiones que ejercen los especialistas que operan en el mismo; y el componente psicológico, consecuencia de la combinación de todos los factores antes descritos. Las anteriores convenciones y efectos psicológicos constantemente distorsionan y dificultan el análisis objetivo, y según Sánchez (1991), obstaculizan la formulación de un modelo exacto de comportamiento al introducir el factor subjetivo en el análisis de las previsiones. Esto se debe a que la estructura del análisis recoge tanto factores de riesgo como factores de aleatoriedad, siendo el primer factor una valoración subjetiva. En general para este estudio hemos tomado en cuenta algunos factores macroeconómicos tales como la reexpresión de los estados financieros; la relación entre la empresa y el sector, al elegir sólo aquellas entidades que cotizan en Bolsa y son hoteleras; y en cuanto al componente psicológico, al analizar los antecedentes históricos hemos intentado no repetir ciertos errores o paradigmas negativos. A continuación explicamos con más detalle estos aspectos. Los elementos que limitan y dificultan el análisis financiero son los de tipo contable, tales como la comparación de los estados financieros, la reconstrucción de los conceptos contables, la reclasificación de las partidas en función de criterios temporales a corto y largo plazo, la falta de información en términos de valores medios (pues normalmente esta información presenta estaticidad), la imprecisión y reformulación de conceptos, el efecto window dressing, entre otros. Por otra parte, tomamos en cuenta que la valoración del analista financiero al buscar obtener información para la fijación de criterios de inversión y financiación en un mercado o sector que presente problemas inflacionarios, origina que el análisis se desarrolle con cifras distorsionadas, que aunque se reexpresen por cualquier método, entre estos mismos existen diferencias sustanciales en cuanto a la valoración y desacuerdos importantes sobre si se reexpresan a través del mantenimiento del capital financiero o del capital físico. En un interesante trabajo de Fernández (1986: p.113), éste indica que el análisis financiero aunque es irremplazable para aprender del pasado, resulta sin embargo insuficiente en sí mismo para una real toma de decisiones, pues la experiencia ha demostrado que las situaciones del pasado no se perpetúan. Además, este investigador agrega que el análisis de los cambios producidos en el valor relativo de los distintos elementos de los estados financieros resulta ineficaz si existen problemas en el ámbito conceptual y técnico. De ahí que abordemos este tipo de problema para obtener un mayor alcance en nuestras conclusiones. Para los problemas de carácter técnico, Fernández (1986) pone de relieve la utilización práctica de los instrumentos de análisis, pues no existe una teoría subyacente que permita establecer normas definidas al considerar varios factores. Para esto es importante reconsiderar que si el análisis financiero se vale fundamentalmente de la técnica de ratios, estos presentan problemas de correlación entre los componentes _______________________________________Capítulo 1: Estructura General de la Tesis 18 de las razones financieras ya que son comunes algunos numeradores y denominadores, y por tanto, no existe independencia. Otro limitación común es la dispersión de los datos, pues normalmente sólo se llega a utilizar una medida de tendencia central como la media del sector y esto resulta insuficiente. Por eso el análisis financiero actualmente incluye en su nueva estructura dos tipos de técnicas muy importantes que son las medidas de descomposición y los modelos estadísticos de clasificación. La primera técnica estadística permite al analista determinar como están distribuidos los elementos de una estructura para analizar los cambios que a lo largo del tiempo se producen en ésta. Estas medidas de descomposición se basan en el análisis de la cantidad de información contable. La aplicación de las medidas de descomposición dentro del análisis de los estados financieros es una oportunidad para conocer si la empresa mantiene su estructura estable en el tiempo, o bien, poder localizar sus puntos débiles con relación a su sector (Fernández, 1996: p.117). Con la aplicación de las técnicas predictivas además de que es posible buscar reducir la información, también se puede llevar a cabo la clasificación de los individuos u objetos en un conjunto de grupos previamente establecidos (el análisis discriminante). Sin embargo, el alcance, o mejor dicho, la mayor limitación del análisis financiero es que actualmente representa sólo un componente del análisis general de una empresa, ya que debe complementarse con el análisis técnico, el análisis fundamental, el análisis bursátil, entre otros. También es importante considerar al “análisis intuitivo” sobre los actuales factores diferenciadores que dependen del producto o servicio, de la estructura productiva, de los costes, del desarrollo tecnológico, la dependencia financiera, la localización geográfica, la dimensión y características de los activos, la política de investigación y posición estratégica o incluso el nivel de desarrollo del país. Uno de los objetivos actuales del análisis financiero y que incorporamos en este trabajo, es el estudio de los aspectos importantes de la teoría contable y su relación con los modelos predicitvos. Para esto es importante revisar detalladamente el marco conceptual de los principios y normas que rigen la técnica contable actual para entender y saber solucionar los problemas prácticos que se presentan en la obtención de aquella información financiera que necesita la empresa en economías abiertas y a través del tiempo para alcanzar su estabilidad así como el crecimiento sostenido dentro del mercado en donde opera. Bernstein (1999) ha definido al análisis financiero como el proceso crítico y dirigido a evaluar la posición financiera (presente y pasada) y los resultados de las operaciones de una empresa, con el objetivo primario de establecer las mejores estimaciones y predicciones posibles sobre las condiciones y resultados futuros. Pero el principal propósito del análisis financiero para este autor es sin duda alguna la toma de decisiones sobre préstamos e inversiones, y para esto apunta que se requiere de datos válidos y bien organizados, pues de lo contrario los datos incompletos o distorsionados conducen a decisiones incorrectas. Por eso el proceso del análisis de estados financieros consiste en la conversión de datos a información útil y más sintetizada. Esto lo llevamos acabo aplicando primero el método de ratios y posteriormente aplicamos el método del factorial. Retomando a Bernstein (1999), éste opina que en general el análisis financiero es una herramienta de decisiones empresariales; previsión de situaciones y resultados futuros; diagnóstico de áreas con problemas de gestión; instrumento de evaluación de la gestión; y sobre todo reduce la dependencia de corazonadas, intuiciones e incertidumbres. Sin embargo, este autor apunta que una limitación del análisis financiero es _______________________________________Capítulo 1: Estructura General de la Tesis 19 que no aminora la necesidad de emplear la capacidad de discernimiento, pues sólo se establece una base firme y sistemática para su aplicación racional por parte del analista externo o interno. Con frecuencia la limitación de datos representa el problema central en este tipo de estudios, pues fue hasta después de 1980 que la información de cash flow empezó a estar disponible y eso sólo en las empresas de los Estados Unidos. Además, en este período la armonización de la información contable era muy limitada entre los diferentes países. Esto nos llevó a determinar que la unidad temporal se considerara a partir de 1990, pues a esa fecha ya se había avanzado más en el proceso de armonización contable internacional, y en el caso de las empresas mexicanas que cotizaban en la Bolsa, la elaboración de estados financieros presentaba ya un conjunto de criterios bien sistematizados y un catálogo de cuentas contables homogeneizado que permitió mejorar sustancialmente la calidad y utilidad de la información. Cabe destacar que este estudio se enfocó únicamente a aquellas empresas hoteleras de tamaño grande y del sector privado que cotizan en la Bolsa Mexicana de Valores. Por lo tanto, las generalizaciones de los resultados del análisis factorial no pueden ser aplicables a empresas pequeñas, medianas o corporaciones públicas. Esto es con el fin de poder hacer generalizaciones más acertadas sobre un sector y tamaño de empresa muy específico. Para esto se definieron los criterios cuantitativos y cualitativos que caracterizan a una empresa grande. Sin embargo, se reconoce que actualmente el número de empresas hoteleras que cotizan en la bolsa es escaso con relación al total de empresas inscritas. En este punto hemos de tomar en cuenta que la selección se realizó más bien con el propósito de iniciar un estudio de amplio alcance y a largo plazo dentro del sector hotelero mexicano. Para ello hemos comenzado por analizar al total de hoteles que cotizan en bolsa con el fin de obtener las variables independientes y los mejores factores que nos expliquen el comportamiento sectorial de estas empresas. Por otra parte, las generalizaciones del modelo a través del tiempo pueden presentar una inestabilidad por las variables que afectan a la información financiera, debido principalmente a los cambios en los criterios contables. Sin embargo, para reducir dicha inestabilidad hemos utilizado únicamente cifras reexpresadas y auditadas para que sean comparables a través de los años. También se buscó descomponer en elementos muy detallados a las variables independientes más importantes que influyen en los siete factores establecidos a priori. Previo a esto, se seleccionaron los ratios financieros reconocidos como los más efectivos para el análisis financiero de una empresa compleja mexicana. Con respecto al análisis factorial, que es el método estadístico que se seleccionó para obtener algunas evidencias empíricas entre el desarrollo conceptual de los ratios y el sector seleccionado, hemos creído importante mencionar algunas de sus ventajas y desventajas al principio de este trabajo, pues de hecho estas representan los alcances y limitaciones propias de este método multivariable en cualquier tipo de estudio. Entre las principales alcances del análisis factorial se pueden citar principalmente a los siguientes: a) Los factores indican las mediciones subalternas de los parámetros financieros del conjunto de variables en general. b) Los resultados del análisis factorial pueden proporcionar algunos indicios sobre el tipo de información contenida en el conjunto de variables y pueden servir de guía para la selección de las variables independientes de un modelo predictivo final. _______________________________________Capítulo 1: Estructura General de la Tesis 20 c) La reducción del conjunto de las variables independientes está dirigida hacia la selección de una variable por cada factor que contenga similar información. Así, el uso de varias variables en un factor dado no es necesario. d) Utilizar pocas variables predictivas reduce la multicolinealidad y la probabilidad de que las variables incluidas en el modelo sean combinaciones lineales con respecto de cada una de aquellas que exhiban un alto grado de correlación. Además, pocas variables en el modelo final simplifican la aplicación del modelo y la interpretación de los resultados. Con respecto a las desventajas, no hay que olvidar que en las técnicas de reducción de datos se han detectado varios problemas importantes en cuanto a la utilización de los resultados obtenidos en el proceso del análisis factorial. Entre las limitaciones que más se presentan podemos mencionar las siguientes: a) Obtención de diferentes resultados al aplicar diferentes métodos de extracción de factores. A partir de que Hotteling (1933) presentó el método de componentes principales para la extracción de factores, se han generado un gran número de alternativas que han dado como resultado diferentes tipos de soluciones ante un mismo problema. Hasta ahora no se ha alcanzado un acuerdo sobre cual es el mejor método para extraer los factores, aunque algunos coinciden en que el análisis de componentes principales es el de mejor aceptación. Sin embargo, otros autores consideran que dicho método en realidad no pertenece al análisis factorial y que las mejores alternativas factoriales son: el método de mínimos cuadrados o el método de máxima verosimilitud . Para comprender mejor la complejidad del factorial en este punto, se pueden llevar a cabo las comparaciones de los resultados que se obtienen a través de la aplicación de los diferentes métodos. Para el caso de este estudio únicamente se seleccionó el análisis de componentes principales. b) Acuerdo sobre el número de factores a extraer y conservar. Con respecto al número de componentes que deben ser incluidos en la solución final del modelo, se pueden utilizar ciertas técnicas estadísticas para su determinación, tales como: el análisis de factores "eigenvalues", "skee test", y el "criterio de la importancia substantiva". Los componentes con "eigenvalues" mayores de uno son considerados significativos. Esta regla general se ha utilizado como un punto de partida en numerosos estudios. Además, ésta técnica junto con la de gráficas "skeet test", son aplicables sólo en soluciones sin rotación. En cuanto al "criterio de importancia substantiva", se utiliza como una guía si los resultados de solución de rotación ortogonal son más fáciles para interpretar los componentes con respecto a una solución sin rotación. Esta última técnica está basada sobre la consideración de una cantidad de varianza total dentro de los datos explicados por cada componente individual, y sólo aquellos componentes que son considerados explicativos de la porción substancial de la varianza total se toman como significativos (Kim y Mueller: 1978). c) El problema de la parsimonia. El análisis factorial al ser una técnica dirigida por las variables, los componentes principales identificados varían en número y composición. La matriz factorial normalmente contiene un número superior al necesario para explicar la estructura de los datos originales. A la fecha se cuenta con la suficiente evidencia empírica que establece de que a partir de un conjunto de factores, al reducirlos a través de una técnica estadística adecuada posibilita la explicación de la mayor parte de la variabilidad total, ya que los factores que se eliminan contribuyen mínimamente. Sin embargo, el problema principal radica en determinar cual es ese conjunto mínimo de factores para cumplir con el principio de parsimonia. d) Aunque existen pocos criterios de amplía aceptación entre los diversos investigadores con relación a los métodos para la selección del número de factores, no siempre estos coinciden. Entre uno de los métodos _______________________________________Capítulo 1: Estructura General de la Tesis 21 más aceptados esta el de Kaiser (1960). Este se basa en conservar sólo aquellos factores o componentes principales cuyos eigenvalues sean mayores a la unidad. Sin embargo, en ocasiones se considera que no siempre este método resulta el más adecuado, y entonces se puede optar por analizar el porcentaje de la varianza total explicada por cada factor. En este caso, si se llega a alcanzar un porcentaje acumulado relativamente alto, indicará que el número de factores es el adecuado. e) Otro método propuesto para la selección de los factores es el que se basa en: “la regla de la restitución mínima”, que consiste en fijar a priori un nivel mínimo de varianza a explicar. Por último, está el método que se basa en: “la regla de la información restituida por cada factor”. Esto último consiste en la aplicación de una serie de reglas empíricas que proporcionan una representación gráfica tal como la “scree plot” o “scree test”. Aquí los factores con varianzas altas se ubican por separado de los factores con varianzas bajas. Esto quiere decir que existe un punto de distinción que se denomina: “punto de inflexión del gráfico”. Todos aquellos factores situados antes del punto de inflexión se conservan, y en el caso del gráfico los factores se sitúan en el eje de las abscisas y los eigenvalues en el eje de las ordenadas. El gráfico o “figura” (que se asemeja a la falda de una montaña) permite observar aquel factor que se sitúa en la parte más alta del gráfico. Dicho factor es el que explicará la mayor parte de la variabilidad. Posteriormente, los otros factores con menor grado de explicación de la variabilidad se localizan en los niveles inferiores hasta llegar al punto de inflexión a través de la unión de puntos. Esto indica que a partir de éste punto todos los demás factores contribuyen muy poco a explicar la variabilidad total. Sin embargo, en ocasiones se presentan varios puntos de inflexión muy similares y entonces se complica la selección de un único punto. f) Obtención de componentes complejos a través de los métodos de rotación de factores (ortogonales y oblícuos). Como ayuda para la interpretación de los resultados de un análisis factorial común, o bien, de componentes principales, se lleva a cabo un paso previo importante que es la rotación factorial. Aquí se buscan implicaciones o situaciones reales para interpretar los factores obtenidos en función de las variables e individuos que los caracterizan. Según Batista y Martínez (1989: p.91)1, hasta el momento el único criterio empleado ha consistido en extraer los componentes de modo que tengan varianza máxima, y esto ha provocado el surgimiento de componentes primarios muy complejos que se correlacionan con la mayor parte de las varianzas originales, y por lo tanto, dificultan la interpretación. g) Problemas en la interpretación. En la práctica muchas veces es difícil la interpretación de una combinación lineal de un gran número de ratios. Esto hace que se pierda una de las ventajas originales para utilizar los ratios, y que consiste en su facilidad de comprensión por parte de los ejecutivos o directivos de las empresas (Laurent: 1979). Si se aplica el modelo factorial en ambientes reales, la lógica subyacente a la técnica de reducción de datos es incongruente con el comportamiento observado en los decisores. Esto se debe a que la técnica se dirige a mejorar la toma de decisiones a través de la eliminación de redundancia. Sin embargo, estudios empíricos concluyen que los decisores expresan mayor confianza con datos correlacionados frente a datos no correlacionados de igual validez (Kanehman y Tversky: 1973; Swieringa:1976). Aunque para algunos investigadores resulta ilógico este comportamiento, en la práctica la empresa moderna produce sus propios mecanismos de alerta y prevención. Este hecho lleva a que en repetidas ocasiones los directivos opten por información redundante a cambio de obtener la máxima seguridad antes de llevar a cabo la toma de decisiones. En tales casos el decisor al preferir utilizar pruebas o análisis redundantes no busca indicadores sintéticos o globales, pues la experiencia indica que la confiabilidad de los datos no es estable. 1 Batista Foguet Joan Manuel y Martínez Arias Ma. Del Rosario (1989): “Análisis Multivariante”. Edit. Esade; España; p.126 _______________________________________Capítulo 1: Estructura General de la Tesis 22 Otro factor que también influye para la no eliminación de información redundante, es que la producción de ésta actualmente no implica costes excesivos, y por lo tanto, eliminarla no es justificable sólo por razones económicas. Prueba de ello es que varias empresas trabajan con sistemas paralelos, es decir, existen áreas que trabajan con correlación de funciones y otras bajo la técnica de máxima reducción de datos. Normalmente la gerencia de sistemas y procedimientos busca la implementación de un sistema de control interno que obliga a una interdependencia de todas las áreas para contrarrestar la "infidelidad de los datos". En general, los anteriores limitaciones contradicen en gran medida el objetivo central de la técnica de reducción de datos. Esto impide a los investigadores y analistas financieros partir de un estándar de variables independientes como el propuesto por Altman. Además, en repetidas ocasiones los estudios no parten de bases de datos y muestras ya reducidas para el desarrollo de sus respectivos modelos, pues no existe un enfoque sistemático único. Esto trae como resultado que cada vez que se inicia un modelo se tiene que partir de un gran número de variables independientes para aplicar la técnica de reducción de datos con pequeñas variaciones. En otros casos se parte con criterios totalmente diferentes aunque se trate del mismo sector y tamaño de empresas analizadas. Todas estas limitaciones ya habían sido observados desde hacia tiempo por Horrigan (1965), quien propuso al respecto qué, para el desarrollo de esta técnica se debería intentar estructurar pirámides, jerarquías y clasificaciones de ratios orientadas por la literatura empírica. Con esto se pretendía establecer un conjunto de generalizaciones empíricas tendientes a crear los fundamentos de una metodología para el análisis financiero. La reducción de datos o ratios para obtener las jerarquías y clasificaciones se ha desarrollado en los últimos años a través del análisis de componentes principales o factorial, sin modificar su objetivo central que se dirige a evitar la multicolinealidad a partir del conjunto de variables independientes o factores. Como hemos dicho los componentes principales son combinaciones lineales de variables originales que pretenden explicar una gran porción de la información (varianza) con el mínimo de factores y la mínima perdida de información importante. Para Jiménez (1994) la limitación que presenta esta reducción de datos radica que al ser una técnica dirigida por las variables, ésta depende principalmente de los ratios seleccionados y esto origina que los componentes principales identificados difieran en número y composición al existir diferentes criterios para la selección de componentes originales en el inicio del modelo. En la literatura hasta ahora escrita, según Jiménez (1996), no se han encontrado aún resultados capaces de resolver este problema, pues al sustituir cada componente principal o un ratio estrechamente correlacionado, ocasiona una pérdida adicional de información. También la composición de los factores está influida por las muestras de ratios y las muestras de empresas seleccionadas en cada uno de los estudios. Aunque en ocasiones esta variabilidad no afecta a la hora de obtener resultados positivos, estos últimos pueden sin embargo ser inestables, pues a lo más sólo sirven para satisfacer los requerimientos específicos de la investigación pero sin llegar al punto de construir teorías o modelos generalizables a través del tiempo. En general podemos decir que previo al inicio de este trabajo, hemos considerado los principales alcances y limitaciones de cada uno de los elementos del modelo, tales como la utilidad de la base de datos, la selección de la muestra, la definición de la variable dependiente, la selección de las variables independientes, así como las limitaciones del método de ratios y del análisis factorial. Sin embargo, _______________________________________Capítulo 1: Estructura General de la Tesis 23 consideramos que en todos estos aspectos quedará mucho trabajo por desarrollar en el futuro dentro del sector que se seleccionó. ___________________________________________________Capítulo 2: Antecedentes Históricos 24 CAPITULO 2 ANTECEDENTES HISTORICOS 2.1. ESTUDIOS UNIVARIABLES Y MULTIVARIABLES PARA PREDECIR QUIEBRAS. El estudio empírico para determinar el nivel de solvencia con el fin de predecir o evitar una posible quiebra en una empresa a través de la utilización de ratios, métodos estadísticos y el análisis financiero sobre los componentes de la solvencia, la liquidez, la rentabilidad, entre otros factores, ha sido explorado en numerosos estudios a partir de 1932 cuando Fitzpatrick llevó a cabo los primeros trabajos que dieron origen a la denominada etapa descriptiva. El objetivo central de estos trabajos consistió en intentar detectar las quiebras empresariales a través de sólo el uso de ratios. Posteriormente, Beaver (1966) y Altman (1968) iniciaron la etapa predictiva del fracaso empresarial con el desarrollo de sus modelos univariables y modelos multivariables respectivamente. A partir de estos estudios hasta nuestros días se han continuado produciendo innumerables trabajos en todo el mundo para perfeccionar los modelos predictivos; enmarcándose cada uno de éstos en alguna de las etapas mostradas en el cuadro No. 2.1., que con la adición en la aplicación de métodos estadísticos más eficientes se ha intentado obtener más capacidad y exactitud en los indicadores predictivos. En general la quiebra masiva de empresas, tanto en países desarrollados y en países en vías de desarrollo, se intensificó a finales de los años sesenta y durante toda la década de los setenta. Esto llevó a los países más adelantados en los campos de las finanzas, la estadística, la informática y la contabilidad, a emprender numerosos estudios dedicados a la predicción de quiebras y al desarrollo de la teoría de la solvencia, destacando como principales precursores los norteamericanos Beaver y Altman. Además de estos trabajos clásicos, también se fueron generando otros muy importantes en casi todos los países con economías de mercado, pero dada la vasta cantidad de publicaciones hasta ahora producidas, en la presente compilación nos hemos visto obligados, por una parte, sólo a citar en términos generales los trabajos de algunos autores; y por otra parte, hemos analizado sólo aquellos trabajos que corresponden a estudios clásicos y que influyeron más en las actuales investigaciones que han sido publicadas en la literatura especializada y que son citados con mayor frecuencia en cada nueva investigación que trata sobre las predicciones de quiebras. Sin embargo, también se han incluido cuatro importantes trabajos desarrollados en economías emergentes que se asemejan más con el caso mexicano: tres de ellos son Latinoamericanos (Brasil, Argentina y Uruguay) y uno en Corea del Sur. Adicionalmente, presentamos dos interesantes trabajos que consideramos dan un nuevo enfoque de los modelos predictivos: uno corresponde al desarrollado en Japón y el otro en Italia. Es importante mencionar que al ir explicando cada una de las etapas sobre el desarrollo de la investigación predictiva, se puso especial atención a determinados elementos que están implícitos en todas las investigaciones y que consideramos son los más importantes para observar el desarrollo o limitaciones que presentan los estudios sobre el análisis de la solvencia y su relación con la capacidad predictiva de las quiebras. Dichos elementos a los que nos referimos y que representan nuestra guía de análisis son los siguientes: la unidad de análisis, la unidad geográfica, la unidad temporal, la selección de las muestras, la determinación de la variable dependiente, la selección de las variables independientes, la metodología aplicada, los resultados obtenidos y las bases de datos. ___________________________________________________Capítulo 2: Antecedentes Históricos 25 En este último elemento, que representa uno de los principales objetos de análisis de nuestra investigación, hemos observado que a pesar de presentar complejos problemas, tanto en su obtención como en la mejora de su presentación para el desarrollo de las investigaciones, no se ha desarrollado de forma más profunda en comparación con algunos de los otros elementos. De ahí que nos propusiéramos hacer inferencias más que elementales sobre las bases de datos contables, en lugar de repetir algunos resultados que ya están más que comprobados, como es el caso de los métodos estadísticos utilizados. CUADRO No 2.1. EVOLUCION HISTORICA DE LOS MODELOS PREDICTIVOS PARA EL FRACASO EMPRESARIAL AÑO NOMBRE DEL AUTOR ETAPA DESCRIPTIVA 1. EL ANÁLISIS FINANCIERO A TRAVES DEL MÉTODO DE RATIOS PARA LA PREDICCION DE QUIEBRAS 1932 Fitzpatrick Paul 1935 Winakor Arthur y Smith Raymond 1942 Mervin Charles 1965 Horrigan James INICIO DE LA ETAPA PREDICTIVA: ACCRUAL BASED 2. ESTUDIOS DE MODELOS UNIVARIABLES BASADOS EN INFORMACIÓN CONTABLE TRADICIONAL: SISTEMAS DE COSTE HISTÓRICO O DEVENGO 1966, 1968 William Beaver DESARROLLO DE LA ETAPA PREDICTIVA: ACCRUAL BASED@ 3. ESTUDIOS DE MODELOS MULTIVARIABLES BASADOS EN INFORMACIÓN CONTABLE TRADICIONAL: SISTEMAS DE COSTE HISTÓRICO O DEVENGO 1968, 1977 Altman Edward 1972, 1977 Deakin Edward 1972 Edmister Robert 1974 Blum Marc 1980 Ohlson James 1984 Rose Peter y Giroux Gary 1984 Taffler Richard 1985 Zavgren Christine DESARROLLO DE LA ETAPA PREDICTIVA: CASH BASED@@ 4. ESTUDIOS DE MODELOS MULTIVARIABLES BASADOS EN CASH FLOW 1980, 1988 Dambolena Ismael y Khory; Dambolena Ismael y Shulman Joel 1980 Largay James y Stickney Clyde 1980 Casey Cornelius 1984, 1985 Casey Cornelius y Bartczack Norman 1985a, 1985b Gentry James, Newbold Paul y Whitford David 1985 Kurokawua Yukiharu y Takahashi Kichinosuke 1987 Gombola Micahel, Haskins Mark, Kentz Edward y Williams David 1988 Ghalon James y Vigelan Robert 1989 Azis Abdul y Lawson Gerald ___________________________________________________Capítulo 2: Antecedentes Históricos 26 DESARROLLO DE LA ETAPA PREDICTIVA: FACTORIAL ANALISYS 5. ESTUDIOS DE MODELOS MULTIVARIABLES BASADOS EN EL ANÁLISIS FACTORIAL 1973, 1975 Pinches George, Mingo Kent, Cartuthers Kent y Eubank Arthur 1981 Chen Kung y Shimerda Thomas 1983a, 1983b Gombola Michael y Ketz Edward 1985 Casey Cornelius y Bartczack Norman 1987 Gombola Michael, Haskins Mark, Kentz Edward y Williams David @ En términos financieros “accrual” se define como el aumento o crecimiento gradual y/o automático, es decir, es la acumulación; devengo; aparición o surgimiento de un derecho, prerrogativa o privilegio. De esta forma la base del devengo contable (accrual basis accounting) se refiere a la contabilidad acumulativa, diferida, de valores agregados. Es decir, siguiendo el principio del devengo, que también es conocido como contabilidad por acumulación o acumulación básica. En este tipo de contabilidad se consignan los gastos e ingresos conforme se producen, asignándolos al período de devengo con independencia del momento en que se cobren o paguen. @@ En contraste, el método de efectivo (cash basis) refleja la cuenta de los pagos y cobros efectivos. La contabilidad de caja (cash basis accounting) es el método contable basado en el efectivo y su criterio se basa en el registro de caja. En este método contable se consignan los gastos y los ingresos cuando se efectúan o reciben en efectivo. En teoría, es lo contrario del “accrual basis accounting”, aunque en la práctica el método mixto (modified cash basis) también se le denomina con el mismo nombre. @@@ Según el Diccionario Hughes (1999) que trata sobre términos económicos, financieros y comerciales, el “Cash flow” es un término polisémico (pluralidad de significado de una palabra)cuyo significado inicial es “flujo de dinero o dinero constante”. Desde un aspecto financiero significa: flujo de caja; movimiento de efectivo, de tesorería; caja generada; beneficios más amortizaciones; beneficio neto consolidado más amortizaciones y provisiones. Por extensión semántica (teoría lingüística que se aparta de la gramática generativa) se llegan a formar todos los demás términos como: recursos generados, índice de la capacidad de autofinanciación de una empresa, resultados de los movimientos de tesorería durante un período largo, margen bruto de financiación; recursos generales; conjunto generado por los beneficios netos, las amortizaciones, las reservas legales, los impuestos y las plusvalías. Sin embargo, pese a todos estos términos y a su popularidad, el cash flow es un término impreciso, y para los economistas no tiene más que un valor relativo, siendo uno de entre los varios indicadores del volumen del negocio generado por la empresa, y consecuentemente, de su marcha en general, sobre todo en lo que se refiere a su liquidez. ___________________________________________________Capítulo 2: Antecedentes Históricos 27 CUADRO 2.2. ESTUDIOS IMPORTANTES SOBRE LA PREDICCIÓN DE QUIEBRAS CONSIDERANDO EL PAÍS DE ORIGEN Baetge Jörg, Huss Michael y Niehaus Hang-Jürgen(1988) Von Stein Johann y Ziegeler Werner (1984) Schmidt Reinhart (1984) Alemania Fischer(1981) Gebhard (1980) Weinrich´s (1978) Beerman (1976) Von Stein Johann (1968) Argentina Swanson Eric y Tybout James(1988) India Bhatia Umesh (1988) Italia Marco Giancarlo y Varetto Franco (1993) Altman Cifarelli Donato, Corielli Francesco, Foriestieri Giancarlo (1988) Appetiti Sandro (1984); Iselin Errol (1991) Australia Izan H.Y. (1984, 1982, 1981) Lincoln Mervyn (1984) Castagna A.D. y Matolcsy Z.P. (1981) Brasil Baida Tara y Ribeiro Luis Manoel (1979); Altman Lavallee (1981); Altman Knigth (1979); Altman Wood Douglas y Piesse Jennie (1988) Inglaterra Taffler Richard (1984, 1980, 1977, 1976) Earl y Marais (1982) Marais (1979) Irlanda Cahill (1981); Canadá Israel Tamari Meir (1977); Kurokawua Yukiharu y Takahashi Kichinosuke (1985) Ko (1982) Takahashi (1981, 1979) Corea del Sur Kim Won Dong y Eom Ho Young (1995); Altman Japón España Estados Unidos Fernandez Ana Isabel (1998) Lizarraga Dallo Fermín (1995) Jimenéz Cardoso Sergio (1996) Gabas Trigo Franciso (1990) Mora Enguianos Araceli (1995, 1984) Briones José, Marin Martín y Cueto Ma. José (1988) Narayanan Paul y Altman (1996); Altman Haldeman Robert y Altman (1995); Altman Weston Fred, Chen Yehning y Altman (1994); Altman Friedman Halina, Li Kao Due y Altman (1988); Altman Leary Daniel (1992) Lo Andrew (1985) Zmijewski Marke (1984) Malasia Bidin Rahim Abdul (1988); México Moctezuma Martínez Anselmo (1998) Hartztell y Peck (1995); Altman Finlandia Suominen Seppo (1988) Micha Bernard (1984) Bontemps (1981) Mader (1981, 1979, 1975) Collongues (1977); Gloubos George y Grammatikos Theobarry (1988) Theodossiou Panayiotis y Papoulias Costas (1988); Fire Scoring System of Breed (1996) Bildeerbek (1977) Van Frederikslost´s (1978) Singapur Ta Phuong Huu y Seah Huang Lee (1988) Francia Suiza Weibel (1973) Grecia Taiwan Chen (1994) Holanda Turquía Unal Targan (1988) Uruguay Pascale Ricardo (1988) ___________________________________________________Capítulo 2: Antecedentes Históricos 28 2.2. ETAPA DESCRIPTIVA A TRAVES DEL METODO DE RATIOS. Aunque ya desde 1908 el ratio de circulante había sido citado en la literatura especializada por Williams M. Rosendale del Departamento de Créditos en la revista “Bankers´ Magazine”, el inicio real en la utilización de los ratios como medida de valor-crédito dentro del análisis financiero, se remonta a la década de los sesenta con el desarrollo de los actuales ratios mediante la aplicación de estudios empíricos que originaron la evolución literaria sobre el tema de la predicción de quiebras (Beaver: 1966, p.71). Según Lizarraga (1996: p.77), el incluir los ratios en los primeros estudios financieros tuvo como principal objetivo el investigar en qué medida representaban herramientas valiosas y adicionales para el análisis financiero con fines básicamente descriptivos. Sin embargo, estos trabajos desde finales del siglo pasado hasta los años treinta, ya mencionaban la posible capacidad de los ratios para predecir un posible fracaso. Posteriormente, a partir de la segunda mitad de la década de los sesenta, el enfoque se centró en determinar la solvencia a largo plazo y la posible predicción de una quiebra basándose en evidencias empíricas; es decir, se pasó de una etapa descriptiva a una etapa predictiva. En la fase descriptiva, los trabajos empíricos se caracterizaron fundamentalmente por intentar demostrar que los ratios de las empresas que fracasaban presentaban una tendencia desfavorable conforme se acercaba la fecha del fracaso definitivo de la empresa. Actualmente este pensamiento persiste en muchos trabajos que tratan sobre el tema y que erróneamente continúan sin considerar que existen ciertas premisas que son importantes de analizar antes de depositar nuestra entera confianza en este criterio, ya que no siempre la tendencia de los ratios indica si una empresa se dirige o no al fracaso. Por ejemplo, la tendencia en ocasiones carece de valor predictivo para cualquier analista si se observan algunos de los siguientes factores negativos: * Que exista un grado o variabilidad de manipulación importante en los estados financieros, y en específico a aquellas partidas que forman parte de algunos de los ratios con más capacidad predictiva. * Que se produzcan importantes cambios en los criterios de amortización y valuación de activos productivos y financieros que se toman en cuenta al elaborar los estados financieros. * Una falta de calidad en la auditoría anual externa, o bien, que teniendo calidad ésta, la dirección omita las posteriores acciones correctivas con relación a las salvedades o recomendaciones expuestas en el dictamen final. Por ejemplo, la no reclasificación de saldos significativos de ciertas partidas que forman parte de algún componente del ratio. * La aceptación o rechazo, por parte de los directivos de la empresa, para adoptar los nuevos criterios propuestos por las instituciones o colegios de contadores, con respecto a las nuevas formas de registró y su posterior expresión de ciertas transacciones dentro de los estados financieros. Tal es el caso de aquellas partidas consideradas fuera de balance, como por ejemplo, las operaciones originadas por los productos derivados (swaps, options, futures, entre otras). Con respecto a las limitaciones del método de ratios, hemos de reconocer, que una primera exploración e interpretación de gran cantidad de información financiera interna de la empresa puede realizarse por medio de la selección y síntesis adecuada de los datos. Ciertamente un primer método que es efectivo, si consideramos sus limitaciones, es el del uso de ratios que de forma simple, rápida y significativa, nos dan información primaria reveladora y sintética sobre la evolución de la empresa, y hasta cierto punto, sin necesidad de recurrir a modelos matemáticos o estadísticos que, si no son bien utilizados, pueden llegar a ser instrumentos meramente teóricos que se alejan del carácter concreto, cambiante y pragmático que caracteriza a la empresa moderna. Sin embargo, dicho método tiene insuficiencias y ___________________________________________________Capítulo 2: Antecedentes Históricos 29 debilidades por la fácil manipulación de sus componentes (ya sea en el numerador, en el denominador o en ambos). Los ratios parten de la idea de la comparación de magnitudes; de ahí su etimología latina "ratio" que significa: "relación, razón". Su constatación elemental se refiere a que dos datos aislados que tienen cada uno valor en sí mismo, adquieren frecuentemente un interés aún mayor cuando se les combina en un quebrado. Como sabemos, la razón o relación de dos cantidades, que es el resultado de compararlas, se puede llevar a cabo de dos maneras: a) restando, lo cual consiste en hallar cuanto excede una cantidad a otra (razón aritmética o por diferencia); y b) dividiendo, que consiste en hallar cuantas veces contiene una cantidad a otra (razón geométrica o por cociente). La metodología de los ratios financieros utiliza las razones geométricas o por cociente, y uno de sus fundamentos teóricos consiste en elegir relaciones racionales entre magnitudes significativas, ya que los ratios no son elementos dispares y dispersos de información. La ligazón que tienen entre sí hacen de ellos un conjunto coherente y las proyecciones de esta cohesión son particularmente fecundas para llevar a cabo la dirección de la empresa, y como indican Lauzel y Cibert (1989): si definiéramos al cuadro estadístico de mando de la empresa como "una organización permanente de informaciones, destinada a promover y orientar la acción al mismo tiempo que a ilustrar sobre sus efectos", los ratios representarían la osamenta alrededor de la cual el cuadro de mando puede tomar forma. Por otra parte, el método de ratios también es un instrumento de observación dirigido a la empresa y su utilización debe estar basada sobre un conocimiento suficiente sobre su propia naturaleza y la significación de las relaciones que expresa para poder extraer una conclusión interesante. Así mismo, debemos abstenernos de dividir las cifras mientras no hayamos establecido previamente la significación del cociente, pues los ratios son "relaciones racionales" (Lauzel y Cibert: 1989). Además, ningún ratio hay que considerarlo aisladamente, pues todos ellos deben ser comparados con un patrón para determinar si su nivel es satisfactorio o no. Según Westwick (1990), para obtener dicho patrón es necesario antes de seleccionar a los ratios, definir cuales serán sus objetivos. Actualmente existen opiniones acertadas que afirman que el método de ratios “no es tan, o ni más simple” con respecto a los modelos matemáticos o estadísticos como se cree. Por ejemplo, GarcíaAyuso (1996) considera a los ratios como deflactores imperfectos de la dimensión empresarial cuando se analizan muestras heterogéneas, aunque muestren una mayor capacidad en el caso de muestras intrasectoriales. Por otra parte, autores como Foster (1986: p. 96) consideran que aunque la forma más común para resumir la información financiera es a través de los ratios, es muy importante controlar el efecto de las diferencias en el tamaño de las empresas para su efectiva aplicación. Volviendo con Lizarraga (1996: p.71), para él existe un serio problema en gran cantidad de ratios para encontrar su claro significado económico o financiero que justifique su creación. Esto, unido al hecho de que la aplicación de ratios nunca ha tenido un carácter obligatorio, y por lo tanto, su normalización o armonización, es prácticamente imposible. Además, agrega que esta ausencia de sentido económico claro de los ratios lleva a una inevitable complejidad y a diferentes tipos de interpretación que genera más desacuerdos y equívocos o conduce a un exagerado optimismo sobre su utilidad, que tras ser analizada durante décadas, posteriormente se ha demostrado en varios casos como absurda o sin sentido. Así, “la avalancha” actual de indicadores de nada sirve, pues al final los agentes económicos continúan en la práctica utilizando sólo aquellos pocos ratios, desarrollados incluso antes de 1930, con pequeñas variantes en cuanto a la forma de su cálculo o interpretación. La gran cantidad de ratios que se presenta actualmente en la literatura contable y financiera, y que muchas veces son complejos estudios y especulaciones teóricas, ha derivado en que los investigadores o analistas, se refieran a un mismo ratio con diferentes nombres, o bien, se refieran con un mismo nombre para conjunto de ratios, distintos entre sí en sus componentes o en las magnitudes que se pretenden medir o analizar. ___________________________________________________Capítulo 2: Antecedentes Históricos 30 Con la rápida popularidad que ha cobrado esta técnica a partir de 1930, los objetivos que se presentaron inicialmente como claros, posteriormente se han complicado con la integración y ensayo de nuevos cientos de ratios para analizar a la empresa. Actualmente el analista financiero se encuentra ante una desproporcionada cantidad de indicadores cuyos objetivos no son precisamente nada claros al carecer de un sólido fundamento teórico y empírico, y como indica Lizarraga (1996: p.70), dichos ratios llegan a presentar dos defectos fundamentales que están reflejados en su creación o en su interpretación. Horrigan (1965: p.568), ya advertía este problema desde los años sesenta y decía que esta técnica no es tan sencilla como parece. Lev y Sunder (1979) también advertían sobre la “posible sencillez” de la técnica de ratios, pues decían que su popular aplicación en el medio empresarial y académico se ve en muchas ocasiones determinada más por tradición que por fundamentos teóricos. Sin embargo, el análisis financiero vía ratios continúa siendo una primera técnica que es muy efectiva para reducir la información financiera, siempre y cuando se eviten los excesos en cuanto a su confiabilidad excesiva. La aplicación práctica de las razones y proporciones se debe a los matemáticos italianos del renacimiento, especialmente a Lucas de Paccioli (1440-1515) considerado como el inventor de la partida doble e iniciador del desarrollo de la técnica contable. Sin embargo, los primeros estudios referentes a los ratios financieros se hicieron hace sólo más de medio siglo y fueron los banqueros norteamericanos quienes los utilizaron originalmente como técnica de gestión, bajo la dirección de Alexander Wall, financiero del "Federal Reserve Board" en Estados Unidos (Gremillet: 1989: p.11). Después de la depresión de 1929, el análisis financiero llevado a cabo por los banqueros hacia los clientes potenciales, se desarrolló utilizando fundamentalmente los ratios. Pero el desarrollo de estudios empíricos con ratios financieros se inició realmente con los trabajos de Paul Fitzpatrick (1932)1, cuando seleccionó una muestra de 19 empresas en quiebra y un grupo de control de 19 empresas sin quiebra durante el período 1920-1929, con el fin de analizar las tendencias de 13 ratios a través de un lapso de 3 a 5 años. Fitzpatrick concluyó, que todos los ratios examinados predecían en mayor o menor medida la quiebra, pues existían tendencias favorables y estables de los ratios pertenecientes a las empresas sanas. En cambio, los ratios de las empresas fracasadas evolucionaban desfavorablemente pues se habían observado significativas diferencias entre los ratios de ambas muestras. Los resultados de Fitzpatrick le indicaron que los mejores predictores fueron el ratio de rentabilidad del patrimonio neto (resultado neto /patrimonio neto)2 y el ratio de patrimonio neto/pasivo total (factor de endeudamiento). Posteriormente, Arthur Winakor y Raymond Smith (1935)3 seleccionaron una muestra de 183 empresas con dificultades financieras hasta 10 años anteriores a 1931 (año en que quebraron) 4. Sus estudios se centraron en el comportamiento de los ratios con anterioridad a la quiebra. Para la investigación utilizaron 21 ratios financieros para estudiar la tendencia de sus medias, llegando a la conclusión de que el ratio de capital circulante / activo total (factor de liquidez) era uno de los más exactos y fiables indicadores de quiebra. Esto obedecía a que dicho ratio en su conjunto tenía una evolución más 1 Fitzpatrick Paul J. (1932): “A Comparision of Ratios of Successful Industrial Enterprises with those of Failed Firms”; Certifified Public Accountant; octuber, november and december, p.598-731 2 El Resultado Neto puede presentar un beneficio neto o una perdida neta, es decir, el ratio debe expresarse algebraicamente cuando tiene un signo negativo. 3 Winakor Arthur and Smith Raymond (1935): “Changes in Financial Structure of Unsuccesful Industrial Companies”; Bureau of Business Research, Bulletin No. 51, University of Illinois. 4 El período exacto fue de 1923 a 1931. ___________________________________________________Capítulo 2: Antecedentes Históricos 31 favorable cuando la empresa iba bien. En cambio, en algunos casos presentaba una evolución negativa desde los diez años previos a la quiebra, continuando dicha tendencia hasta la quiebra definitiva. Por otra parte, durante el período 1926-1936 Charles Merwim (1942)5 seleccionó una muestra de 939 empresas. Esta muestra la dividió en dos grupos: a) empresas que habían fracasado y que dejaron de operar hasta antes de 1936; y b) empresas que se mantenían operando todavía hasta 1936. A través del análisis de un número no específico de ratios, Merwin encontró en sus resultados que había tres ratios más sensibles para predecir la "interrupción" de una empresa hasta cuatro o cinco años antes de que se produjera ésta. Estos ratios eran: el coeficiente de liquidez, el capital circulante neto / activo total y el patrimonio neto / pasivo total. Además, estos ratios mostraron tendencias a la baja antes de la "interrupción" y en todos los casos se comportaron por debajo de los ratios normales estimados. En esta serie de trabajos destaca el hecho de que aunque actualmente existe poca vigencia de sus resultados, la trascendencia de su aportación al desarrollo de la teoría de la solvencia fue muy importante, ya que dichos trabajos representaron el primer intento para sistematizar un conjunto de procedimientos tendientes a describir el fracaso empresarial. Por otra parte, con relación a algunos puntos débiles que se observaron en estos primeros trabajos y que es necesario no repetirlos hoy en día, encontramos los siguientes: a.) En la selección de la unidad de análisis de estos trabajos, no se definió con rigor el tamaño de las empresas seleccionadas. Para algunos investigadores esto es un problema que se puede observar todavía en trabajos recién publicados y que no han atendido al problema de seleccionar empresas de sectores y tamaños similares para lograr obtener generalizaciones más reales. b.) En la unidad temporal se observa que Fitzpatrick seleccionó un período de nueve años para la selección de sus bases de datos, aunque el período de observación de las tendencias de los ratios lo determinó entre tres y cinco años. En el caso de Merwin, la unidad temporal coincide con la de Fitzpatrick (nueve años) y con la de Winakor y Smith (diez años) para la obtención de las bases de datos. Hasta la fecha se ha continuado con este parámetro al observarse que los períodos seleccionados oscilan entre los cinco y diez años. Sin embargo, dentro de la unidad temporal, para analizar la tendencia de los ratios, existe una enorme variabilidad entre los tres estudios pues se observa que existen períodos muy diferentes que pueden oscilar entre los tres hasta los diez años. c.) Con respecto a la muestra, en la etapa descriptiva no existe una proporción ni siquiera cercana entre el número de empresas seleccionadas, pues éstas van desde la utilización de 19 empresas en quiebra y 19 sin quiebra (Fitzpatrick); 183 empresas no sanas (Winakor y Smith); hasta 939 empresas entre sanas y en quiebra (Merwin). Sin embargo, sí se tiene claro la necesidad de utilizar dos submuestras: la de empresas sanas y la de empresas fracasadas, aunque exista controversia si por cada empresa fracasada debe seleccionarse una no fracasada (emparejamiento), o bien, si se tiene que considerar que dado que existe un menor número de empresas fracasadas, la probabilidad de selección aleatoria afecte a la representatividad de la muestra. d.) En cuanto a la selección de las variables independientes, ya desde estos primeros estudios se presentó un desacuerdo en cuanto al número de ratios utilizados, pues estos variaron significativamente. En algunos casos sólo se utilizaron entre diez y quince ratios; mientras en otros trabajos se llegaron a emplear hasta más de cien ratios. También se observó que las variables independientes solían pertenecer fundamentalmente a mediciones de rentabilidad, solvencia y liquidez. 5 Merwin Charles (1942): “Financing Small Corporations in Five Manufacturing Industries, 1926-36”; New York National Bureau of Econimics Research. ___________________________________________________Capítulo 2: Antecedentes Históricos 32 e.) Aunque no forma parte de los objetivos de este trabajo, sería interesante revisar en un momento dado las bases de datos utilizadas en los estudios descriptivos de estos investigadores pioneros, pues el período de sus trabajos se caracterizó por una importante falta de armonización y normatividad en cuanto a la presentación de la información contable, así como al surgimiento del delicado problema macroeconómico que desembocó en la gran crisis financiera de 1929. Creemos que esto permitiría obtener un replanteamiento sobre el análisis de los resultados de la etapa descriptiva. f.) Existía la dificultad en aquellos tiempos de acceder a los estados financieros, los cuales además de elaborarse manualmente, no existía la obligatoriedad de auditarse para comprobar su razonabilidad. Es importante destacar que actualmente, aún con la aplicación de los principios de contabilidad generalmente aceptados y las normas de auditoría aplicadas correctamente, continúan existiendo serios inconvenientes sobre la confiabilidad de las bases de datos en los estudios sobre la solvencia. Al respecto Lizarraga (1996: p. 70) opina que “la disparidad del tejido empresarial, por razones de tamaño, pertenencia a distintos sectores, etc., hace que la información contable bruta, por muy normalizada que esté, no sea comparable, de no ser previamente manipulada mediante técnicas que, como la de ratios permitan aislar, al menos en parte, el efecto de este tipo de disparidades”. g.) Otro punto importante a tomar en cuenta sobre los resultados de la etapa descriptiva, es considerar que en esta época no existía tampoco la tecnología de las computadoras, y por lo tanto, el tratamiento estadístico que se desarrolló, aunque ya era rico en sus fundamentos teóricos, en su aplicación empírica era muy defectuoso por el grado de complejidad para su desarrollo manual. Además, como se citó anteriormente, el escenario macroeconómico en donde se desarrollaron los trabajos de Firtzpatrick, Winakor, Smith y Merwin, estuvo conformado por eventos históricos muy difíciles y excepcionales como: la gran depresión de 1929, la primera y segunda guerra mundial, o el nacimiento de las primeras grandes firmas de contables que marcaron la diferencia en cuanto a la forma de registro y presentación de estados financieros. ___________________________________________________Capítulo 2: Antecedentes Históricos 33 2.3. INICIO DE LA ETAPA PREDICTIVA A TRAVES DE MODELOS UNIVARIABLES CON BASE HISTORICA O DE DEVENGO. Dentro del campo de la investigación sobre la solvencia, la predicción de quiebras ha sido el tema central al que se han dirigido la mayoría de los trabajos empíricos. Esto se debe en parte al hecho de haberse alcanzado la idea de la diferenciación de los ratios entre los diferentes períodos contables, lo cual representó en su momento para esta línea de estudio la denominada: “etapa descriptiva”. Posteriormente, la siguiente idea que se desarrolló fue la significancia de cada ratio (posibilidad de explicación de la quiebra) así como la capacidad predictiva de los ratios más relevantes, lo cual dio origen a la denominada: “etapa predictiva”(Gabas: 1990, p. 27). 2.3.1. MODELO BEAVER (1966, 1968). En esta segunda etapa es cuando surgen los modelos univariables con los trabajos pioneros de William Beaver (1966, 1968). Este investigador de la Universidad de Chicago, inició sus estudios empíricos tendiendo a "descomponer" los ratios a través de métodos estadísticos avanzados con el fin de aplicarlos como una técnica que permitiera determinar la solvencia y la liquidez real de las empresas para posteriormente poder predecir una quiebra. Para esto utilizó el análisis univariable, que tiene como objetivo principal la utilización por separado de una o varias variables independientes, para explicar una variable dependiente a través de una clasificación dicotómica que entendió como sinónimo de capacidad de predicción. Sin embargo, es importante aclarar que el principal propósito del trabajo de Beaver no fue como algunos piensan, encontrar el mejor predictor de una quiebra, sino que consistió en investigar la capacidad predictiva de los ratios financieros. Por eso en sus conclusiones él mismo indica que el sentido real del título de su artículo clásico de 1966 no debería haber sido el de: “Los ratios financieros como predictores de una quiebra”, sino el de: “Los datos contables como predictores de la quiebra”, ya que para él los ratios son datos contables comprimidos que pueden ser evaluados en términos de su utilidad; y esta utilidad a su vez podía ser definida en términos de su capacidad predictiva. Además, también aclaró que el acierto principal de su estudio fue sugerir una metodología para la evaluación de los datos contables para cualquier propósito y no sólo para la determinación de la solvencia. Al respecto creemos que Beaver tiene que ser más bien considerado como el pionero de la corriente que promulga la utilidad de la información contable y el uso de ratios para conocer más sobre el fracaso empresarial, ya que previo a sus estudios, los ratios habían sido utilizados únicamente como predictores informales para las quiebras y su efectividad no había sido empíricamente contrastada pues su función era básicamente descriptiva. Beaver (1966) en su primer estudio empírico sobre la utilización de ratios financieros, se centró en la identificación de un único ratio que tuviera la capacidad de predicción; planteando que la utilización de los ratios sólo puede ser experimentada considerando algunos propósitos particulares. Para demostrarlo realizó una investigación empírica que dividió en cinco partes que consistieron en: 1) la selección de la muestra, 2) la comparación de las medias de los ratios financieros, 3) un test de clasificación dicotómico, 4) un análisis de probabilidad de ratios, y 5) las conclusiones finales para posteriores estudios. Beaver se basó en la hipótesis primaria que parte de que la solvencia está ligada a unas variables independientes que pueden ser controladas. Según Bizquerra (1989, p.4) dicha hipótesis, sencilla y con alta probabilidad de ser mejorada, representa la primera de un total de tres fases del análisis multivariable con el que se llega a la máxima sofisticación en el proceso de datos y que puede sintetizarse en los siguientes tres tipos: ___________________________________________________Capítulo 2: Antecedentes Históricos 34 a) El análisis exploratorio de los datos o estadística descriptiva univariable: consiste en analizar una o cada una de las variables independientes por separado. b) El análisis o estadística bivariable: su objetivo consiste en buscar la relación entre pares de variables independientes. c) El análisis multivariable: su objetivo es analizar simultáneamente tres o más variables independientes. Respecto a la selección de la muestra, en esta parte de su investigación Beaver explicó detalladamente el procedimiento que utilizó para conformar los dos tipos de submuestras que exigía su modelo: la de empresas en quiebra (la cual siempre ha sido la más difícil de obtener) y la de empresas sin quiebra o sanas. La muestra quedó integrada por 79 empresas en quiebra seleccionadas de un listado del “Dun and Bradstreet”, contra 79 empresas sin quiebra, durante el período de 1954-1964. En cuanto al procedimiento para la selección de la muestra, las 79 empresas fracasadas fueron clasificadas de acuerdo a su sector industrial y al tamaño de sus activos. Para esto se establecieron tres números dígitos para clasificar a las empresas de acuerdo a su principal actividad. Este sistema de numeración fue el “Standar Industrial Clasificación” (SIC), que es el sistema que utiliza el Departamento de Comercio de los Estados Unidos. Para la selección de las empresas no fracasadas, Beaver consideró que por cada empresa fracasada se tenía que seleccionar a una empresa no fracasada del mismo sector industrial y con similar tamaño de activos. Esto lo obtuvo de una lista de 12 mil empresas y el procedimiento aplicado consistió en lo siguiente: a) Seleccionó el número de industria de acuerdo a la empresa fracasada. b) Encontró la proporción entre la lista y el número de empresas fracasadas. c) Dentro del grupo industrial, seleccionó tentativamente a la empresa cuyos activos fueran los más próximos a los de la empresa fracasada. d) Si la empresa pertenecía a la base de datos de “Moody´s” y no estaba en quiebra, entonces aceptaba a la empresa como un elemento de la submuestra de empresas no fracasadas. En cambio, si no cumplía la anterior condición, entonces seleccionaba tentativamente a la empresa del listado que incluía a las 12 mil empresas. La submuestra de empresas en quiebra presentó características tan importantes como las de tener menos tesorería, más deudas, más cuentas por cobrar y menos rentabilidad sobre sus ventas y activos. En síntesis, tenían ratios de circulante más bajos, y además algo muy significativo fue que estas empresas tenían también menos inventarios (al contrario de lo que se creía anterior a su investigación). Así, en estos estudios se reveló como mal predictor de quiebras el ratio de circulante (activo circulante / pasivo circulante), el cual durante muchos años se había utilizado como el ratio básico de la solvencia a corto plazo. Para la muestra sólo consideró a las empresas ubicadas en los Estados Unidos para cumplir con la homogeneización de la unidad geográfica, y estableció como unidad temporal un período de 10 años para las bases de datos contables. ___________________________________________________Capítulo 2: Antecedentes Históricos 35 Para la unidad de análisis propuso que se tenía que considerar a empresas que cumplieran con la característica de “tamaño comparable” con base a sus activos y sectores homogéneos. De las 79 empresas fracasadas, estas estaban comprendidas en 38 diferentes sectores industriales y el tamaño de sus activos osciló entre los 600 mil dólares hasta los 45 millones de dólares. Aquí el tamaño de los activos fue considerado como un factor determinante. La media del tamaño de los activos de las empresas fracasadas fue de 6.3 millones de dólares, mientras la media de las empresas no fracasadas fue de 8.5 millones de dólares. Con respecto a la base de datos, Beaver señaló que la dificultad mayor para integrar la colección de datos es encontrar una muestra de empresas fracasadas, así como identificar la fuente de los datos. La información financiera que utilizó en la submuestra de empresas fracasadas fue de cinco años previos a la quiebra. Beaver seleccionó para la variable dependiente al "fracaso", el cual fue definido como: "quiebra". Este concepto a su vez lo definió como la incapacidad de la empresa para pagar sus obligaciones financieras vencidas, pues consideró que las magnitudes relacionadas con la obtención de flujos de caja son muy importantes para medir una situación de insolvencia. Sin embargo, también mencionó que existen otras muchas razones para que una empresa se considere fracasada, como por ejemplo: que cambie su nombre; se fusione; se liquide; exista una falta de interés público por ella; y la más importante era que la empresa quiebre. Con respecto a este último concepto de quiebra, el fundamento teórico que se utilizó en la investigación se basó en otro concepto importante: “el fracaso financiero” o “insolvencia técnica”, mismo que Beaver pareció concebir como la materialización o consecuencia última del fracaso económico. Para la selección de las variables independientes, seleccionó un conjunto de 30 ratios que aplicó sobre una clasificación dicotómica de empresas en quiebra y empresas sin quiebra (sanas), con el propósito de constatar la capacidad del modelo para predecir la quiebra. La selección de los ratios la llevó a cabo bajo tres criterios, los cuales hasta la fecha han continuado utilizándose de forma casi similar, y que son: a) Por su popularidad de uso dentro de la literatura para medir la solvencia (este criterio es el más aceptado por los investigadores). b) Por los resultados obtenidos en previos estudios. c) Que los ratios estuvieran definidos en términos de cash flow (ingresos netos más depreciación) y basados estos en un fundamento teórico específico, lo cual significó una novedad importante en su momento. También en las investigaciones de Beaver, cada ratio fue clasificado dentro de una de las seis categorías del Cuadro 2.3.. Para esto realizó un examen de clasificación dicotómico para cada uno de los treinta ratios. La muestra fue separada y los valores del ratio de cada submuestra fueron arreglados en orden de magnitud. Estos valores posteriormente fueron utilizados para clasificar a las empresas de las otras submuestras. El ratio que mostró la más baja clasificación de error en sus porcentajes sobre el período de cinco años y dentro de cada categoría, fue seleccionado para adicionales análisis a través del cálculo de la probabilidad de ratios. El ratio con mejores resultados en el estudio fue el de cash flow / pasivo total, que consiguió un porcentaje de error de clasificación en conjunto de sólo 13% un año previo al fracaso. El siguiente ratio con mejores resultados fue: beneficios netos / activos totales. La superioridad de los ratios de "flujos" sobre los ratios de "posición", tales como pasivo total / activos totales, pareció indicar de acuerdo a los ___________________________________________________Capítulo 2: Antecedentes Históricos 36 resultados de Beaver, que los flujos de activos líquidos eran mejores predictores de quiebra con respecto a lo que eran los inventarios de tales activos. CUADRO 2.3. RATIOS UTILIZADOS POR BEAVER NOMBRE DEL RATIO Ratio de Cash flow Ratio de Resultado Neto Ratio de Endeudamiento COMPONENTES Cash flow* / Pasivo Total Beneficio Neto / Activo Total ***Pasivo Total / Activo Total Capital Circulante / Activo Total o Activo Liquido / Activo Total Activo Circulante / Pasivo Circulante o Activo Líquido / Activo Circulante (Activo Circulante – Existencias)– Pasivo Circulante / (Gastos de Explotación - Amortizaciones y Provisiones) FACTOR CASH FLOW RENTABILIDAD SOLVENCIA LIQUIDEZ LIQUIDEZ LIQUIDEZ 1. 2. 3. 4. Ratio Activo Líquido a Activo Total 5. Ratio Activo Líquido a Pasivo Circulante 6. Ratio de Retorno de Capital o Intervalo sin Crédito** (Capital de trabajo a Pasivo Total) * Cash flow = Beneficio Neto + Amortizaciones. ** Este ratio mide el volumen de ventas o facturación de la empresa y es un indicador del número de días que los activos defensivos (disponible + realizable) son capaces de hacer frente a las salidas de tesorería provocadas por los gastos de explotación sin ningún tipo de ayudas adicionales. *** El pasivo total lo consideró como pasivo circulante + pasivo fijo + acciones preferentes Fuente: Beaver (1966) Con base en lo anterior, Beaver llegó a la conclusión de que ciertos ratios son excelentes predictores de quiebras, pues permiten detectar la falta de solvencia al existir una abrumadora evidencia de significativas diferencias entre los ratios de las dos submuestras de empresas. Sin embargo, para él estos ratios financieros no eran los únicos predictores de la quiebra, ni su uso consistía en ser predictores del fracaso, sino que la razón última consistía en dotar al investigador de una verificación empírica útil (por ejemplo: la capacidad de predicción) de los datos contables (por ejemplo: estados financieros). Por eso en un segundo estudio Beaver (1968) también examinó la capacidad de predicción de 14 ratios basados sobre los activos líquidos. La muestra y la metodología que aplicó fue idéntica a la de su anterior investigación (1966). Aquí los ratios de beneficios netos / activos totales y cash flow /pasivo total probaron ser superiores a los ratios basados sobre las medidas de activos líquidos. Beaver razonó que esto se debió a la mayor facilidad para aplicar el efecto window dressing a los activos circulantes, pues estos disfrazaban mejor los problemas de liquidez. En cambio, el cash flow , los ingresos netos y la posición del pasivo eran conceptos que no podían ser fácilmente manipulados. Beaver concluyó que los datos contables se podían utilizar para estimar la sensibilidad de los cambios en los beneficios agregados de todas las empresas a través del uso de una "Beta Contable". Al establecer que era posible utilizar ratios para distinguir entre empresas en quiebra y empresas sin quiebra en una medida mucho mayor que la permitida por la predicción aleatoria, Beaver afirmó que tanto a corto como a largo plazo, el ratio de cash flow / pasivo total era de los mejores predictores, seguido por el ratio de estructura de capital y el ratio de liquidez. En cambio los ratios de rotación fueron los peores predictores en ambas investigaciones. Al comparar entre la capacidad predictiva de los ratios financieros contra los precios del mercado de valores, observó que se cumplía la hipótesis de la eficiencia de los mercados de capitales, al resultar ser mejores predictores estos últimos a través de la cotización de las acciones. Beaver llegó a esta ___________________________________________________Capítulo 2: Antecedentes Históricos 37 conclusión al aplicar a la misma muestra de su primer trabajo, los 14 ratios basados sobre activos líquidos. Los estudios de Beaver fueron muy importantes dentro de la teoría de la solvencia, ya que logró separar y analizar los componentes de los ratios mediante el uso de métodos estadísticos y el cálculo de la media de los valores de dichos componentes, tanto de empresas en quiebra como de empresas sanas. Al abordar el aspecto de las variables independientes, Beaver sugirió que los ratios tienen que aplicarse con discreción por las siguientes dos razones: a. No todos los ratios tienen el mismo grado de capacidad predictiva. Por ejemplo, el ratio de cash flow / pasivo total tenía un excelente poder discriminatorio a través de un período de cinco años. En cambio, el poder predictivo del ratio de activos líquidos fue mucho más débil. b. Los ratios no predicen con igual exactitud las quiebras y las no quiebras de las empresas. Según él, esto obedecía a que la predicción y posterior clasificación de no quiebras es más exacta respecto a la predicción de empresas quebradas. De ahí que Beaver estableciera dos tipos de error que eran: 1) la tasa de error tipo I (clasificar erróneamente a una empresa quebrada como una empresa sana); y 2) la tasa de error tipo II (clasificar erróneamente a una empresa sana como una empresa quebrada). Otra conclusión importante a la que llegó Beaver en el tema de las variables independientes fue que los ratios de rentabilidad seguidos de los ratios de liquidez representaron las variables explicativas más significativas sobre la situación futura de una empresa. En sus resultados de 1966, el ratio con más poder predictivo cash flow / pasivo total, obtuvo una tasa de error tipo I de 13% y la del Tipo II fue del 5% para el primer año previó a la quiebra. Aquí observó que las tasas de error tipo I empeoraron con el número de años previos al momento de la quiebra, incrementándose dichas tasas de error hasta en un 24%, cuatro años previos a la quiebra Entre las mayores contribuciones de los estudios de Beaver está la de ser el primer investigador en aplicar un análisis en los componentes de los ratios. Al descomponer los ratios calculó los valores medios de dichos componentes para los grupos de empresas en quiebra y de empresas sanas. En el cálculo y análisis de los valores medios de los componentes obtuvo significativas diferencias sobre muchos detalles entre empresas en quiebra o con enfermedades financieras y empresas sanas. Este análisis sobre las medias calculadas con significativas diferencias le llevaron a dos importantes conclusiones: a.) La combinación de datos dentro de la forma de ratio puede “oscurecer” la información contenida en los componentes individuales. Por ejemplo: las empresas en quiebra mostraron valores significativos bajos en comparación con las empresas sanas para los activos circulantes y ventas; sin embargo, el ratio de activo circulante/ventas netas fue casi idéntico para los dos grupos. b.) La posición de efectivo (cash position) dio mejores resultados aunque fue mucho menos popular con respecto a otras medidas de liquidez, como los activos "rápidos" y "circulantes". Según Beaver, esto se debió a que los ratios basados sobre la posición de efectivo mostraron más capacidad de predicción en comparación con ratios similares basados sobre activos rápidos y circulantes. Con respecto a esto último, dio las siguientes dos razones para que esto ocurriera: b.1.) Mientras las empresas en quiebra tienden a tener menos cash flow que las empresas sanas, las primeras, también tienen más montos de cuentas por cobrar, menor cantidad de activos líquidos, así como una menor capacidad para la amortización de sus obligaciones. Además, el uso del activo circulante o rápido como una medida de liquidez oscurece esta información. ___________________________________________________Capítulo 2: Antecedentes Históricos 38 b.2.) Las empresas en quiebra pueden intencionalmente disfrazar los ratios financieros de la empresa, es decir, aplicar el efecto window dressing. Con respecto a los puntos débiles de los trabajos de Beaver, el mismo reconoció que sus estudios estuvieron dirigidos sobre la capacidad de predicción utilizando un sólo ratio. De ahí que en posteriores estudios sugiriera que se intentará desarrollar nuevos modelos utilizando dos o más ratios simultáneamente para incrementar la exactitud predictiva de la quiebra, es decir, estos estudios dieron paso a la idea de los modelos multivariantes llevados a cabo por primera vez por Altman. Sin embargo, también se estableció la interrogante sobre si los modelos compuestos por dos o más ratios pueden ser en realidad mejores predictores, capaces de discriminar entre empresas en quiebra y empresas sanas. CUADRO 2.4 PORCENTAJES DE EXACTITUD: TEST DE CLASIFICACION DICOTOMICA AÑO PREVIO A LA QUIEBRA RATIOS Cash flow / pasivo total Beneficios netos / activo total Pasivo total / activo total Capital circulante / activo total Ratio de Circulante Intervalo sin Crédito Activos Totales 1 90% 87% 88% 87% 81% 81% 80% 76% 80% 80% 77% 77% 62% 62% 2 82% 79% 85% 80% 76% 75% 70% 66% 73% 68% 69% 62% 58% 58% 3 79% 77% 78% 77% 72% 66% 67% 67% 69% 64% 70% 57% 55% 58% 4 76% 76% 72% 71% 76% 73% 65% 55% 68% 62% 65% 62% 51% 49% 5 78% 78% 75% 72% 73% 72% 65% 59% 69% 55% 70% 63% 53% 62% % Porcentajes de exactitud en muestra de estimación % Porcentajes de exactitud en muestra de validación Fuente: Beaver (1966) ___________________________________________________Capítulo 2: Antecedentes Históricos 39 CUADRO 2.5 COMPARACION DE LOS PORCENTAJES DE ERROR EN LOS TEST DE CLASIFICACION DE EMPAREJAMIENTOS Y NO EMPAREJAMIENTOS RATIOS Cash flow / activo total* Resultado neto / activo total (1) No emparejado (2) Emparejado (3) Diferencia (1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3) (1) (2) (3) 1 10% 10% 0% 13% 11% 2% 19% 15% 4% 24% 16% 8% 20% 15% 5% 23% 21% 2% 2 20% 13% 7% 21% 15% 6% 25% 27% 2% 34% 22% 12% 32% 25% 7% 38% 38% 0% 3 24% 20% 4% 23% 16% 7% 34% 30% 4% 33% 34% 1% 36% 32% 4% 43% 43% 0% 4 28% 23% 5% 29% 38% 9% 27% 27% 0% 45% 26% 19% 38% 32% 6% 38% 43% 5% 5 28% 28% 0% 28% 30% 2% 28% 39% 11% 41% 33% 8% 45% 39% 6% 37% 43% 6% Pasivo total / activo total Capital de trabajo / activo total Ratio circulante Intervalo sin crédito *El ratio de cash flow / pasivo total no se estimó para el análisis de pares, por lo que Beaver lo sustituyó por el ratio de cash flow / activo total 2.4. DESARROLLO DE LA ETAPA PREDICITVA A TRAVES MULTIVARIABLES CON BASE HISTORICA O DE DEVENGO. DE MODELOS La teoría de la solvencia inicialmente tomó como fundamento la metodología de los ratios y pasó a enriquecerse con los métodos estadísticos multivariables, que junto al desarrollo del software estadístico (SPSS, SAS, BMPD, LISREL, SPAD, etc.) proporcionaron al investigador instrumentos más potentes y eficaces para intentar llegar a predicciones más confiables. Además, en el ámbito mundial con el progreso en los trabajos de armonización de los principios de contabilidad generalmente aceptados, las normas y procedimientos de auditoría, y la institucionalización de comités internacionales para la elaboración de información económica y financiera (que tratan de homologar más los criterios para su presentación a partir de la segunda mitad de la década de los setenta), se mejoraron en varios casos las bases de datos que modificaron a su vez el diseño de los modelos y los resultados de los indicadores para predecir las quiebras, tal es el caso de los trabajos que utilizaron estados financieros basados en la contabilidad del cash flow. Los estudios y metodologías utilizadas en las investigaciones de predicción de quiebras fueron incrementando su complejidad desde los trabajos pioneros de Beaver (1966,1968). Los estudios univariantes, basados principalmente en mediciones múltiples de la solvencia y otras importantes medidas de la posición financiera y resultados de las empresas, habían representado un camino mejor para la predicción de quiebras al lograr el modelo de Beaver alcanzar una exactitud en las clasificaciones hasta del 87%. Sin embargo, los posteriores modelos multivariables fueron superando la exactitud de las clasificaciones univariables al ser más precisos los ratios y obtener porcentajes más altos en modelos como los de Altman y Blum (95%), Edmister (93%), Ohlson (96%), Deakin (97%) y Rose y Giroux (92%). Algunos de estos estudios, como los de Altman (1968), lograron reducir el número de ratios utilizados en las investigaciones univariantes al aplicar el método Multiple Discriminant Analysis: MDA. Otros ___________________________________________________Capítulo 2: Antecedentes Históricos 40 estudios se distinguieron por utilizar otras técnicas de análisis multivariable como: el análisis discriminante lineal, el análisis discriminante cuadrático, el análisis de regresión, el análisis de componentes principales, el análisis factorial (para explicar la varianza de los ratios), el análisis cluster (para reducir la colinealidad), el análisis con redes neuronales, y el análisis de probabilidad condicional Logit y Probit (los cuales constituyen una mejor variante de la regresión, ya que sí permiten definir a la variable dependiente cualitativa como dicotómica o categórica). El análisis multivariable parte de la idea de que la predicción de quiebras es un tema complejo y la investigación aplicada a fenómenos complejos requiere de un análisis dirigido a una considerable cantidad de variables (n > 1). Son las técnicas multivariables las que se aplican a esa diversidad de variables mediante el tratamiento multidimensional de los datos. Con respecto al término de “Multivariate Analysis”, según Bizquerra (1989: p.2) este se introdujo en la lengua española de tres maneras distintas, aunque su significado no varia: a) Análisis Multivariable: este término se utiliza generalmente en economía, sociología o psicología. b) Análisis Multivariante: utilizado en bioestadística o biología. c) Análisis Multivariado: utilizado en psicología o educación. En cuanto a su significado, el análisis multivariable es un conjunto de técnicas estadísticas que analizan simultáneamente más de dos variables en una muestra de observaciones (Kendall: 1975). Para Cuadras (1981: p.3) esta técnica estudia, interpreta y elabora el material estadístico sobre la base de un conjunto de n >1 variables, las cuales pueden ser de tipo cuantitativo, cualitativo o una combinación de ambas. Una de las aplicaciones principales del análisis multivariable dentro del campo de las ciencias sociales, consiste en resumir y sintetizar grandes conjuntos de datos y variables en función de ciertos objetivos para obtener información válida que logre una mejor comprensión del fenómeno objeto de estudio (Bizquerra:1989, p.1). En general cualquier análisis simultáneo de más de dos variables es parte del análisis multivariable, sin embargo, dentro del análisis existen diversos y variados métodos que pueden ser empleados de diferentes formas (según sean los datos de entrada y los resultados a obtener o salidas). Según Ortega (1984: p. 406), el resultado de dichas aplicaciones da la posibilidad al usuario de clasificar las situaciones y variables, mediante la obtención de relaciones entre esas variables en términos de influencia sobre los factores incontrolables por parte de la empresa, es decir, este análisis se establece a partir de numerosos datos, relaciones y leyes operativas; investiga estructuras latentes (ocultas), y ensaya diversas formas de organizar dichos datos en estructuras conocidas y fácilmente utilizables en dos sentidos: a) Transformándolos y presentándolos bajo una forma nueva; y b) Reduciéndolos sin perder demasiada información inicial, para constituir un resumen relativamente exhaustivo del conjunto de partida que es habitualmente complejo y con informaciones redundantes. Los orígenes del análisis multivariable se encuentran en las primeras generalizaciones de la correlación y regresión, en donde se establecieron las primeras ideas del análisis de componentes principales (Pearson; 1901 y Spearman; 1904). Pero el establecimiento definitivo de la mayoría del análisis multivariable se ubica en los años treinta con los estudios de Hotelling (1931, 1933); Willes (1932, 1935); Fisher (1935, 1936); Mahalanobis (1936) y Bartlett (1939). Bizquerra (1989: p.9), citando a Prieto (1985), indica que el análisis multivariable distingue entre métodos predictivos y métodos reductivos. Los primeros identifican a un grupo de variables predictoras o independientes; un criterio o variable dependiente, y en ocasiones a variables intervinientes cuyo efecto se desea mantener bajo control. Sin embargo, el problema radica en especificar las dependencias ___________________________________________________Capítulo 2: Antecedentes Históricos 41 significativas entre los dos primeros tipos de variables. Con respecto a los métodos reductivos, estos analizan las interdependencias entre todas las variables con el objeto de reducir al mínimo el número de variables necesarias para describir la información relevante contenida en las observaciones. En cuanto al desarrollo y maduración de los fundamentos del análisis multivariable, este se debe a los pioneros de la estadística moderna que fueron los ingleses (Galton, Pearson, Fisher, Snecodor, etc.) Posteriormente, el centro de gravedad se desplazó hacia los Estados Unidos (Hotelling, Wilks, Bartlett, etc.), aunque sin dejar de considerar las aportaciones que se dieron con el nacimiento de otras escuelas tan importantes como la escuela india (Mahalanobis, Roy, Krishnaah, etc.); la escuela francesa surgida en los años sesenta (Benzecri, Lebart, Morineau, Fenelon, etc.) y la escuela sueca surgida en los años setenta (Jöreskog y Sörborn). 2.4.1. EL MODELO ALTMAN (1968). A partir de 1968 y como consecuencia de los estudios de Beaver, varios investigadores comenzaron a trabajar con modelos multivariables con el objetivo de poder determinar con más precisión qué empresas se dirigían hacia la quiebra y cuales otras no. Entre estos estudios destacan los conducidos por Edward Altman de la Universidad de Nueva York (1968, 1977, 1978, 1979, 1981, 1984, 1988, 1993, 1994a, 1994b, 1995, 1996, etc.) el cual amplió el análisis univariable al introducir por primera vez múltiples predictores de quiebra mediante el Análisis Discriminante Múltiple (MDA). A través de los años Altman ha llegado a ser considerado por gran número de expertos como el investigador que más ha contribuido al desarrollo de la relativamente nueva teoría de la solvencia, sobre todo al haber creado el modelo original de la “Z-Score” (1977). Actualmente las grandes empresas, y sobretodo las financieras, utilizan el “Zeta Credit Risk System” o “Zeta Credit Scoring Model” que fue producto de su investigación y que continua desarrollando la “Zeta Services Inc.”, una de las principales firmas que comercializa sistemas que contribuyen a la investigación del análisis del fracaso empresarial en los Estados Unidos. Otras que también son muy importantes son: “ Advantage Financial Systems” (Boston); Trust Division of the First Union Bank” (Carolina del Norte); “Datastream” (Reino Unido); “Performance Analisys Services Ltd” (Reino Unido). En 1984 a través de la revista “ Studies in Banking and Finance” (North Holland; Vol. 8, No.2), Altman editó una serie de 20 artículos que intentaron perfeccionar el modelo para medir el riesgo de las compañías (“Company and Country Risk Models”). Estos estudios se hicieron en países altamente industrializados como: Alemania, Australia, Francia, Italia, Israel, Japón y el Reino Unido. Para 1988, en esta misma revista (Vol. 7) se volvieron a editar otras investigaciones realizadas en países con economías emergentes tales como: España, Finlandia, Grecia, India, Malasia, Singapur, Turquía y Uruguay. Sin embargo, para esas fechas únicamente las autoridades de Malasia estaban utilizando el modelo predictivo de Altman con una base de datos en tiempo real. Posteriormente, durante sus investigaciones en México con Hartzcel y Peck (1995), Altman adaptó el modelo original de su Z-Score para economías emergentes con el fin de proponer un nuevo indicador global predictivo exclusivo para este tipo de mercados. A este nuevo indicador lo denominó: “Emerging Market Scoring Model” (EMS Model)6. 6 Altman participó también directamente en las investigaciones para la construcción de los modelos de: Australia, Brasil, Canadá, Corea del Sur e Italia. En estos países se encontró con toda una serie de opiniones diferentes sobre el peso que debería dársele a cada una de las variables explicativas contenidas en el modelo. Actualmente, Altman también es asesor de numerosas agencias gubernamentales e instituciones financieras. ___________________________________________________Capítulo 2: Antecedentes Históricos 42 Según el propio Altman, lo anterior obedeció al hecho de que para el otorgamiento de créditos en los mercados emergentes, el análisis financiero tradicional debería de realizarse de forma similar a como se hace, por ejemplo, en los Estados Unidos. Sin embargo, este autor reconoció que la realidad indicaba que en los países emergentes existía una serie de riesgos adicionales cuantitativos que el análisis tradicional no consideraba. Tal era el caso del riesgo de la moneda y el riesgo industrial que impedia frecuentemente construir un modelo específico para la muestra de empresas ubicadas en las economías emergentes. A partir de esto propuso que el tipo de análisis tenía que modificarse. En general los trabajos de Altman se fueron desarrollando bajo un nuevo entorno tecnológico que se inició a finales de los años sesenta cuando se contó con un uso más significativo de las computadoras y el grado de maduración de las escuelas estadísticas repercutió directamente en el desarrollo de las técnicas multivariables. Por eso Altman consiguió resultados sorprendentes al aprovechar las ventajas del análisis tradicional de ratios sin fundamentos simplistas y combinándolos con las técnicas estadísticas más sofisticadas. En su primer estudio multivariable relacionó un conjunto de variables mediante una función que explicará su comportamiento y se orientaran principalmente a la predicción de quiebras. Concluyó que existen relaciones entre los ratios financieros, y que el uso de un sólo ratio como indicador de empresas fracasadas, es susceptible de interpretación defectuosa o errónea si el ratio en cuestión es disfrazado por otros ratios, los cuales pueden indicar una gran diferencia de probabilidad de quiebra. Por ejemplo, decía, si nos guiamos sobre un ratio de circulante "sano" e ignoramos un ratio "pobre" de pasivo / activo, o cash flow, puede conducir a predicciones incorrectas acerca del futuro de la empresa. Con respecto a las decisiones incorrectas, para él estas tendían a ser menos probables de realizarse si estaban basadas sobre el análisis simultáneo de varios ratios que midieran diferentes aspectos de la salud financiera de la empresa. Altman al aplicar el MDA sobre las bases de datos contables sintetizadas en ratios financieros, desarrolló la función lineal con una serie de variables explicatorias para clasificar o predecir el valor de una variable dependiente cualitativa, como por ejemplo, “quiebra” o “no quiebra”. Aquí la definición de la variable dependiente se basó en el hecho de que la empresa estuviera en un procedimiento concursal, es decir, amparada sobre el Capítulo X del “National Bankruptcy Act” de los Estados Unidos. Para su investigación de 1968 seleccionó una submuestra de 33 empresas que fueron a la quiebra y otra submuestra de 33 empresas sin quiebra de tamaño medio y del sector manufacturero que cotizaban en la bolsa de valores durante el período de 1946-1965. La selección de la muestra se hizo de acuerdo a dos criterios que fueron: a) considerando el tipo de industria al que pertenecía la empresa; y b) de acuerdo al tamaño de los activos de la empresa. La media del tamaño de los activos de las empresas fracasadas muestreadas fue de 6.4 millones de dólares, con un rango entre los 700 mil hasta los 25.9 millones de dólares. La media de los activos de las empresas sanas que continuaban operando hasta 1966 fue de 9.6 millones de dólares, cuyos rangos se ubicaron entre 1 a 25 millones de dólares. Posteriormente, cada empresa fracasada fue emparejada con otra no fracasada, considerando la homogeneidad entre su tamaño y sector, pues se trató de evitar los efectos de distorsión de ambos factores en los resultados. Para la selección de las variables independientes, inicialmente Altman integró un grupo de 22 ratios que fueron aplicados a ambas submuestras de empresas. La selección de dichos ratios estuvo basada sobre los siguientes tres criterios: a) Por su popularidad dentro de la literatura. b) Por su relevancia potencial para el estudio. ___________________________________________________Capítulo 2: Antecedentes Históricos 43 c) Por la forma innovadora que presentaron algunos ratios en el análisis. Los 22 ratios fueron reducidos a cinco factores que median: la rentabilidad, actividad, liquidez y solvencia. Este último factor (variable independiente X4 ) era en realidad el apalancamiento financiero, pues se refería a aquellas operaciones financieras rentables efectuadas con prestamos (relación deuda / capital propio; o la relación endeudamiento / medios propios) Es decir, se trataba de la compra de activos a cambio de emisión de obligaciones. Para Altman los cinco factores mostraron ser las mejores combinaciones para el discriminante entre empresas en quiebra y empresas sin quiebra. Sin embargo, este autor no indicó con base a que dividió en cinco categorías su modelo, y si en realidad dichas categorías eran las más representativas en su conjunto e independientes entre sí para predecir una quiebra. También en su primer trabajo llama la atención que de los veintidós ratios seleccionados no se consideró al ratio de cash flow / deuda total, el cual había proporcionado buenos resultados de clasificación en los estudios de Beaver y en otros trabajos posteriores. Según Altman, esto se debió a la dificultad que existió para obtener bases de datos que incluyeran la amortización. Con respecto a las bases de datos, y que constituyen una de las principales críticas a su primer trabajo, Altman seleccionó los estados financieros del “Moody´s Industrial Manual” del último cierre de ejercicio antes de la solicitud de quiebra. El promedio entre la fecha de cierre y la solicitud de quiebra fue de 7.5 meses. Para algunos analistas, la no contemplación del problema del retraso en la disponibilidad de datos dio como resultado que el plazo medio de tiempo representativo de un año previo al fracaso fuera inferior con respecto al de otros trabajos en donde se consideró como último año, aquel cuyos estados financieros resultaron disponibles con anterioridad. En cuanto al proceso de su investigación, ésta involucró las siguientes cuatro etapas: 1. Observación de la significancia estadística de varias combinaciones de ratios incluyendo las contribución estadística relativa de los ratios individuales. 2. El análisis de intercorrelaciones entre ratios. 3. El análisis de la exactitud de predicción de varias combinaciones de ratios. 4. El juicio del análisis sobre los resultados obtenidos. Este proceso dio como resultado la inclusión de los cinco ratios en la función discriminante con los que Altman construyó la puntuación “Z-Score”, que es considerada por gran número de académicos como uno de los mejores modelos teóricos de predicción de quiebras (ver cuadro 2.6.). CUADRO 2.6. RATIOS PARA EL MODELO ALTMAN: Z-SCORE ___________________________________________________Capítulo 2: Antecedentes Históricos 44 Z = V 1X1 + V2X2 +................VnXn Z = Punto de Corte Vn = Coefeficiente Discriminante Xn = Variables Independientes (Ratios Financoieros) Z = .012X1 + .014X2 + .033X3 + .006X4 + .999X5 = Z = 1.2X1 + 1.4X 2 + 3.3.X3 + 0.6X4 + 1.0X 5 Donde: Z = Indicador Global o Sintético Z-Score (Overal Index) X1 = Ratio de Liquidez (capital circulante neto* / activo total). X2 = Ratio de Rentabilidad Acumulada (beneficios no distribuidos / activo total). X3 = Ratio de Rentabilidad (beneficios antes de intereses e impuestos. / activo total) . X4 = Ratio de Estructura Financiera (valor de mercado de fondos propios / valor contable de los pasivos) X5 = Tasa de Rotación de Capital (ventas netas / activo total). * Capital de Trabajo (activo circulante – pasivo circulante) FACTOR NOMBRE DEL RATIO X1 = Ratio de Liquidez (capital circulante neto / activo total). X2 = Ratio de Rentabilidad Acumulada (beneficios no distribuidos / activo total). X3 = Ratio de Rentabilidad (beneficios antes intereses e impuestos. / activo total) . X4 = Ratio de Estructura Financiera (valor de mercado de fondos propios o capital social / valor contable de los pasivos) X5 = Tasa de Rotación de Capital (ventas netas / activo total). Fuente: Altman (1968) Liquidez Rentabilidad Rentabilidad Solvencia Eficiencia El análisis discriminante múltiple fue seleccionado como el método de análisis estadístico. La primera ventaja de utilizar el MDA sobre el análisis univariable es que el primero analizaba el perfil completo de las características simultáneamente y no sólo individualmente. La experiencia con este modelo llevó a su autor a la conclusión de que puntuaciones Z-Scores inferiores a 1.81 indicaban una probabilidad elevada de quiebra. En cambio, puntuaciones superiores a 3.00 indicaban una escasa probabilidad de quiebra. Altman denominó "la zona de ignorancia" al rango comprendido entre 1.81 y 2.99. Al analizar a las empresas que cayeron dentro de la zona de ignorancia, Altman razonó que utilizando una Z-Score de 2.675 daba como resultado el número más bajo de errores para clasificar a una empresa entre quiebra y no quiebra. Según él, este punto medio de la Z-Score podía tener aplicaciones prácticas para la evaluación de los préstamos, pues indicaba cuales empresas presentan poca capacidad de evaluación y cuales empresas garantizaban una capacidad de evaluación adicional por su posición fuera de la zona de ignorancia. Respecto a los porcentajes de error de clasificación, obtuvo en promedio un 5% para un año previo a la quiebra (tipo I = 6%; tipo II = 3%); un 17 % para dos años previos (tipo I = 28 %, y tipo II = 6 %). Sin embargo, para el tercero, cuarto y quinto año, los porcentajes de error se incrementaron significativamente, obteniéndose 52 %, 71 % y 14 % respectivamente. Después de obtener estos resultados, Altman seleccionó una segunda submuestra de validación compuesta por 25 empresas en quiebra, las cuales dieron como resultado un porcentaje de error general de sólo el 4% un año previo a la quiebra. Para otra submuestra de 66 empresas fracasadas, aunque esta vez estas no estaban en quiebra, sino sólo con agudos problemas financieros, se obtuvo un porcentaje de error del 21%, cinco años previos a la quiebra. ___________________________________________________Capítulo 2: Antecedentes Históricos 45 Volviendo a la muestra inicial, en donde obtuvo el 95 % de aciertos un año previo a la quiebra, el cuadro 2.7. nos permite ver el comportamiento de los años siguientes. Según Altman, su modelo predictivo proporcionaba un pronóstico más exacto hasta dos años previos a la quiebra, pero conforme pasaban los años la exactitud tendía a perderse. CUADRO 2.7. EXACTITUD PREDICTIVA CON EL MODELO MDA (MUESTRA ORIGINAL) AÑO PREVIO A LA QUIEBRA 1 n = 33 2 n = 32 3 n = 29 4 n = 28 5 n = 25 Fuente: Altman (1968) ACIERTOS 31 23 14 8 9 ERRORES 2 9 15 20 16 % DE CORRECTOS 95% 72% 48% 29% 36% Es muy importante hacer notar que para Altman la cuestión principal no radicaba en si la empresa tenía que acabar forzosamente fracasando por tener unos niveles determinados en sus ratios, sino la importancia de su modelo radicaba en si sus síntomas eran similares a los de otras empresas que sí avanzaban o terminaban en un proceso de fracaso. Es decir, el modelo predictivo de Altman era de alerta y previsión. Altman al defender su modelo hizo varias observaciones a otros trabajos como el de Deakin (1972), en el sentido de que éste construyó una función discriminante para cada año, en lugar de desarrollar la misma función del primer año con las bases de datos de los otros años previos al fracaso. En general, los críticos del modelo Altman señalaban que las variables independientes del modelo inicial no eran las más representativas. De ahí que posteriores estudios al seleccionar las variables independientes se apoyasen más en el trabajo de Beaver, y únicamente para el aspecto metodológico se tomaba como referencia a Altman. Por ejemplo, la variable X 5 propuesta por Altman y que se refiere al factor de rotación o eficiencia global de activos (ventas / activo total) fue considerado como un ratio no significativo en los modelos univariables, pues apenas tenía capacidad de discriminación. En cambio, en los modelos multivariables representaba la segunda variable independiente más importante de la función. Según Joy Tolleferson, esto se debía a un defecto metodológico en la medición correspondiente a las contribuciones individuales que son deducidas mediante los valores de los coeficientes estandarizados. También se cuestionaba mucho el problema que presentaba la variable X4 en aquellas empresas que no cotizan, pues varios analistas opinaban que al no cotizar en Bolsa la mayoría de las firmas, la función era poco práctica al requerir indicadores del mercado de valores. Con respecto a la X 4 , Lizarraga (1993) opinó que existían dos importantes situaciones que fueron: a) El ratio X2 (beneficios retenidos / activo total), que recogía el tipo de información de la X4 ; y b) el ratio X 4 que no representaba un verdadero indicador del endeudamiento, a excepción de aquellas empresas que tuvieran una gran dependencia del mercado de valores y dada su volátil cotización podría desvirtuar el sentido del ratio. Algunos estudios como los de Moyer (1977) habían logrado en la reestimación eliminar a las variables X4 y X5 . Altman propuso entonces cambiar a datos contables el numerador de la variable X4 para aquellas empresas que no cotizaran en la bolsa y revisar la variable X 5 para su posible eliminación del modelo. A partir de las observaciones de Jhonson (1970) y Moller (1977), Altman llegó a comprender algunas ___________________________________________________Capítulo 2: Antecedentes Históricos 46 limitaciones y defectos en su modelo; sobretodo en lo tocante a lo polémica sobre la capacidad predictiva. Otras desventajas del modelo, según Jhonson (1970), se referían a la poca capacidad de los ratios financieros para llevar predicciones “ex ante”. En cambio, cuando las predicciones eran “ex post”, el modelo Altman tendía a ser más exacto y se reconocían más las causas del fracaso a través de los estados financieros. Sin embargo, el modelo no por eso podía diferenciar realmente a las empresas que iban a fracasar, ya que no todas las clasificadas como fracasadas llegaban a su fin. El modelo predictivo también tenía poca capacidad para captar la dinamicidad del proceso del fracaso empresarial, y los ratios por sí solos no tenían la capacidad para describir el proceso dinámico de la quiebra, pues éste hecho hasta la fecha es muy complejo en términos cuantitativos y cualitativos. Tradicionalmente los ratios sólo habían servido para los análisis comparativos estáticos. El mismo Altman reconoció el problema del dinamismo en estos modelos. En general, los modelos como los de Altman, aunque habían demostrado que las empresas fracasadas y las sanas presentaban ratios diferentes, no habían demostrado estos concluyentemente que tuvieran poder predictivo (Jhonson 1970: p. 1168). En cuanto a la variable dependiente, existía la polémica sobre la necesidad de delimitar la definición de fracaso, pues si sólo se incluía un término, esto producía continuos errores de estimación en el modelo. Por otra parte, si la definición se ampliaba a varios términos, entonces el modelo era más exacto estadísticamente pero más subjetivo para el mundo real. 2.4.1.1. MODELO ALTMAN, HALDEMAN Y NARAYAMAN (1977). Interesado en superar y perfeccionar su modelo, en 1977 Altman llevó a cabo una nueva investigación junto con Robert Haldeman y Paul Narayaman para actualizar su modelo original. Para ello consideraron los importantes cambios que se habían producido en las finanzas empresariales y en la nueva tecnología; y partieron sobre la base de que eran cinco las principales razones que tomarían en cuenta para mejorar el modelo: 1. Investigar por qué cada vez había más fracasos en las empresas grandes (las cuales habían cambiado tanto en su tamaño como en su estructura financiera). 2. Considerando la naturaleza temporal de las bases de datos, se establecía la necesidad de actualizar constantemente el modelo. 3. Querían investigar si era importante recurrir a las notas de los estados financieros para llevar a cabo los correspondientes ajustes contables, producto de las nuevas normas y principios generalmente aceptados en la contabilidad, con el objetivo de mejorar las bases de datos utilizadas en los modelos. 4. Comparar en qué medida se podía incluir en el modelo, tanto empresas comerciales como industriales, sin perder por ello exactitud en la capacidad predictiva. 5. Revisar parte de la metodología del análisis discriminante para mejorar le técnica y la validez estadística de sus interpretaciones. Para esta nueva investigación, Altman et. al. seleccionaron siete variables independientes que proporcionaron una clasificación eficiente en la muestra original o de estimación, y que posteriormente mejoró la clasificación en la muestra de validación. Dichas variables fueron las siguientes: ___________________________________________________Capítulo 2: Antecedentes Históricos 47 X1 = beneficios antes de intereses e impuestos / activo total. Esta variable coincidía con la variable X 2 de su modelo anterior. X2 = estabilidad de las ganancias. Se calculaba mediante una medida normalizada del error estándar a lo largo de la tendencia de diez años correspondiente a la variable X1 de su modelo anterior. X3 = ratio de cobertura de intereses (beneficios netos de intereses e impuestos / gastos financieros por intereses). A pesar de su gran potencial informativo este ratio no había sido contrastado en trabajos anteriores. X4 = ratio de rentabilidad acumulada (beneficios retenidos / activo total). Este ratio coincidía con la variable X3 de su modelo anterior. X5 = ratio de circulante (activo circulante / pasivo circulante). En su modelo original utilizó un ratio distinto como medida de liquidez (capital circulante / activo total). Sin embargo, existen opiniones que continúan considerando a ambos ratios de liquidez como información que no es importante para el modelo, pues algunos autores opinan que más que medir la liquidez se tiene que medir “la falta de liquidez” dadas las características particulares de la población muestral. Por eso se continúa especulando si la liquidez es un factor importante en el análisis predictivo. X6 = ratio o indicador de capitalización = fondos propios/ fondos totales (pasivo + capital contable). Aquí los fondos propios fueron medidos tanto en el numerador como en el denominador, a través de su valor medio de mercado a lo largo de cinco años. Nuevamente incluyó un valor de mercado, aunque en esta ocasión consideró los datos de varios años. Se puede decir que intentó perfeccionar su variable X4 de su modelo anterior. X7 = tamaño de la empresa (total de activos intangibles). Altman et. al. no quisieron eliminar el efecto que tiene el tamaño de la empresa para la capacidad predictiva, por eso establecieron este concepto como una variable independiente. Este nuevo modelo dio como resultado una alta capacidad predictiva de más del 89 % para las empresas sanas y del 96 % para las empresas fracasadas dentro de la muestra de estimación, un año previo a la quiebra. Además, los resultados lograron aumentar la unidad temporal de la anticipación predictiva en la muestra de validación a través del método “Lachenbruch”, que incrementó de dos años obtenidos en el modelo original hasta los cinco años previos a la quiebra. Con esto también se mejoró el porcentaje de exactitud predictiva, siendo del 82.10 % para las empresas sanas y del 69.80 % para las empresas fracasadas, cinco años previos al evento. ___________________________________________________Capítulo 2: Antecedentes Históricos 48 CUADRO 2.8. PORCENTAJES DE EXACTITUD DEL MODELO ALTMAN (1977) AÑO PREVIO A LA QUIEBRA MUESTRA DE: FRACASADAS ESTIMACION % DE EXACTITUD SANAS TOTAL 1 96.20% 89.70% 92.80% ESTIMACION 1 92.50% 89.70% 91.00% ESTIMACION 2 84.90% 93.10% 89.00% ESTIMACION 3 74.50% 91.40% 83.50% ESTIMACION 4 68.10% 89.50% 79.80% ESTIMACION 5 19.80% 82.10% 76.80% Los resultados de la muestra de estimación (“Lachembruch”) fue realizada por Lizarraga (1993) con base al modelo Altman, Haldeman y Narayanan (1977). Con esta nueva investigación, Altman nuevamente propuso, ahora con sus compañeros, importantes innovaciones para los modelos. Primero sugirió integrar de forma explícita las probabilidades poblacionales previas, pues consideró que el análisis discriminante derivado a partir de una muestra, debía tener en cuenta las probabilidades reales de pertenencia de un individuo a cada uno de los grupos existentes en la población. En el caso de las empresas, la probabilidad de que fracasen era significativamente menor en comparación con su continuidad, incluso en épocas de crisis. Con base a lo anterior, se puede deducir que en la práctica siempre se presentará una desigualdad importante entre las dos submuestras de empresas, pues no existe una relación de igualdad probabilística previa de pertenencia a cada submuestra de uno a uno. Otro aspecto importante que tuvieron en cuenta para el nuevo modelo fueron los costes de error. Opinaron que la subjetividad era mayor con respecto a las probabilidades poblacionales, pues dichos costes, dependen de quién es el usuario que aplica el modelo. Al incluir tanto las probabilidades poblacionales previas como los costes de error en el análisis discriminante, las “Z-Scores o “puntos de corte” seleccionados al principio para la clasificación se modificaron y condicionaron directamente los porcentajes de error. Sin embargo, se desconocen tales modificaciones, pues en esta ocasión por razones de comercialización, Altman et. al. no hicieron públicos los coeficientes, sino únicamente las variables independientes. De ahí que algunos investigadores opinen que en esta ocasión la interpretación estricta sobre la importancia relativa de las variables independientes no constituyó el objetivo principal de su estudio, sino que se enfocó más bien a mostrar las comparaciones de los diferentes resultados a través de diversas alternativas. Al contrario de otros trabajos posteriores que asesoró Altman, aquí no tomó en cuenta la influencia del sector industrial, e incluso en la muestra incluyó tanto empresas industriales como manufactureras. Según sus conclusiones, dicha combinación no afectó negativamente a la eficiencia del modelo. En general, el modelo Altman se puede considerar como un método para evaluar el riesgo, el cual ha sido definido por su compañía como “la incapacidad de una empresa para hacer frente a sus pasivos”. Aquí la Z-score indica en qué medida la empresa analizada se parece a otras que han incumplido sus créditos y que es muy posible que entren a un procedimiento concursal, pero su fin no está dirigido a la predicción del fracaso empresarial futuro, es decir, en la práctica el modelo de Altman se ha diseñado específicamente para comparar las características financieras y operativas de las empresas con las de un gran número de empresas que han fracasado. ___________________________________________________Capítulo 2: Antecedentes Históricos 49 2.4.2. ALGUNOS ESTUDIOS DE PAISES EMERGENTES BASADOS EN EL MODELO ALTMAN. 2.4.2.1. MODELO BAIDA Y RIBEIRO (BRASIL, 1979). Durante 1979 Tara Baidya y Luis Manoel Ribeiro, de la Universidad de Rio de Janeiro, junto con Altman, de la Universidad de Nueva York, aplicaron el modelo de la Z-Score a la difícil experiencia financiera Brasileña que se presentó durante la década de los setenta. Este estudio se llevo bajo un ambiente caracterizado por porcentajes de inflación muy altos y en donde los ratios de cobertura se modificaron significativamente (aunque el PIB era para 1977 del 4.66%). Además, según los reportes estadísticos de 1976, en el conjunto de los demás ratios se observaron significativas alzas. Según los autores, esta tendencia se debió al incremento en los gastos financieros que durante 1969-1975 pasaron del 20.1% al 39.2%. Por otra parte, los beneficios para hacer frente a estos gastos registraron tendencias muy accidentadas, pues de estar en 47.4% para el período 19691970, llegaron al 125% para el período 1973-1974; y posteriormente cayeron drásticamente hasta el 62.8% durante 1974-1975. La metodología utilizada fue casi idéntica a la del trabajo pionero de Altman (1968), aunque la base de datos tuvo un alcance de 1 a 3 años previos a la quiebra. El primer año previo a la quiebra se consideró como la base para la muestra de control. Para este estudio, que consideró el período 1973-1976, se seleccionó una muestra de 23 empresas con problemas financieros cuyo promedio en el tamaño de sus activos osciló entre los 30 y 40 millones de dólares. Aquí se consideró como variable dependiente a la empresa fracasada con problemas de solvencia, aunque no llegara a la quiebra (empresas con peticiones de quiebra: “falancias”, y empresas en proceso legal de reorganización: “concordatas”). Estas empresas tenían en común que la mayoría de sus problemas se presentaron en los treinta últimos meses previos a su fracaso (período enero 1975 – junio 1977). Sin embargo, dicha uniformidad temporal creemos que no ayudó mucho, pues se incluyeron empresas de sectores productivos tan heterogéneos como fueron el textil, mobiliario, pulpa y papel, plásticos, metalúrgicos y otros que no especificaron los autores. Posteriormente, las empresas fracasadas se compararon con otra muestra de control un poco más grande (35 empresas sanas) por lo que se deduce que no se consideró básico el emparejamiento. Con respecto al conjunto de ratios originales, se utilizaron los mismos 22 ratios del primer estudio de Altman, aunque adaptadas al caso brasileño según lo indicaron los autores. Esto se debió a que la evolución entre los capitales propios y los pasivos totales del conjunto de empresas brasileñas se vieron seriamente modificados por el entorno macroeconómico. Por ejemplo: la evolución del impulso y cobertura de los ratios del pasivo total / capital propio pasó del 80.5% hasta el 110.5% de 1975 a 1979. Por otra parte, durante el mismo período el capital propio de las empresas pasó del 55.4% al 47.5%; y los pasivos totales se incrementaron del 44.6% hasta el 52.5%. Para la función lineal se utilizaron también las mismas variables independientes del trabajo original de Altman. Sin embargo, las variables X2 y X4 (que miden la rentabilidad acumulada y la solvencia) fueron modificadas. Esto se debió a que los balances generales de los Estados Unidos de Norteamérica difieren con respecto a los del Brasil en cuanto al concepto de “rentabilidad acumulada”. Para los norteamericanos se entiende que se llega al concepto de beneficios acumulados una vez que se han deducido los dividendos pagados en efectivo. En cambio, en Brasil este concepto se entiende como las ganancias retenidas después de la distribución de dividendos, los cuales pueden ser pagados hasta en un ___________________________________________________Capítulo 2: Antecedentes Históricos 50 período de dos años posteriores a su decreto. Así, su “pago” sólo se reflejará como dividendos en acciones (capitalización de los dividendos). Esta práctica obedece a métodos contables antiinflacionistas que buscan crear reservas para las correcciones monetarias de los activos fijos y de esta forma mantener el capital de trabajo al deducirlo de los beneficios. Los beneficios reales serán entonces menores con respecto a aquellos que son reportados en la cuenta de beneficios retenidos. Estas reservas evitan la descapitalización al incrementar los activos y el capital contable de la empresa. Con respecto a la variable X 2 , fue propuesta por Altman con el fin de considerar la edad de la empresa, pues consideró que es más fácil que un negocio fracase cuando es de nueva creación. Los autores la expresaron en los siguientes términos: X2= Capital Contable Total – Aportaciones de los accionistas al Capital / Activos Totales. Baidya y Ribeiro opinaron que una expresión más precisa del numerador podría determinarse al considerar a los beneficios retenidos anualmente más las reservas creadas y acumuladas a lo largo de la vida de la empresa. Según ellos, en la mayoría de las empresas brasileñas los “fondos” provienen directamente de los accionistas que los aportaron al principio de la creación de la empresa. Sin embargo, estos representan sólo una pequeña parte del capital contable actual, el cual incluye un conjunto de reservas anuales que reflejan la corrección monetaria de los activos ante la inflación. Esta información que es muy difícil de obtenerse desde fuera de la empresa para conformar una mejor base de datos, por desgracia no estuvo a disponibilidad de su investigación. Para la variable X4 , el capital social fue medido a través de una combinación del valor de mercado de todas las acciones con relación al valor en libros de los pasivos totales. Este indicador le había sugerido anteriormente a Altman qué tanto los activos pueden disminuir su valor al considerar el valor de mercado del capital contable menos los pasivos totales. Sin embargo, Baidya y Ribeiro concluyeron que dado que el capital social de las empresas brasileñas en general no se comercializa o cotiza en bolsa, es difícil determinar esta variable, ya que su numerador está compuesto por un valor de mercado (último precio de mercado de las acciones numerarias). Para obtener los nuevos valores de mercado del patrimonio o capital social sin considerar los valores en libros, sustituyeron y dividieron el capital social líquido entre el pasivo total actual (X4 = capital social líquido / pasivo total actual). Por otra parte, Altman también había propuesto como alternativa el utilizar el siguiente ratio: Capital Neto (activo neto o capital contable / Pasivo Total (valor en libros). Para las otras tres variables independientes no se les aplicó ningún ajuste, aunque sí se reconoció que dada la variabilidad de los gastos financieros, dichas variables sí deberían también ajustarse a entornos inflacionarios para que fueran más compatibles con los procedimientos brasileños, y de esta forma poder obtener para el modelo más poder discriminatorio. También es importante destacar la variable independiente X3 , pues Altman desde sus primeros estudios consideró que este ratio media eficientemente la verdadera productividad de los activos de la empresa, ya que esta magnitud se basa en el potencial de sus activos para generar beneficios, y por lo tanto, la insolvencia se presenta cuando el total de los pasivos excede a la valuación de los activos. Por último, la variable X5 representa para los seguidores de la escuela de Altman, un estándar financiero importante que indica la capacidad de las ventas para generar los activos de la empresa. CUADRO 2.9. MEDIAS DE LAS VARIABLES Y TEST DE SIGNIFICANCIA ___________________________________________________Capítulo 2: Antecedentes Históricos 51 VARIABLE MEDIA DEL GRUPO DE EMPRESAS EN QUIEBRA -6.1% -62.6% -31.8% 40.1% 150.0% X1 X2 X3 X4 X5 *Significancia at the .001 Level F1.60 (.001) = 12.00 F1.60 (.01) = 7.00 F1.60 (.05) = 4.00 MEDIA DEL GRUPO DE EMPRESAS NO QUEBRADAS 41.4% 35.5% 15.3% 247.7% 190.0% F-RATIO 32.60* 58.86* 226.56* 33.26* 2.84* CONTRIBUCIÓN RELATIVA DE LAS VARIABLES VARIABLES X1 X2 X3 X4 X5 SCALED VECTOR 3.29 6.04 9.89 7.42 8.41 RANKING 5 4 1 3 2 Al tomar en cuenta las anteriores premisas, la investigación brasileña dio como resultado empírico dos modelos lineales. Al primero que denominaron Z 1 , incluyó cuatro de las cinco variables del modelo original de Altman (X2 ....X5 ). Esto se debió a que una vez aplicado el programa discriminante “stepwise”, los resultados indicaron que la variable X1 no presentaba ningún poder explicativo para el modelo. Además, el signo de su coeficiente era contrario a la lógica intuitiva. Según los autores, esto se debió a que algunas empresas presentan un crecimiento excesivamente acelerado sin recursos financieros suficientes para soportarlo. En tales casos el capital de trabajo neto pierde poder predictivo como variable independiente. Para el segundo modelo que denominaron Z2 , no se incluyó a la variable X2 por la dificultad para integrar sus componentes con las bases de datos contables que presentaban los estados financieros. Aunque esto mismo sucedió con la variable X 4 , la cual finalmente sí se incluyó. A continuación presentamos ambas Z-Scores. CUADRO 2.10. FUNCIONES LINEALES OBTENIDAS EN EL CASO BRASILEÑO Z 1 = 1.44 + 4.03 X2 + 2.25 X3 + 0.14 X4 + 0.42 X5 Z 2 = 1.84 + 0.51 X 1 + 6.23 X3 + 0.71 X4 + 0.56 X5 Fuente: Baidya y Ribeiro (1979). Los resultados obtenidos en este trabajo dieron una exactitud de clasificación del 88% un año previo a los problemas financieros, llegando hasta el 78% tres años previos a dichos problemas. La exactitud de clasificación de los modelos fue ligeramente inferior durante el segundo y tercer año previo a la quiebra. Además, este trabajo intentó determinar los costes de error clasificatorio. Baidya y Ribeiro concluyeron que el modelo predictivo de Altman, que aplicaron en su estudio, en el caso de economías emergentes presentaba problemas fundamentales en cuanto a la calidad y ___________________________________________________Capítulo 2: Antecedentes Históricos 52 disponibilidad para obtener bases de datos fiables, pues la calidad de dichos datos era deficiente, debido en parte a que los gobiernos aún no estaban convencidos de la importancia sobre su supervisión. En el caso particular del Brasil, desde 1965 se habían ya hecho serios esfuerzos para crear instituciones que vigilaran la razonabilidad de los datos financieros. En 1972, el Banco Central de Brasil, a través del “Superinterden of Money and Credit”, emitió la Circular No. 179 para determinar un formato estándar que deberían seguir las empresas registradas en esta instancia a la hora de elaborar el balance general y el estado de resultados. Para 1976, se revisó la Ley de Corporaciones Brasileñas y fue creada la “Commissáo de Valores Mobiliarios” para proteger a los accionistas minoritarios en cuanto a la alteración de la información financiera. Esto dio como resultado una nueva ley de impuestos para las corporaciones con el fin de mejorar sus estados financieros (diciembre de 1977). El gobierno en turno reconoció así la necesidad de desarrollar bancos de bases de datos a largo plazo. Desde el punto de vista de Baidya y Ribeiro, el problema del desarrollo de las bases de datos en Latinoamérica ha sido generalizado, pues tanto en Brasil como en los demás países del área, cuyas economías han sido inestables y cambiantes en sus superestructuras, el analista financiero se encuentra ante diferentes criterios contables dentro de tres tipos de empresas que son: las del estado, las filiales multinacionales y las domésticas (que pueden ser privadas y con participación estatal). Según los autores, esto ha llevado a que algunos investigadores como Taylor (1977) en Colombia, optaran por no utilizar bases de datos públicas, pues generalmente corresponden a empresas grandes y aplican frecuentemente el efecto window dressing. Como alternativa algunos trabajos han seguido el ejemplo de Edmister (1972) en cuanto a utilizar bases de datos de empresas pequeñas, en las que en ocasiones es más fácil obtener información más confiable. Sin embargo, el anterior problema también puede presentarse en algunos países desarrollados y prueba de ello fue la experiencia de 1973 que tuvo Altman con los malos resultados en Francia al desarrollar su modelo en 1973. En este país hasta finales de la década de los setenta, la Comisión de Operaciones de la Bolsa apoyaba la estricta confidencialidad de los estados financieros, y por lo tanto, era difícil saber los criterios contables que se aplicaban en partidas muy específicas. Altman para entonces aún consideraba que la aplicación de su modelo por parte de las instituciones financieras del Brasil podía ser comparable al llevado acabo en otros países desarrollados como los Estados Unidos. Esta idea posteriormente la cambiaría en México al proponer una nueva Z-Score. 2.4.2.2. MODELO SWASON Y TYBOUT (ARGENTINA, 1988) En 1988 Eric Swanson, del Banco Mundial, y James Tybout, de la Universidad de Georgetown de Washington, estudiaron la asociación entre el incremento de los porcentajes de las quiebras, el incremento en los porcentajes de los tipos de interés reales, así como el establecimiento de los “stocks” de crédito como condiciones macroeconómicas de importancia para la supervivencia de las empresas. Los porcentajes de quiebra sectoriales fueron analizados para determinar si los sistemas de reforma tenían un efecto diferencial sobre la alta protección de las empresas. Además, los resultados de su modelo buscaron definir el rol que jugaban los costes financieros para determinar la probabilidad de quiebra, así como las diferencias significativas entre la reforma y la post-reforma económica de Argentina, en cuanto a los resultados de las empresas industriales. En 1976, Argentina se había implicado en un programa de desregulación y estabilización financiera, así como en una liberalización de su economía. Esta reforma concluyó en 1981 con una rápida devaluación de su unidad monetaria y el restablecimiento de los controles gubernamentales. Bajo este esquema, Swanson y Tybout examinaron el efecto del programa de reforma sobre las empresas industriales pertenecientes a varios sectores económicos. ___________________________________________________Capítulo 2: Antecedentes Históricos 53 Un problema importante que detectaron a través de su investigación sobre esta línea de estudios fue que a esas fechas había pocos trabajos que se habían enfocado a países en vías de desarrollo. Para los autores esto tal vez obedecía a que la disponibilidad de bases de datos era un problema cualitativo en todos ellos, lo cual impedía aplicar modelos como el de Altman. Sin embargo, destacaba el hecho de que en Brasil el propio Altman, había iniciado ya intentos por encontrar la utilidad de los datos publicados en esos países para poder ser interpretados correctamente y analizados rigurosamente a través de su modelo dada la importancia que presentaba el contenido singular de su información. En su trabajo Swanson y Tybout analizaron las quiebras argentinas sector por sector, distinguiendo entre aquellas empresas cuyas actividades gozaban de una alta protección y entre aquellas otras empresas que tenían poca o nula protección por parte del gobierno. Determinaron que en épocas de procesos de liberalización, los patrones relativos a la quiebra responden a los sistemas reformistas gubernamentales dirigidos a promover las exportaciones a expensas de las sustitución de las importaciones. Para ellos las variables financieras: porcentaje de interés real y los “stocks” de créditos reales fueron los factores causales dominantes que se extendieron a lo largo de los años. Concluyeron que las fluctuaciones en los costes financieros afectaron negativamente las fluctuaciones de los resultados reales en cuanto a la determinación de las ganancias netas. Por otra parte, consideraron que los costes financieros afectan notablemente el riesgo de quiebra, pero en cambio, los resultados del mercado no afectan notablemente el número de quiebras. Aquí las ventas mostraron una correlación negativa constante. Al revisar la literatura teórica observaron que los negocios fracasados habían sido definidos comúnmente como aquellos que no tienen un valor presente de activos en exceso con respecto al valor presente de sus pasivos. Sin embargo, las bases de datos de estas variables no estuvieron disponibles y aunque consideraron que esta condición analítica ni es necesaria, ni suficiente para que una entidad corporativa deje de existir, en cambio si es necesaria para una definición operativa. Al definir a la variable dependiente, consideraron que una empresa estaba fracasada cuando satisfacía por lo menos alguna de las tres condiciones siguientes: a. Que estuviera en quiebra. Para ellos esto era un estatus “concursal” y por lo tanto estaba excluido del mercado de valores. b. Que el estatus “concursal” se considerara como un supuesto a lo que marca el Capítulo XI de la Ley de Reforma de Quiebra de los Estados Unidos7. Es decir, que la empresa estuviera en reorganización y acuerdos de repagos (aquí podía quebrar o no quebrar eventualmente la empresa). c. Que sus transacciones en la bolsa de valores estuvieran suspendidas o canceladas cuando la corte o la comisión nacional de valores hubiera suspendido la autorización para ofrecer sus acciones en el mercado público. Su análisis lo efectuaron de forma similar a como se había aplicado en los países industrializados, utilizando como técnicas estadísticas, el análisis discriminante y el análisis Probit. Su análisis les sugirió que la liberalización de los mercados financieros influye sustancialmente en ciertos sectores industriales, particularmente cuando cambian las políticas cambiarias, las cuales induce a grandes desviaciones en la paridad del poder adquisitivo. En tales circunstancias, la tasa de interés real sobre los 7 Este capítulo fue elaborado con el fin de mantener a la empresa en funcionamiento y proteger el valor de los activos mientras se elabora un plan de reorganización. Durante ese período ningún procedimiento puede continuar en c0ontra de la empresa. El plan de reorganización, que es la alternativa a la liquidación, implica que los acreedores renuncien a sus demandas a cambio de nuevos títulos o dinero. Este plan debe contener un diseño sobre la nueva estructura de capital que beneficie tanto a los acreedores como a los accionistas. También el Capítulo XI es una alternativa al Capítulo VII de la Ley de Reforma de Quiebras (Bankruptcy Reform Act) de 1978, la cual establece que los activos de una empresa quebrada deben ser liquidados y vendidos para pagar a los acreedores. ___________________________________________________Capítulo 2: Antecedentes Históricos 54 préstamos en dólares y en pesos, suelen diferir considerablemente sobre el retorno real productivo de los activos, y éstos tienden entonces a ser muy volátiles. En el caso particular de Argentina, a principios de 1987 se volvió nuevamente a un programa de estabilización que incluyó altas tasas de interés( 20% a 30% anuales). Los autores consideraron entonces que eran muy significativas las variables macroeconómicas dentro de los procesos de quiebra y que la falta de liquidez e insolvencia en el sector industrial podía significativamente empeorar los prospectos de avance en los países en vías de desarrollo, ya que dichos problemas reducen los resultados de las empresas. Por ejemplo, a largo plazo estos problemas pueden inducir a cambios negativos en el volumen y en la formación de capital. La relación entre las condiciones macroeconómicas y la tasa de quiebras en general era muy evidente e importante para Swanson y Tybout, aunque en su trabajo también incluyeron varios hechos que se enmarcan en el nivel microeconómico. Con respecto a su base de datos, seleccionaron estados financieros de sólo empresas manufactureras pues pensaron que de acuerdo al tipo de empresa se puede establecer mejor el riesgo que se da entre los diferentes sistemas de dirección. Estas empresas se encontraban cotizando en la Bolsa de Valores de Buenos Aires durante el período de 1975-1982. Para la selección de las variables independientes incluyó tres factores y dieciséis ratios (ver cuadro No. 2.11.). Para Swanson y Tybout, la liquidez, el apalancamiento y los activos denominados en dólares netos (“currency exposure”), eran los factores que medían las características de los futuros flujos de ganancias de las empresas. Por eso, en su trabajo utilizaron una serie de variables de ingresos, costes, ventas, gastos de operación y costes financieros netos. Cada variable correspondiente a las ganancias la construyeron como un ratio para normalizar las medidas del tamaño de la empresa (tal fue el caso del pasivo total, el capital contable o los activos totales). En su trabajo los ingresos netos que definieron simplemente como ventas menos costes intermedios (depreciaciones, salarios, impuestos intermedios y pagos) no se incluyeron como un indicador. En su lugar consideraron que era mejor incluir a los beneficios con base en su potencial pues para ellos, las tres variables de los beneficios básicamente implicaban los ingresos netos. Además, estos últimos no les habían demostrado una contribución de poder adicional explicatorio cuando las variables se presentaron como ingresos netos. Aquí se ignoró a los impuestos y a los ingresos no operativos. Como lo esperaban ambos investigadores: los tres componentes de las ganancias sirvieron mejor para predecir las quiebras con respecto a sólo los ingresos netos. Con respecto a los activos denominados en dólares netos y según los datos, consideraron que era una variable que no se había antes utilizado en otros estudios predictivos, a pesar de que ésta proporciona una amplia extensión volátil entre el dólar y el peso. Por eso, para ellos, ésta fue importante para reconocer la denominación de la moneda para un mejor análisis. ___________________________________________________Capítulo 2: Antecedentes Históricos 55 CUADRO 2.11. MEDIDAS ALTERNATIVAS DE LA ESTRUCTURA FINANCIERA FACTORES 1 INDICES DE CASH FLOW A. RATIOS INGRESOS DE VENTAS BRUTAS 1. Ventas / Pasivo Total 2. Ventas / Capital Contable 3. Ventas / Activo Total B. COSTES DE INPUTS INTERMEDIOS 4. Beneficios antes de Intereses e Imptos. / Pasivo Total 5. Beneficios antes de Intereses e Imptos. / Capital Contable 6. Beneficios antes de Intereses e Imptos. / Activo Total C. COSTES FINANCIEROS 7. Costes Financieros Reales / Pasivo Total 8. Costes Financieros Reales / Capital Contable Costes Financieros Reales / Activo Total D. APALANCAMIENTO 9. Pasivo Total / Activo Total 10. Pasivo Total / Capital Contable E. LIQUIDEZ 12. Ratio del Acido = Activo Circulante –Inventarios / Pasivo Circulante F. ACTIVOS DENOMINADOS EN DÓLARES NETOS O “FOREING CURRENCY EXPOSURE” 11. Activos Netos en Moneda Extranjera / Activo Total Activos Netos en Moneda Extranjera / Capital Contable G. TAMAÑO DE LA EMPRESA 12. Logaritmo of Deflated / Activo Total H. TRADEABILITY 13. Tasa Efectiva Real de Protección (TERP) 14. Índice de Protección = 0 si TERP <1.1 ; 1 si es lo contrario 2 APALANCAMIENTO 3 OTROS INDICADORES Fuente: Swanson y Tybout (1988) 2.4.2.3. MODELO PASCALE (URUGUAY, 1988). En 1988 Ricardo Pascale, de la Universidad de Montevideo, desarrolló un modelo multivariable con el fin de predecir las quiebras en la industria manufacturera de Uruguay, tomando como muestra a empresas pequeñas, medianas y grandes. Este trabajo también fue asesorado por Altman y apoyado por el Banco de Uruguay dada la creciente falta de estudios que se registraban sobre este tema. Para 1958 en Uruguay existía una crisis de pagos con altos porcentajes de inflación, estancamiento de las exportaciones y en consecuencia un muy bajo porcentaje de crecimiento real. En 1974, un nuevo equipo económico implementó fuertes cambios económicos tendientes a la liberalización y desregulación de la economía, enfocándose sobre todo en la reducción de la inflación y al saneamiento de la balanza de pagos. En general, desde mediados de la década de los cincuenta y hasta 1974, el gobierno venía implementando un programa de sustitución de importaciones ante una extrema crisis económica, en donde las autoridades acabaron por intervenir los mercados financieros. Para 1978 el Banco Central de Uruguay disminuyó el porcentaje doméstico inflacionario y el gobierno redujo su intervención aún más en la economía, estableciéndose un nuevo sistema tributario. En lo económico, se incrementaron los precios del petróleo y se redujeron los de la carne y la lana. Esto fue un grave problema para las empresas uruguayas, pues los mercados se “dolarizaron”, se incrementaron las tasas reales y decrecieron las medidas proteccionistas. Al mismo tiempo, se fue desacelerando la tasa de devaluación, pero la inflación y el desempleo eran altos. Pascale apuntó en la introducción de su trabajo que en el mundo académico de esos tiempos y ante este difícil panorama, la utilización del análisis de ratios para evaluar la posición de los negocios estaba cuestionada por no tener un desarrollo certero en el campo de la economía y las finanzas. Por eso, él se propuso intentar llevar a cabo el desarrollo de una investigación empírica en un sector estratégico de su país basado en el modelo Altman para superar la anterior tendencia. La estructuración de su base de datos intentó ser rigurosa, pues comprendió la importancia que representaba este elemento dentro del modelo predictivo. Su metodología fue detallada para el ___________________________________________________Capítulo 2: Antecedentes Históricos 56 tratamiento de los datos contables, y éstos se obtuvieron a través de un cuestionario estandarizado que se envió a las empresas para verificar el grado de acuerdo y desacuerdo. Con esto, Pascale sugería poner un especial énfasis en el control de la calidad de los datos a través de la correcta clasificación de dichos datos dentro de los estados financieros; la correcta valuación de los activos y pasivos en moneda extranjera (utilizándose el período final de la tasa de cambio); y verificó la valuación de los activos fijos (estandarizándolos en una primera aproximación de acuerdo a las leyes fiscales). La información proporcionada por las empresas se emitió en valores actuales, y se deflactó para el primer año con el fin de expresarlos en monedas constantes. Para esto último el proceso que se siguió fue en términos específicos el siguiente: 1. Los activos y pasivos circulantes en moneda nacional fueron deflactados a través del índice de precios al por mayor del sector. 2. Las inversiones (excluyendo los activos fijos y otros activos y pasivos a largo plazo en moneda local) fueron deflactados utilizando el índice general de precios al consumidor. 3. Los activos y pasivos circulantes y no circulantes en moneda extranjera fueron valuados en moneda nacional mediante la conversión del balance (considerando el punto 1 y 2 antes descritos). 4. Los activos fijos fueron computados a su valor para efectos de impuestos durante el primer año para las series de balances que estaban disponibles. Para los otros años, el valor se ajusto a precios constantes para las compras y ventas. Estos valores fueron deflactados utilizando el índice de precios para inversiones brutas fijas. 5. El capital contable en términos constantes se calculó como la diferencia entre los activos y pasivos ajustados de acuerdo con la metodología arriba descrita. 6. Las ventas fueron deflactadas como un flujo de variables, utilizando el índice de precios al por mayor para el sector. Pascale tomó como primer criterio para la selección de su muestra el tamaño de la empresa (teniendo preponderancia aquellas firmas con más de 50 trabajadores) y estableciendo como unidad temporal para el análisis el período de 1978 a 1982. Para la muestra seleccionó dos submuestras: la primera fue de 44 empresas privadas manufactureras con serios problemas financieros. Aquí, las empresas consideradas como fracasadas estaban en liquidación, quiebra o acuerdos con los acreedores que habían intervenido de forma importante en los cambios estructurales o en la cesación de actividades de la entidad. El 77% de las empresas fracasadas tuvieron dificultades entre 1980 y 1981; y el 11% registraron sus problemas durante 1982. Para la submuestra de empresas sanas se seleccionaron 44 empresas sin problemas financieros a través del emparejamiento. Cabe mencionar que su estudio, al igual que muchos otros, no especificó o dio más detalles sobre las características de las empresas sanas. Para las variables independientes, seleccionó a aquellas que habían demostrado gran poder discriminatorio, como por ejemplo: los ratios de: ventas netas / pasivo total, beneficio neto / activo total y pasivo circulante / pasivo total. El total de ratios utilizados fueron trece, de los cuales en seis no especificó sus componentes (ver cuadro 2.12.) ___________________________________________________Capítulo 2: Antecedentes Históricos 57 CUADRO 2.12. VARIABLES INDEPENDIENTES UTILIZADAS POR PASCALE 1. 2. 3. 4. 5. 6. 7. Ratio de Rotación de Activos Ratio de Circulante Cambios en el Capital de Trabajo Ventas / Capital de trabajo no Bancario Ratio de Apalancamiento Inventarios / Pasivo Bancario Pasivo Bancario / Pasivo Total 8. 9. 10. 11. 12. 13. Pasivo Fijo / Pasivo Total Cuentas por Cobrar más Inventarios / Cuentas por Pagar más Recursos Espontáneos Ratio de Rotación del Inventario Tasa de Rotación Ventas / Deudas Beneficios Netos / Activos Totales Todas las variables se calcularon en cada submuestra a partir del primer año previo a la quiebra o al último cierre contable para las empresas sanas, llegando hasta tres años previos al evento. A partir de esto, la función discriminante que obtuvo fue la siguiente: CUADRO 2.13. MODELO PASCALE Z = 3.70992 + 0.99418X1 + 6.55340X2 + 5.51253X3 X1 = Ventas / Pasivo X2 = Beneficios Netos / Activo Total X3 = Pasivo Fijo / Pasivo Total La variable X1 midió el nivel de actividad, la X2 midió la tasa neta de rotación de los activos; y la variable X3 se asoció con la estructura de endeudamiento. Los altos porcentajes de estos ratios le indicaron a Pascale que la empresa tenía las características de sana; o en el caso contrario, que los bajos porcentajes indicaban que la empresa tenía problemas financieros. Lo interesante de este modelo es que en el ratio X1 , las ventas se expresaron en moneda constante (considerados al inicio del año fiscal). Con respecto al denominador, este era un promedio de las deudas (principio y final del año fiscal) y también estaba expresado en moneda constante de principios del período. El ratio X3 (pasivo fijo / pasivo total) fue ajustado al poder de compra constante. Este tipo de ajuste lo consideró importante sólo para aquellas partidas que se presentaban en moneda extranjera. Con respecto al pasivo fijo, entendió que era aquel que se contrata a más de un año. Actualmente, este tipo de deudas se consideran entre períodos de tres hasta cinco años. El ratio asociado con el endeudamiento lo consideró de la siguiente forma: activo total / pasivo total. Éste mostró una marcada diferencia entre las medias de los dos grupos de empresas. Sin embargo, esto no sumó ningún poder discriminatorio adicional para la función, y por lo tanto, no se incluyó en ésta. Los resultados de este estudio que están resumidos en el Cuadro X, le indicaron a Pascale que de la muestra total compuesta por 85 empresas, 7 fueron mal clasificadas, lo que le dio un índice general de clasificación correcta del 91.8% para los dos grupos. El tipo de error tipo I fue mínimo (2.3%) y sólo una de las 44 empresas fracasadas fue mal clasificada. La zona gris se ubicó entre el 1.05 y el .04. Los anteriores indicadores le llevaron a la conclusión de que aunque el modelo predictivo es fácil de utilizar, se requiere información que no siempre está disponible en las empresas. Es decir, la base de datos se volvió a presentar como uno de los problemas centrales. Además, Pascale también advirtió sobre el problema de los cálculos y el software, los cuales no siempre son los más apropiados o de más fácil acceso. Sus recomendaciones para futuras investigaciones se concretaron a la sugerencia de ___________________________________________________Capítulo 2: Antecedentes Históricos 58 extender este modelo que fue realizado en un país en vías de desarrollo, hacia otros sectores y tamaños de empresas ubicadas en países desarrollados con fenómenos similares. CUADRO 2.14. RESULTADOS DE LA CLASIFICACION (MUESTRA ORIGINAL) Empresas Clasificadas en el Grupo Con problemas Sin problemas Con Problemas Sin Problemas Total Fuente: Pascale Ricardo. Porcentajes Correctos 43 6 49 1 35 36 9 7 .7 85.4 91.8 2.4.2.4. MODELO WOM Y YOUNG (COREA, 1995). El estudio de Kim Won Dong, de la Universidad de Nueva York, y Eom Young Ho, de la Universidad de Suwom (1995), llevado a cabo en Corea del Sur con la colaboración de Altman, se reconoce que cualquier trabajo sobre los modelos predictivos requiere una base de datos con calidad. También este estudio advierte que es muy frecuente que en muchas de las muestras se incluyan empresas privadas, empresas que son propiedad del gobierno o empresas que están subsidiadas; sin tomar en cuenta que existe una estructura financiera diferente entre cada una de ellas por la forma de su financiamiento propio y ajeno; del sector al que pertenecen; y además, como ya lo apuntaban Baidya y Ribeiro (1979): en gran medida esta diversidad de empresas está condicionada de forma diferente por las variables macroeconómicas del país donde están ubicadas. Continuando con estas ideas iniciales, Wom y Young citan el caso de Japón, en donde observaron que a través del Ministerio de Finanzas y de los grandes bancos, se mantiene un rol tradicional para apoyar a las empresas fracasadas, manteniéndolas en muchas ocasiones activas artificialmente. En el caso de Corea, este país registró un gran crecimiento a finales de la décadas de los setenta y los ochenta cuando el PIB llegó a ubicarse por arriba del 12% anual (1988-1990). Sin embargo, en 1991 la economía experimento un peligroso endeudamiento y el PIB decreció hasta el 6.8%; y para 1993 ya se situaba en 5.6% anual. Entonces el gobierno, a través del Banco de Corea, apoyó a las empresas más débiles sin considerar a la quiebra técnica como un factor decisivo para su continuidad. Considerando las anteriores premisas y para la determinación de la variable dependiente, su modelo se enfocó a distinguir entre empresas sanas y empresas con enfermedades financieras. Estas últimas fueron consideradas como aquellas que presentaban insolvencias técnicas o estaban en proceso de liquidación. Con respecto a la insolvencia técnica, los autores opinaban que ésta es la última manifestación de la vida de una empresa, y por lo tanto, se podía considerar que era ya un hecho su quiebra. Para la muestra seleccionaron empresas que se dedicaban a fabricar vestidos, productos metálicos, productos de madera, productos de pulpa y papel, motores de vehículos, productos de plástico, metales básicos y empresas constructoras. Como en anteriores ocasiones, hemos de apuntar lo heterogéneo de este tipo de muestras, que posteriormente se refleja en una base de datos con criterios contables muy diferentes al tener sobre todo inventarios y activos muy diversos, y por lo tanto, sistemas de valuación y amortización poco comparables. ___________________________________________________Capítulo 2: Antecedentes Históricos 59 Como variables independientes seleccionaron veinte ratios dentro de las cuales se incluyeron los cinco ratios de la función lineal de Altman (ratios: 1, 3, 4, 15, 20). Con el total de las variables seleccionadas Kim y Eom construyeron dos modelos que denominaron: X 1 -Score (para las empresas privadas); y X 2 Score (para las empresas que cotizaran en la Bolsa). Este último modelo incluía el ratio valor de mercado del capital social / pasivo total. Considerando que sólo 600 empresas cotizaban en ese entonces en la Bolsa de Valores de Corea, la k1 Score representó el indicador más práctico con respecto a la K2 -Score. También varias de las variables independientes las expresaron con base en una transformación logarítmica para disminuir el efecto distorsionador del tamaño de los activos totales, la cobertura de intereses y la relación entre las ventas netas / activos totales. CUADRO 2.15. Z-SCORE COREANAS K1 -Score = 17.862 + 1.472X 1 + 3.041X2 + 14.839X3 + 1.516X4 K2 -Sore = 18.696 + 1.501X1 + 2.706X2 + 19.760X3 + 1.146*X4 X1 = Log. Activo Total (tamaño) X2 = Log. Ventas / Activo Totale (eficiencia) X3 = Beneficios Retenidos / Activo Total (solvencia) X4 = Valor en libros de Capital Social / Pasivo Total (solvencia y apalancamiento) *X4 = Valor de mercado del Capital Social / Pasivo Total(solvencia y apalancamiento) Los factores del análisis fueron los siguientes: rentabilidad, liquidez, solvencia, apalancamiento, cobertura para gastos fijos, actividad o eficiencia con base al volumen de ventas, el tamaño de la empresa y la estabilidad de las ganancias. Para este último factor se consideró al ratio de la siguiente manera: beneficios antes de intereses e impuestos / la desviación estándar de los tres últimos años de beneficios antes de intereses e impuestos. Un coeficiente elevado de este ratio les proporcionó buenos resultados a corto plazo y una volatilidad relativamente baja. En cambio, un coeficiente bajo les indicó lo opuesto. En cuanto al período para calcular las medias de volatilidad, determinaron que deberían de considerarse períodos entre tres a cinco años. Sin embargo, dado los resultados que obtuvieron en su último test, no les fue posible utilizar este ratio pues no existían suficientes datos en la submuestra de empresas fracasadas, lo que no quiere decir que desecharan la recomendación de su utilización en los casos en que se contara con una excelente base de datos para poder observar su comportamiento. Para las bases de datos fijaron una unidad temporal de cinco años, considerando como primer año al último año fiscal disponible para obtener información financiera y previo al fracaso empresarial. Aquí sólo se consideró la información contenida en el balance general y en el estado de resultados. Las primeras estimaciones de este estudio dieron como resultado univariable cálculos correspondientes a la media y mediana de las empresas fracasadas. Para los autores, las empresas fracasadas en general son las más pequeñas con menos beneficios y liquidez; con más apalancamiento, y que registran ratios muy bajos para la cobertura de los intereses. Por ejemplo: el ratio de capital social / pasivo total registró una mediana de 0.39 contra un 0.63 correspondiente a las empresas sanas. Para el ratio de pasivo total / capital social, se obtuvo una proporción de 2:1 para las empresas fracasadas; en cambio para las empresas sanas la proporción fue de 1:2 . Sin embargo, los mismos autores reconocieron que ___________________________________________________Capítulo 2: Antecedentes Históricos 60 éste no era un indicador definitivo ya que posteriormente otros resultados les demostraron que, tanto las empresas sanas como las empresas fracasadas registraron ratios bajos. Así, la media del ratio valor de mercado de capital social / pasivo total, fue de 0.52 para las empresas sanas, y del 1.18 para las empresas fracasadas. En el caso de la rentabilidad, aquí si se obtuvieron diferencias significativas al igual que para el ratio de cobertura de intereses (para las fracasadas fue de 0.6 y para las sanas de 4.6. Pero en el caso de la liquidez, los ratios fueron muy similares entre ambos grupos. Una vez más estos resultados reforzaban la idea de que sí influyen definitivamente otros factores como son el tamaño de la empresa, el sector y sobre todo la incógnita del efecto que tiene el window dressing que impide llegar a generalizaciones más reales a través de un modelo predictivo. También con esto se comprobó las limitaciones que presentaba el análisis univariable. Al aplicar un análisis de series temporales a las empresas fracasadas también obtuvieron pobres resultados. Los autores argumentaron que los indicadores de alerta en Corea no eran todavía tan efectivos como en los Estados Unidos bajo este método. Al aplicar el MDA obtuvieron para el K1 -Score, cuatro variables independientes, eliminándose el ratio: valor en libros del capital social / pasivo total. El criterio para seleccionar a dichas variables se basó en los siguientes cuatro criterios: a.) Su alta significancia univariable. b.) El signo correcto de todos los coeficientes del modelo. c.) Un aceptable nivel de exactitud para las muestras y para el test de la muestra en general (“hold out”). d.) Un nivel aceptable de exactitud a través del tiempo. Con respecto a la exactitud de clasificación del modelo K1 -Score, un alto índice para las firmas en quiebra significó mayor salud financiera y poca probabilidad de quiebra. La exactitud un año previo a la quiebra fue del 97% para las 33 empresas fracasadas; para el segundo año disminuyó al 88.2%; y en el tercero descendió hasta el 70% de exactitud. Por otra parte, la exactitud de clasificación para las empresas sanas fue en términos generales del 92% un año previo al último cierre fiscal; del 83% para el segundo año, y del 77% para el tercer año. Como se lee en estos últimos resultados, en las empresas sanas no se observa la pérdida gradual de exactitud predictiva, pues ésta se incrementa o disminuye aleatoriamente en los años intermedios. Con respecto al modelo K2 -Score, se sustituyó la contabilidad del devengo basada en valores contables por valores de mercado (variable X4 ). Según los autores, la exactitud de predicción de este modelo es similar a la del K1 -Score, sin embargo, el primero tuvo como principal error que en varios casos las empresas clasificadas como sanas hasta el año de 1993, posteriormente llegaron a un punto claro de fracaso durante 1994 y 1995. 2.4.3. MODELO DEAKIN (1972, 1977). Edward B. Deakin (1972), profesor asistente de la Universidad de Austin Texas, combinó en su trabajo las investigaciones de Beaver y Altman dentro de un único estudio para desarrollar un modelo alternativo del fracaso empresarial. Este investigador consideró que el modelo univariable de Beaver obtuvo mejores resultados predictivos a través de la eficiencia de algunos de los ratios contrastados con ___________________________________________________Capítulo 2: Antecedentes Históricos 61 el modelo multivariable de Altman, pero que el método utilizado por Altman tenía más atracción intuitiva (p. 167). Primeramente Deakin intentó combinar los aspectos más interesantes de ambos modelos y partiendo de la misma hipótesis teórica, reprodujo el estudio de Beaver (1968), utilizando las mismas variables explicativas. Posteriormente, utilizó la metodología del MDA de Altman para investigar las combinaciones de los 14 ratios de Beaver, los cuales podrían ser los mejores predictores de una quiebra dentro de una combinación lineal de ratios. Deakin seleccionó 32 empresas fracasadas, las cuales estaban en “quiebra”, “insolventes” o en “liquidación para cubrir sus deudas con los acreedores”, durante el período 1964-1970. También integró una muestra de control de 32 empresas sin quiebra. El total de la muestra seleccionada tuvo como base dos criterios que fueron: a) su clasificación industrial; b) el tamaño de sus activos. Para su muestra Deakin seleccionó 11 empresas en quiebra incluidas en el “Moody´s Industrial Manual” y 23 empresas sin quiebra durante el período 1963-1964. Su estudio partió de un test de “significación individual” y “clasificación dicotómica” de cada variable independiente. Luego llevó a cabo el cálculo de las combinaciones multivariables de los ratios a través de las funciones discriminantes. La metodología completa utilizada por Deakin fue la siguiente: 1. Estableció dos submuestras: una de empresas fracasadas y una de empresas con éxito. 2. La primera submuestra (de empresas fracasadas) la consideró como la base para establecer la unidad temporal. 3. La submuestra de empresas sanas fue producto del emparejamiento con la submuestra de empresas fracasadas considerando su tamaño y su sector industrial. 4. Posteriormente, calculó los 14 ratios previamente seleccionados para cada empresa a través de cada uno de los años de la unidad temporal. 5. La selección de los ratios fue con base a sus resultados positivos por su capacidad predictiva y a su popularidad como variables independientes dentro de la literatura especializada. Cada ratio debió tener una lectura y una base teórica sólida para su interpretación, así como también incluir la explicación de cada uno de sus componentes. 6. Las empresas de cada submuestra se “ranquearon” de acuerdo al valor de sus ratios. El valor de cada ratio en la primera submuestra dio como resultado el número más pequeño de error de clasificación cuando se utilizó el valor crítico. Deakin observó que la discrepancia existente en el relativo poder predictivo de los ratios dentro de los tres años previos a la quiebra se debió a que durante el tercer y cuarto año, hubo una expansión en las empresas que fue financiada a través del incremento de los pasivos e inventarios. Para la función lineal utilizó coeficientes de correlación “Spearman Rank Order” para conocer el poder predictivo de los ratios y cuando aplicó el MDA a los 14 ratios utilizados en los estudios de Beaver, la aplicación del examen de coeficientes dio un alto grado de correlación entre la relativa capacidad predictiva de los ratios utilizados en los estudios de Beaver y la réplica que hizo Deakin durante tres años previos a la quiebra. Deakin llegó a dos interesantes conclusiones basadas sobre el "scaled vector" que indicaban contribución relativa de cada variable a la función discriminante y fueron: la ___________________________________________________Capítulo 2: Antecedentes Históricos 62 1. Consiguió diminuir el número de variables, eliminando aquellas que proporcionan una contribución relativamente pequeña a la función y que daban como resultado el incremento substancial dentro del número de errores de clasificación. 2. Descubrió que un modelo único puede ser suficiente para predecir una quiebra con un alto grado de probabilidad, pero insuficiente para predecir a largo plazo la misma probabilidad de que ocurra. Los exámenes de significancia sobre las funciones discriminantes indicaron que las funciones fueron significativas para menos de .006 de cada uno de los tres años previos a la quiebra, .016 para el cuarto año previo a la quiebra, y .05 para 5 años previos a la quiebra. Deakin no estableció un "valor crítico" para utilizarlo como una frontera entre las predicciones de empresas en quiebra y de empresas sin quiebra. Por otra parte, la extensión multivariable de su examen empírico a partir del examen univariable Z fue utilizada para determinar la probabilidad de que una empresa perteneciera al grupo de "quiebras" o al grupo de "sin quiebras". Utilizando este método la tasa de error de clasificación para la muestra original fue del 3%, 4.5%, 17% y 21% respectivamente para cada uno de los 5 años previos a la quiebra. Cuando desarrolló una muestra de validación (“validación-cross”) a 11 empresas quebradas y 23 empresas sin quiebra, la tasa de error se incrementó a 22%, 6%, 12%, 23% y 15% respectivamente. Deakin no pudo explicar el severo deterioro en el primer año previo a la quiebra de la empresa, aunque le pareció lógico que se empeoraran los resultados cuando se aplica un estadístico a muestras diferentes (la de estimación y la de validación). Los resultados de su análisis multivariable le indicaron que las funciones discriminantes tuvieron menos errores en el primer año previo al evento, pero posteriormente aumentaron a partir del tercer año. Esto se debía en parte al gran número de variables independientes utilizadas dentro de la función (14 ratios). Sus resultados coincidieron con los de Beaver en cuanto al ratio de cash flow / deuda total que obtuvo la mayor exactitud de clasificación, y cuyos porcentajes fueron altos, incluso hasta 5 años antes de la quiebra (80 %, 84 %, 72 %, 78%, 78%). También los ratios de resultado neto / activo total y deuda total / activo total, dieron excelentes resultados. Lo anterior se debió a la mayor dificultad para aplicar el efecto window dressing en elementos tales como el cash flow, resultado neto y la posición de endeudamientos. En cambio, los ratios tradicionales de liquidez mostraron poca capacidad predictiva por la mayor facilidad para su “maquillaje”. Como se recordará esta observación ya había sido hecha por Beaver. Para Deakin aparentemente las empresas que quebraron tendían a expanderse rápidamente en el tercero y cuarto año previo al evento. Según él, esto se debía a que la expansión de la estructura de capital se financiaba a través del aumento más intenso de los pasivos y las acciones preferentes con respecto al aumento de los beneficios retenidos y las acciones comunes; por tanto, los fondos se invierten más intensamente en planta y equipo (activos fijos) con respecto a como se hacía con los activos líquidos (activos circulantes). Luego, estas empresas no eran capaces de aumentar sus ventas y beneficios a tal grado para cubrir sus pasivos, perdiendo sus activos normalmente a partir del tercer año previo al fracaso. Con respecto a esto, Deakin subrayó que el anterior fenómeno no fue apreciado en el estudio pionero de Beaver, pues las empresas de su muestra presentaban como característica principal: su incapacidad para generar ventas e ingresos netos que cubrieran sus deudas (sobre todo en el tercer año previo a la quiebra). De ahí, que a partir de los tres años previos a la quiebra, se marcara la diferencia entre la capacidad predictiva del ratio cash flow / ventas . Sin embargo, para él, los otros ratios tendían a ser consistentes. ___________________________________________________Capítulo 2: Antecedentes Históricos 63 Deakin también consideró que el cambio de estrategia sobre la estructura de capital se vio seriamente influenciada por los factores externos. Como ejemplo, apuntaba que en la década de los sesenta, las empresas de los Estados Unidos tendieron a invertir más sus reservas en efectivo porque los porcentajes de los intereses eran muy altos. Esto originó que el ratio cash flow / ventas se viera afectado seriamente en muchas empresas. Al analizar el ratio capital de trabajo / activos totales (cinco años previos a la quiebra) observó que obtuvo el valor más alto del vector (1.163). Esto le indicó que dicho ratio contribuyó de forma importante para obtener la capacidad discriminatoria de la función. En cambio, el ratio de activos circulantes / pasivos circulantes contribuyó muy poco, pues sólo tuvo una contribución del 0.036. Para Deakin los anteriores resultados contradecían la teoría de la liquidez, la cual sostenía que el último ratio tenía que ser de los mejores (aunque matizó que había también que considerar que existe un porcentaje de errores de clasificación). Desde un punto de vista estadístico, Deakin apuntó que la significancia de cada una de las funciones discriminantes se podía medir utilizando la “Wilks´ Lambda”. Este estadístico lo utilizó para contrastar la hipótesis. También indicó que la “Wilks´ Lambda” podía ser convertida a una “F-Value”, la cual se podía utilizar posteriormente para indicar la probabilidad de una separación significativa entre las “ZScores” de las empresas quebradas y las no quebradas. Con respecto a las bases de datos, consideró que éstas no fueron suficientes para determinar si las diferencias en los porcentajes de error eran significativas. Deakin concluyó que los modelos predictivos podían ser desarrollados muy bien “ex post”; sin embargo, opinaba que “hay problemas para aplicar el modelo en situaciones prácticas” porque en primer lugar: un portafolio de inversiones crediticias está compuesto de muchas firmas que tienen experiencia de por lo menos un año hasta un número infinito de años en el futuro. Para él y desde un punto de vista “ex ante”, la función del modelo sólo podía aplicarse para obtener el estado de la empresa que quebraría dentro de un año en el futuro (p.176). Al igual que otros estudios, los errores de clasificación se incrementaron al pasar los años previos a la quiebra, aunque estos no se presentaron como lineales. El segundo problema que Deakin observó en su modelo fue que el análisis discriminante no pudo derivar de una función discriminante de poblaciones en donde una empresa podía posiblemente pertenecer a través del tiempo a más de un grupo; pues por ejemplo, una firma podía estar potencialmente fracasada en un punto del tiempo y posteriormente ser capaz de revertir esa tendencia antes de que la quiebra ocurriera. De acuerdo al desarrollo de su modelo, Deakin consideró que el trabajo de Altman, aunque presentaba una correcta metodología estadística a través del análisis discriminante, dudaba en cambio sobre la selección de las variables independientes y de ahí que intentara mejorar este aspecto. Para este autor los ratios que median los “aspectos permanentes” de la empresa y en donde es más difícil aplicar el efecto window dressing, eran los que determinan los indicadores más importantes para advertir sobre el fracaso empresarial. Por eso, en los modelos predictivos, los ratios que medían los “aspectos temporales” y eran más manipulables (como la liquidez) tendían a perder importancia dentro del modelo. Por otra parte, opinaba que un número elevado de ratios al incluirse en la función, aumentaba significativamente los costes de su aplicación, además que hacía más compleja la explicación objetiva de las causas de la quiebra a través del modelo. En 1977 Deakin volvió a intentar mejorar su modelo llamando de forma especial nuestra atención en el aspecto metodológico, y muy concretamente sobre su interés por definir mejor a la variable dependiente para llegar a mejores resultados. ___________________________________________________Capítulo 2: Antecedentes Históricos 64 Para esta nueva investigación Deakin consideró 1780 empresas del “Compustat” y redujo las 30 variables de Beaver a 14. Posteriormente, Libby a través del análisis factorial, redujo las 14 variables de Deakin a 5. Y por último, para el replanteamiento de su modelo, Deakin utilizó las 5 variables que Libby había obtenido. Al seleccionar a las 1780 empresas y aplicarles las 5 variables independientes, obtuvo la siguiente clasificación: 1317 empresas no fracasadas, 250 empresas con fracaso seguro y 173 empresas que cayeron en la zona gris de ignorancia. Deakin consideró que en este trabajo, la interpretación de los resultados dependería principalmente de la definición que propusiera para la variable dependiente y de la utilización de un período de tiempo posterior (“ex-ante”). De esta forma llevó a cabo un análisis de la submuestra de las empresas fracasadas y de su posible efecto dadas sus distintas definiciones. En la muestra de estimación definió al fracaso como: “quiebra legal”, “liquidación” y “reorganización”. A partir de esto sólo obtuvo una baja capacidad de predicción del 6.2 %, es decir, 18 de 290 empresas se clasificaron en alguno de los fenómenos durante un período de tres años. Posteriormente, amplió la definición de la variable dependiente incluyendo también para la definición del fracaso a los siguientes términos: “empresas fusionadas supuestamente por motivos de ineficiencia” y “empresas que no pagaron dividendos preferentes a tiempo”. Esta vez su modelo aumentó “la exactitud predictiva” hasta un 77.2 % (224 empresas). Por último, Deakin analizó 72 empresas que quebraron entre 1972-1974, utilizando sólo datos de dos años previos al evento. Su exactitud de predicción fue de 39 empresas bien clasificadas, una empresa mal clasificada y 7 empresas mal clasificadas en la zona gris. Al respecto, Lizarraga opina que no puede admitirse la aplicación de un modelo bajo una definición distinta de la que sirvió para su estimación, y al preguntarse como es posible tanta diferencia entre los resultados de las últimas dos pruebas, afirma que en gran parte se debe a la diferencia que se da al aplicar un modelo “a priori” o “ex-ante” (sin conocer la situación real futura de la empresa que es el primer caso), y aplicar un modelo “a posteriori” o “ex-post” (que constituye el segundo caso, cuando se conoce la situación real de la empresa y en donde los resultados son mucho mejores. (p.122). 2.4.4. MODELO EDMISTER (1972). Robert Edmister elaboró su tesis doctoral en la Universidad de Purdue y la Universidad Estatal de Ohio en 1970, y dos años después publicó un artículo sobre su trabajo empírico que trataba sobre el desarrollo de un número de métodos de análisis financieros basados en ratios para las pequeñas empresas, partiendo de la idea de que no todos los métodos ni todos los ratios pueden ser predictores de quiebras. Partiendo de los fundamentos de Beaver (1966), en cuanto a la importancia estadística para predecir una quiebra, realizó un análisis multivariable aplicando el MDA para tratar de predecir el fracaso empresarial sólo en las pequeñas empresas, ya que los estudios realizados hasta antes de 1972 en este campo, únicamente se habían enfocado a empresas de tamaño mediano y grande (Beaver, 1966; Altman, 1968; y Deakin, 1972). Para Edmister los estudios anteriores le indicaban que se podían realizar combinaciones con pocos ratios con el objetivo de construir una función discriminante con alto grado de exactitud, siempre y cuando se aplicase en bases de datos similares que hubieran sido utilizadas para determinar la función. Por otra parte, consideraba que algunos ratios son mejores predictores que otros, aunque aclaró que en ___________________________________________________Capítulo 2: Antecedentes Históricos 65 ciertos casos no siempre los mismos ratios son los mejores predictores para todos los estudios. Para él, esto le indicaba que la función discriminante podía aplicarse exactamente igual sólo en situaciones muy similares bajo las que se genera dicha función. Con base en lo anterior su estudio lo enfocó únicamente a las pequeñas empresas por lo que advirtió que su función sería sólo de importancia para el análisis de este tipo de empresas. Con esto se volvía a insistir en que los modelos predictivos presentan problemas de sesgos muestrales, validaciones alternativas de los resultados y problemas de comprobación de la estabilidad en las relaciones establecidas en el modelo. Edmister siguiendo a Beaver, sugirió que era importante que se incluyera en la base de datos el estado de flujos de fondos. Sin embargo, en esa época, tanto Beaver, Edmister como otros muchos investigadores, consideraban este concepto tan complejo como la simple suma de los beneficios netos más las amortizaciones, depreciaciones y provisiones 8. Para su base de datos utilizó estados financieros de la “Small Business Administration” que fueron proporcionados por “Robert Morris Associates”, con una unidad temporal de tres años previos a la quiebra y considerando como unidad temporal el período 1954-1969. Estos datos pertenecían a una muestra de 21 "recipientes" de pequeñas empresas que eventualmente habían “quebrado” y 21 "recipientes" de empresas pequeñas que no estaban en quiebra. La anterior información tenía la característica de ser poco confiable dada la falta de obligación para llevar a cabo auditorías a los estados financieros en las empresas pequeñas, lo que presuponía desde el inicio serias reservas en cuanto a los resultados que se obtendrían. Al considerar esto, Edmister optó por no entrar en el análisis de cuestiones metodológicas, explicaciones semánticas sobre el fracaso como variable dependiente o en la problemática de la selección de la muestra, y concentró sus esfuerzos en los resultados del modelo. Sin embargo, con relación a la muestra advirtió que ante la tendencia9 y las inestabilidades de algunos parámetros de las muestras, era importante reflejar ambos fenómenos en las variables independientes, transformándolas de continuas a dicotómicas. Esto lo llevó a cabo estimando los coeficientes del modelo a través de una regresión. De esta forma Edmister combinó los niveles de los ratios con sus tendencias a través de la dicotomización de las variables independientes. Para su investigación entendió simplemente que el “éxito empresarial” era para aquellas empresas que no tenía pérdidas. En cambio el “fracaso empresarial” se daba en aquellas que reportaban pérdidas. Pero en el caso del sector que él analizaba (empresas financieras para sus decisiones de crédito) consideró que el fracaso de una empresa se presentaba por el simple incumplimiento para devolver un préstamo a su vencimiento10. Para el desarrolló de su investigación Edmister se basó en cuatro hipótesis que fueron las siguientes: 8 Como sabemos, actualmente el estado de flujos de fondos o cuadro de financiamiento no incluye ni siquiera tal concepto, pues en su lugar se utilizan los recursos procedentes de las operaciones o el capital circulante operativo. 9 La tendencia la entendió como la relación perceptible y fuerte entre una variable y el tiempo. 10 Edmister, al igual que todos sus contemporáneos y muchos otros que aún sostienen el antiguo paradigma del éxito empresarial, no consideraron que el éxito no sólo se da cuando no se registran pérdidas y ni siquiera se considera cuando se obtienen beneficios. Actualmente desde el nuevo concepto financiero, de la productividad y de la eficiencia, el éxito empresarial sólo se obtendrá cuando se llega a maximizar los beneficios y minimizar los costes y gastos, sin perder el nivel de la calidad y la cantidad del producto o servicio. ___________________________________________________Capítulo 2: Antecedentes Históricos 66 La H 1 establecía que el nivel del ratio representa poder predictivo para una quiebra en las pequeñas empresas, sin importar el sector o el país en donde se ubique la firma. La H2 se basó en que la tendencia experimentada por el ratio durante tres años consecutivos, representa un poder predictivo de quiebra para las empresas pequeñas. Para él, generalmente la tendencia se definía estadísticamente como la relación significativa entre la variable dependiente y el tiempo. Además, hizo una interesante observación que se refería a que la tendencia podía ser entendida de muchas maneras. Por ejemplo, decía, si tenemos una tendencia en los últimos tres años de 2/1, 3/1 y 4/1; la tendencia está obviamente definida. Sin embargo, si la tendencia fuera de 2/1, 4/1 y 3/1; se puede inferir que no existe dicha tendencia. A partir de esto consideró que se podía crear una variable ficticia (“dummy”) con tendencia creciente (“up-trend”) cuyo valor sería “1” al incrementarse y “0” al disminuir. Por otra parte, también se podían crear variables ficticias con tendencia decreciente (“down-trend”), en donde el valor sería “1” al disminuir y “0” al incrementarse la tendencia. La H 3 establecía que el promedio “tri-anual” de un ratio es un predictor de quiebra para las empresas pequeñas y éste es más efectivo con respecto a sólo un promedio anual. La H 4 estableció que la combinación entre la tendencia relativa y el nivel relativo de la industria para cada ratio, era un predictor de quiebras para los pequeños negocios. Según Edmister esta hipótesis nunca antes había sido utilizada. Con respecto a los métodos seleccionados para el análisis de las variables independientes, Edmister observó que el poder predictivo de los ratios parecía depender de la selección de los métodos de análisis, así como de la selección de los ratios. A partir de esto sugirió una técnica que consistió en dividir el ratio entre su respectivo promedio industrial. De esta forma, cinco de las siete variables fueron divididas entre su promedio. Edmister consideraba que el poder predictivo de los ratios era acumulativo dado que un ratio individual no predecía tan bien como un pequeño grupo de estos. Además, algunos ratios no le indicaron buenas predicciones por sí mismos, pues estos sólo incrementaron su capacidad discriminatoria cuando se sumaron a una función. Sin embargo, cuando los ratios se adicionaban sin considerar el análisis de los otros ratios ya incluidos en la función, el poder predictivo real del análisis no se incrementaba. Esto se debía al efecto ilusorio de la multicolinealidad que había sido ya evidente en varias investigaciones con muestras “uni-anuales”. Este investigador pareció entender que, tanto en la práctica como en la teoría, la fiabilidad de las funciones se conformaba mejor sobre un conjunto de predictores o variables independientes. Así, la tendencia de los ratios era muy similar al contenido de su información y por eso había que tener mucho cuidado para seleccionar un grupo que fuera lo más diverso posible, ya que este dominio de la información tenía una implicación muy importante para el análisis del ratio. Para él, las máximas ventajas se obtenían al seleccionar un ratio para cada una de las diferentes características. Anteriores investigaciones le habían confirmado que un reducido número de ratios seleccionados cuidadosamente eran más útiles en comparación con la utilización de un gran número de ratios sin ningún previo y riguroso método de selección. Como variables independientes seleccionó 19 ratios considerando dos criterios que fueron: a) Por su popularidad, y b) Con base en sus resultados positivos en investigaciones anteriores (a excepción del ratio de Margen de Operación Neto). Posteriormente, utilizó los ratios más significativos de previos estudios y también consideró el valor del ratio en relación al porcentaje de la industria (estándares). Los ratios fueron convertidos a variables dicotómicas para compararlos con el valor individual del ratio para los cuartiles de la industria: si el valor individual del ratio era menor que el cuartíl más bajo para la ___________________________________________________Capítulo 2: Antecedentes Históricos 67 industria se le designaba el valor de "1", por el contrario, si este era mayor se le designaba el valor de "0". ___________________________________________________Capítulo 2: Antecedentes Históricos 68 CUADRO 2.16. RATIOS UTILIZADOS POR EDMISTER NOMBRE DEL RATIO Ratio de Liquidez Ratio de Circulante Ratio de Inventarios / Capital de Trabajo Neto Capital Circulante / Activo Total Activo Circulante / Pasivo Circulante Ratio Activo Líquido a Pasivo Circulante Ratio de Retorno de Capital o Intervalo sin Crédito** (Capital de trabajo / Pasivo Total) * Cash flow = Beneficio Neto + Amortizaciones. COMPONENTES No específica No específica -------------------------[Activo Circulante – Existencias] – Pasivo Circulante / [Gastos de Explotación – Amortizaciones y Provisiones] ** Este ratio mide el volumen de ventas o facturación de la empresa y es un indicador del número de días que los activos defensivos (disponible + realizable) son capaces de hacer frente a las salidas de tesorería provocadas por los gastos de explotación sin ningún tipo de ayudas adicionales. RATIOS ORIGINALES SELECCIONADOS 1. Liquidez 11. Inventarios / Ventas 2. Circulante 12. Activo Fijo / Ventas 3. Inventarios / Capital de Trabajo Neto 13. Activo Total / Ventas 4. Capital de Trabajo Neto / Activo Total 14. Capital de Trabajo Neto / Ventas 5. Activo Circulante / Pasivo Total 15. Capital Contable / Ventas 6. Pasivo Total / Capital Contable 16. Beneficios antes de Impuestos / Ventas 7. Activos Fijos / Capital Contable 17. Beneficios antes de Impuestos / Activo Total 8. Cash flow / Pasivo Circulante 18. Beneficios antes de Impuestos / Capital Contable 9. Pasivo Circulante / Capital Contable 19. Beneficios antes de Impuestos / Pasivo Total 10. Capital Contable + Pasivo Fijo / Activo Total Fuente: Edmister (1972). Al aplicar el MDA “Stepwise”, Edmister obtuvo la siguiente función lineal discriminante con siete variables independientes. CUADRO 2.17. FUNCIÓN LINEAL DE EDMISTER Z = .951 - 423X 1 (-4.24**) - .293X2 (-2.82**) - .482X3 (-4.51**) + .277X4 (2.61*) - .452X5 (-2.60) - .352X6 (-1.68) - .924X7 (-7.11*) Donde: Z= X1= X2= X3= X4= X5= X6= X7= Indicador global o sintético (overall index) Flujo de fondos anuales/pasivo circulante. Capital Social / Ventas. Capital de trabajo neto / ventas (promedio industrial). Pasivo circulante / Capital Social (promedio industrial). Inventarios / Ventas (promedio industrial*) Habilidad del ratio / (promedio industrial**) Habilidad del ratio / promedio industrial. * Variable de interacción: El ratio debe ser menor que el cuartil más bajo de la industria y exhibir un “upward” de tres años de tendencia. ** Variable de interacción: El ratio debe ser menor que el cuartil más bajo de la industria y exhibir un “downward” de tres años de tendencia. R2 =.74 F-ratio= 14.02 Niveles de Significancia: * = .05 ** = .01 Z = 1 para empresas con éxito (sin pérdidas) Z = 0 para empresas con fracaso (con pérdidas) Fuente: Edmister (1972). ___________________________________________________Capítulo 2: Antecedentes Históricos 69 Con respecto a las variables independientes finales, Edmister las definió de la siguiente manera: X1 = Flujo de Fondos Anuales / Pasivo Circulante. Edmister entendió al flujo de fondos como los beneficios netos antes de impuestos más la depreciación. X2 = Capital Contable / Ventas. Este ratio dividido entre el respectivo ratio estandarizado de “Robert Morris Associates” (RMA) indicaba que si X2 = 1 entonces era menor que .07; y si X2 = 0, entonces era mayor que .07; Según Edmister, la quiebra estaba más cerca cuando las empresas presentaban una base de capital contable más pequeña para sus ventas, con independencia de su clasificación industrial. X3 = Capital de Trabajo / Ventas. Aquí la X3 = 1 si era menor que .02; y X3 = 0 si era mayor que .02 . X4 = Pasivo Circulante / Capital Contable. Este ratio dividido entre su respectivo ratio de RMA indicaba que: X 4 = 1 si era menor que .48; y X 4 = 0 si era mayor que .48. Esto le confirmaba que un pasivo bajo con respecto al capital contable reducía la probabilidad de quiebra. X5 = Inventarios / Ventas. Este ratio dividido entre su respectivo ratio estandarizado de RMA indicaba que un prestamista muy endeudado y con una rotación de inventarios baja en los promedios industriales de “Robert Morris Associates”, tenía un alto potencial de fracaso. X6 = Ratio de Circulante. Aquí X6 = 1 si era menor que .34; y X6 = 0, si era mayor que .34. Este ratio dividido entre su respectivo ratio de RMA, indicó sólo en dos casos la característica de que su disminución lleva a la quiebra. Resultados con Z-Scores por debajo de .47 fueron obtenidos sólo para empresas en quiebra. En cambio Z-Scores sobre .53 fueron obtenidas sólo para empresas sin quiebra. La zona gris, similar a la zona de ignorancia de Altman, la determinó entre .47 y .53. Tanto las empresas en quiebra como las empresas sin quiebra exhibieron Z-Scores sin esta zona gris. Los análisis de la zona gris indicaron un punto de corte de .52; representando esto la mejor exactitud de clasificación global que fue del 93% Sus resultados le indicaron que la certeza de los ratios individuales o de pequeños grupos de ratios fueron efectivos para predecir quiebras. Edmister notó que estudios previos podían no coincidir sobre un conjunto común de ratios. Esto le sugirió que las funciones discriminantes pueden únicamente ser aplicadas relativamente a situaciones similares para aquellas de las cuales la función fue desarrollada, y por consiguiente, los resultados de estudios previos no pueden ser generalizados para pequeñas empresas en lo que se refiere a la predicción de la quiebra. Para Edmister el MDA le proporcionó en su estudio un medio de selección para un conjunto óptimo de ratios y métodos. También le permitió asignar las ponderaciones o “pesos óptimos” de cada uno de los coeficientes dentro de la función lineal. Aunque este método no lo consideraba el más exacto, era sin embargo una técnica más eficiente para su modelo con respecto a aquellos procesos subjetivos que en ese tiempo se practicaban. Utilizando el MDA Stepwise encontró que sus métodos de análisis fueron útiles para los siguientes aspectos: 1. La clasificación de los ratios de endeudamiento dentro de cuartiles relativos a otros deudores de la muestra. Para él la clasificación de las distribuciones de los ratios por cuartiles podía ser importante para la interpretación de los resultados. 2. Le permitía observar la tendencia (a la baja y a la alta) durante un período de tres años. ___________________________________________________Capítulo 2: Antecedentes Históricos 70 3. Podía llevar a cabo un análisis combinatorio de la tendencia de los ratios y de sus niveles más recientes. 4. Podía calcular el promedio “tri-anual”, ya que consideraba que para poder desarrollar funciones discriminantes con alto poder predictivo, las bases de datos deberían ser superiores a un año. 5. Era posible dividir los ratios entre sus correspondientes promedios industriales. En este caso consideró los promedios de “Robert Morris Associaties”, ya que la división de los valores de los ratios entre los valores medios del sector industrial le ayudaron a compensar el efecto inevitable de la heterogeneidad poblacional. Su función discriminante le demostró una alta capacidad de discriminación, al igual que aquellas funciones aplicadas a las grandes empresas como las de Altman, Beaver y Blum. La exactitud de la función lineal discriminó correctamente 39 de los 42 casos. Esto significó alcanzar un porcentaje del 93% de exactitud predictiva. Z-Scores menores de .520 indicaban “predicción de quiebra”; en cambio Z-Scores mayores de .520 indicaban “predicción de no quiebra”. Otros indicadores interesantes que obtuvo Edmister fueron los que se muestran en el siguiente cuadro: CUADRO 2.18. Z-scores Quiebra Arriba de .469 .470 a .519 .520 a .529 .530 en adelante Fuente: Edmister (1972). Exactitud Predictiva No Quiebra 100% 95% 95% 86% 80 % 85% 90% 100% El estudio de Edmister confirmó los descubrimientos de Altman: de que un grupo pequeño de ratios tienen mejor precisión o exactitud de predicción que cualquier ratio único. Edmister también concluyó que estandarizando los ratios a través de su división por promedios industriales, y posteriormente convirtiéndolos de variables continúas a variables dicotómicas, sumaban significancía al modelo. En cuanto al análisis del ratio, sugirió que podía ser descrito en términos de las presentes condiciones y de futuros eventos. En cuanto a los algoritmos, éstos se presentaron altamente complejos en su trabajo. Consideró que cada ratio es un método analítico óptimo al promediarse o dividirse entre su estándar industrial. El MDA que utilizó para derivar la función discriminante intentó clasificar a las empresas como empresas en quiebra y empresas sin quiebra, y el procedimiento de selección fue utilizado para limitar la multicolianilidad. Este procedimiento excluyó cualquier variable del modelo si el coeficiente de correlación de una variable excedía el .31. Este indicador fue producto de la regresión por etapas “Stepwise”, la cual consistió en eliminar del modelo ratios con correlaciones superiores a un número previamente definido. Aquí el problema ha radicado en establecer el límite de forma objetiva a través de los modelos estadísticos. De cualquier forma, lo que buscó Edmister fue mantener el poder predictivo de los ratios a través del tiempo, pues como ya se apuntó, consideraba que dicho poder era acumulativo siempre y cuando se estimaran las funciones discriminantes con variables independientes que tuvieran poca multicolianilidad. ___________________________________________________Capítulo 2: Antecedentes Históricos 71 En general los resultados de su estudio fueron mixtos: la exactitud de la función discriminante basada sobre datos de un año previo a la quiebra no pudo determinarla. La validación de la prueba de las funciones resultó en una capacidad de predicción pobre y los mejores resultados que obtuvo fueron con la base de datos de tres años previos a la quiebra. Edmister concluyó su investigación con una idea muy interesante acerca del problema potencial que se da con la técnica de ratios, afirmaba que, a través de esta técnica las relaciones suelen ser complejas, pues por ejemplo, si una relación es de –1:2 y otra es de 1:-2; en ambos casos las relaciones serán equivalentes computacionalmente, pues darán como resultado una proporción de -.5:1 y esto por supuesto que tiene un significado totalmente diferente, aunque rara vez se presentan estas magnitudes en la práctica. 2.4.5. MODELO BLUM (1974). En 1969 Marc Blum presentó su tesis doctoral en la Universidad de Columbia bajo el título de: “The Failing Company Doctrine”. Posteriormente editó dos artículos, contando con la colaboración de la firma de abogados “Gorden, Feinblatt y Asociados de Baltimore”. El nuevo enfoque de su trabajo sobre la condición de la quiebra le fue sugerido en 1967 por E. Zimmerman quien trabajaba como: “Assistent Atturney General, Antitrust Division” del Departamento de Justicia de los Estados Unidos de Norteamérica. En su artículo de 1974 incluyó los resultados de un análisis discriminante con el que construyó un modelo que denominó: “Failin Company Model”, con la intención de que sirviera a los usuarios como una guía ante la quiebra. Partió de la idea de que las fusiones de los competidores, y en especial cuando dos empresas se fusionan y una de ellas está en quiebra y la otra lo desconoce, además de que se violaban las leyes “antitrust” atentaban contra la doctrina empresarial de las quiebras. Su estudio continuó con la evolución de los estudios multivariables, incluyendo variables para medir el cambio dentro de los ratios a través del tiempo y la variabilidad de los datos contables. También analizó la capacidad de predicción de “datos contables en bruto” (cantidades absolutas) e investigó los efectos de la incorporación de un rango de años dentro de los datos del modelo en lugar de sólo un único año. Sus resultados le indicaron que los modelos basados sobre datos en bruto tienen una mayor precisión de predicción a través de los años previos a la quiebra con respecto a los modelos basados en ratios, sin embargo, Blum no supo dar respuesta de tal fenómeno. Blum también realizó una investigación que consistió en la construcción de un modelo sin ratios financieros. Para ello descompuso cinco de las nueve variables independientes que había utilizado en otro estudio, obteniendo ocho numeradores y denominadores que combinó con cuatro “variables no ratios”. Los resultados durante el primer año previo a la quiebra no fueron tan exactos como en su anterior modelo, lo cual le llevó a la conclusión de que este modelo no era un discriminador eficiente. Con respecto a la variable dependiente, Blum notó que existía una ambigüedad y falta de precisión para aplicar el concepto de quiebra. Observó que el criterio legal definía al fracaso como: “una grave probabilidad de quiebra”. A partir de esto consideró importante definir mejor a la variable dependiente. Llegó a la conclusión de que el fracaso se podía definir como: “el momento en que la empresa entra en un procedimiento concursal para declarar la quiebra” o “cuando se da un acuerdo explícito con los acreedores, los cuales otorgan una quita sobre sus pasivos”. También consideró la posibilidad de que las empresas fracasadas eran aquellas que tenían incapacidad para pagar sus deudas, debido a la entrada en un procedimiento de quiebra o aquellas empresas que son insolventes y llegan a un acuerdo con sus acreedores para reducir sus pasivos. En su estudio el 90% de las empresas había llevado a cabo su ___________________________________________________Capítulo 2: Antecedentes Históricos 72 solicitud de quiebra bajo el “Acta Federal de Quiebras” y el 10% restante de las empresas ya estaba en estado de liquidación. A diferencia de otras investigaciones, Blum puso especial interés en definir a la variable dependiente al comprobar el problema que tenía el Departamento de Justicia de los Estados Unidos con respecto al concepto de fracaso. Esto era muy importante ya que a partir de esta definición se podía o no autorizar una fusión. En aquellos momentos este departamento tenía serios problemas doctrinales para determinar el momento en el cual una empresa podía estar en camino del fracaso, a pesar de que se contemplaban tres supuestos que eran: “la incapacidad para el pago de las deudas vencidas”, “la solicitud de quiebra” y “el acuerdo extrajudicial con acreedores para obtener quitas”. Otro aspecto interesante de este estudio y que se derivaba del objeto y enfoque de la investigación era que, partiendo del principio de que las fusiones se autorizaban principalmente entre empresas que estaban sanas con empresas que estaban en camino del fracaso, la Ley Antitrust consideraba más grave autorizar una fusión entre empresas sanas, que dejar quebrar realmente a una empresa en la que no tuviera la certeza de que estaba en proceso de quiebra. Esto marcaba el precedente de que no siempre el error tipo I tenía mayores costes con respecto al error tipo II, lo cual aunque era muy poco usual, era posible que se presentara. Blum al desarrollar su modelo se basó en datos contables y datos del mercado financiero. Para la base de datos consideró como unidad temporal hasta ocho años previos a la quiebra, aunque aclaró que el período óptimo para el análisis de las empresas en quiebra era de cinco años. Blum destacaba la importancia de las bases de datos al afirmar que una teoría sobre los síntomas de la quiebra se debería enfocar a como es el comportamiento de las variables económicas básicas, las cuales debían ser un reflejo de los estados financieros, ya que los productos del sistema contable son siempre sustituidos porque éstos son únicamente útiles si representan los principales eventos económicos de una empresa. La teoría para Blum debía considerar las limitaciones inherentes de los datos contables que se expresan en los estados financieros. También sugirió algunos lineamientos para implementar un sistema de cash flow pues consideraba que: “la empresa era un depósito de recursos financieros”, y por lo tanto, la probabilidad de la quiebra estaba determinada de acuerdo a las expectativas de los flujos que generaban esos recursos. A partir de esto concluyó que aquellas empresas que estaban más cerca de la quiebra eran las que presentaban los siguientes síntomas: * Pequeños depósitos (ya que las empresas con grandes depósitos están mejor situadas ante la incertidumbre). * Bajos niveles de inflows provenientes de operaciones normales, tanto a corto como a largo plazo. * Numerosas reclamaciones de recursos por parte de los acreedores. * Altos niveles de outflows operativos. * Mayor variabilidad de las ganancias y de las reclamaciones de los recursos. * Mayor riesgo de fracaso del sector donde se ubicaba la empresa. Los ocho años de bases de datos contables fueron desarrolladas en 21 modelos. Cada modelo contenía de tres a ocho años de datos. Este estudio mostró un avance con respecto a otros métodos previos para predecir quiebras con un período superior a un año previo a la quiebra. Blum criticó a previos estudios que utilizaron datos de sólo un año previo a la quiebra para desarrollar el modelo. La capacidad de predicción del modelo de Blum fue experimentada mediante la utilización del análisis discriminante. Los resultados de este estudio confirmaron una vez más los descubrimientos de previos estudios: la ___________________________________________________Capítulo 2: Antecedentes Históricos 73 exactitud de las clasificaciones es mejor un año previo a la quiebra y va declinando dicha exactitud conforme se incrementa el número de años previos a la quiebra. Su base de datos consistió en balances generales, estados de resultados y precios de mercado durante un período de tres años. Para él las empresas pequeñas no tenían ninguna relevancia en sus estudios, pues éstos se basaban en el sistema antitrust para grandes empresas. Su muestra se compuso de 115 empresas industriales que quebraron durante el período 1954-1968 y cuyos pasivos fueron superiores al millón de dólares. Esta submuestra la emparejó con otra de 115 empresas sanas considerando los siguientes cuatro criterios: 1. La clasificación industrial de las empresas. 2. Considerando las ventas dentro del cuarto año previo a la quiebra. 3. El número de empleados. 4. El año fiscal del cierre contable. Blum consideró que las variables independientes tenían que tener un marco teórico, pues sin éste no había razón para esperar una relación significativa con el evento a predecir. Para estructurar ese marco teórico dirigido a la selección de las variables y que fuera generalizable, nuevamente se basó en la idea de “la empresa como un depósito de recursos financieros” y que la descripción de su probabilidad de fracaso debía ser con base a los flujos de entrada y salida esperados para dichos recursos. Para las variables independientes fueron seleccionados doce ratios para medir: los flujos de liquidez, los flujos de posición, la probabilidad, y la variabilidad dentro del modelo. De particular interés resultaron las medidas de variabilidad que introdujo por primera vez para los ingresos netos; activos rápidos y los inventarios en un período de tiempo dado. Para su modelo final redujo los ratios a diez, los cuales fueron los más representativos para los tres factores previamente determinados que se muestran en el cuadro 2.19. Con las anteriores variables desarrolló varias funciones discriminantes obteniendo una exactitud predictiva de un 90% hasta un 95% para el primer año previo a la quiebra; 80% para el segundo año y un 70% para el tercer año. Todos estos resultados fueron contrastados con una muestra de validación que consideró el problema de la correlación. Blum observó que el coeficiente discriminante estandarizado del ratio de cash flow / pasivo total (en donde el cash flow estaba compuesto por los ingresos netos más depreciación) parecía ser la variable mas significativa en los 21 modelos desarrollados para distinguir entre una empresa en quiebra y una empresa sin quiebra. Este resultado fue consistente con los resultados de Beaver (1966). El componente de la deuda total se comportó con mayores aumentos en las empresas sanas con respecto a las fracasadas. Esto le hizo sugerir que la deuda se utilizaba para financiar el crecimiento en las empresas con éxito (apalancamiento financiero). En cambió, los inventarios disminuyeron en las empresas con crisis, lo que le demostró que las empresas que quebraron no fue por un exceso de inventarios acumulados como se creía tradicionalmente. La relación de activos rápidos netos / inventarios, le mostraron la segunda significancia más alta en el primer y segundo año previo a la quiebra. ___________________________________________________Capítulo 2: Antecedentes Históricos 74 CUADRO 2.19. FACTORES Y VARIABLES INDEPENDIENTES DE BLUM FACTOR RATIO A. LIQUIDEZ A CORTO PLAZO Flujos: 1. Ratio de Flujos Rápidos (“Quick Flow Ratio”)A Posición: 2. Activo Neto RealizableB / Inventarios LIQUIDEZ B. LIQUIDEZ A LARGO PLAZO Flujos: 3. Cash flow / Pasivo Total Posición: 4. Capital Contable a su Valor de Mercado / Pasivo Total 5. Capital Contable a su Valor en Libros / Pasivo Total 6. Ratio de Rentabilidad 1. Desviación estándar de los Ingresos Netos de un Período 2. Tendencia de los Ingresos Netos 3. Pendiente (“slope”) de los Ingresos Netos 10-12 Desviación Estándar, Tendencia y Pendiente de los ratios: Activo Neto Realizable / Inventarios. * Las variables 10, 11 y 12 únicamente se utilizaron durante el 1º y 2º año previo a la quiebra. RENTABILIDAD VARIAVILIDAD A Tesorería + Cuentas por Cobrar + Valores Mobiliarios y Transferibles + (Ventas Anuales/ 12) + (Coste de Ventas – Gastos de Depreciación + Gastos de Venta + Gastos de Administración + Intereses) /12 B También conocido como Activo Neto Circulante sin contar las existencias en el almacén (“Net Quit Asset) Fuente: Blum (1974) La exactitud de la clasificación de un año previo a la quiebra se incrementó del 64% al 95% dependiendo del número de años de las bases de datos utilizadas dentro del desarrollo del modelo. Esta conclusión discrepó con otras que afirmaban que no necesariamente una base de datos con más número de años incrementa la capacidad predictiva del modelo, pues eran los últimos años los que contienen los aspectos más esenciales para determinar el posible comportamiento futuro de la empresa. Sin embargo, en el estudio de Blum la tasa más alta de exactitud ocurrió cuando 4, 5 o 6 años de datos fueron utilizados, incluyendo los datos del séptimo y octavo año previo a la quiebra. Para Blum las variables más importantes fueron las ganancias y las reclamaciones sobre esas ganancias, lo que Beaver ya había denominado: “la teoría del depósito de liquidez”. A Blum ambas variables le indicaron outflows importantes que mantenían las operaciones actuales y el cumplimiento de las obligaciones de la empresa. Al basarse en esta idea estructuró su modelo con base en tres denominadores o factores comunes basados en un sistema de cash flow, que fueron: la liquidez, la rentabilidad y la variabilidad. Para la medición del volumen de las ventas este autor tomó como criterio los últimos cuatro años previos a la quiebra, siendo el cuarto año el que registró los cambios más dramáticos. En su modelo la exactitud de las clasificaciones fue el factor más importante del análisis discriminante. Esta clasificación la consideró en dos direcciones que eran: el error tipo I y el error tipo II, cuyos costes no eran iguales. Al aplicar el análisis discriminante en la submuestra de 115 empresas sanas, la exactitud de clasificación fue del 94% un año previo a la quiebra; del 80% dos años previos y del 70% para el tercero, cuarto y quinto año previos a la quiebra. Blum reconoció que la multicolianilidad fue un problema en su estudio, y por consiguiente el coeficiente de la función discriminante fue inestable. También desarrolló funciones discriminantes utilizando únicamente “datos contables en bruto”. Existen dudas de algunos investigadores sobre porque Blum, que definió como muy importante una base teórica para la selección de las variables independientes, no incluyó tal teoría en su trabajo para explicar la selecciones de sus factores como fue el caso de la rentabilidad. También se le ha criticado que a pesar de los altos porcentajes de clasificación, no logró explicar el sentido económico de las ___________________________________________________Capítulo 2: Antecedentes Históricos 75 funciones obtenidas. Según Blum, esto se debió al problema para establecer mejor en términos estadísticos las contribuciones individuales de cada una de las variables independientes. Por ejemplo, el ratio de cash flow / deuda total mostró una gran eficiencia pero en un contexto multivariable. Blum concluyó que el proceso de fracaso es dinámico y por eso le dio tanta importancia a las variaciones de los ratios a través del tiempo y no únicamente a sus valores puntuales. Para esto estableció el tercer factor que denomino de “variabilidad”, el cual incluía ratios expresados en términos de tendencia y desviación, proposición que ya había sido sugerida antes por Deakin. 2.4.6. MODELO OHLSON (1980). James A. Ohlson (1980) de la Universidad de California y que desarrolló su trabajo asesorado por William Beaver, presentó como principal cambio con respecto a otras investigaciones, un método estadístico diferente de los que tradicionalmente se habían venido utilizando para evaluar las quiebras. Ohlson por primera vez utilizó el modelo econométrico de probabilidad condicional de regresión logística (Logit) en lugar del MDA para intentar mejorar las deficiencias que éste último presentaba. Según él, el “MDA Score” tenía poco valor interpretativo al contrario del Logit y por eso su estudio se centraba más al problema metodológico que a otra cuestión. Antes de la década de los ochenta, aunque ya se habían encontrado problemas metodológicos y estadísticos aplicando el análisis discriminante en el modelo, ningún investigador intentó probar otras alternativas para mejorar estos aspectos. Esto se debió en gran parte a los buenos resultados de exactitud de clasificación. Sin embargo, los problemas de clasificación dicotómica dentro del campo de las finanzas eran diferentes con respecto a otros campos y se volvieron más complejos. Pero aún así, los investigadores no se dieron cuenta o poca atención prestaron a este hecho y continuaron utilizando únicamente el análisis discriminante para elaborar sus generalizaciones, las cuales comenzaron a ser cada vez menos acertadas pues presentaban problemas tan evidentes en alguno de los elementos del modelo, como los que se citan a continuación, y que era necesario intentar mejorar a través de la estadística como medio o herramienta y no como un objetivo o fin principal. En los ratios y las variables independientes había deficiencias como: 1. El problema de la reducción en el número de variables independientes. 2. La distribución de los ratios no era normal en el modelo. 3. No había evidencia empírica generalizada sobre la correcta determinación de la contribución o significancia relativa de cada ratio dentro de la función discriminante. 4. Existía ausencia en la interpretación correcta de los ratios en términos financieros y económicos. 5. Había poca normalidad multivariable para el conjunto de las variables independientes y falta de un test que verificara esto. 6. Se observaba inexistencia de normalidad multivariable en los ratios y falta de un test que lo verificara. 7. Había asimetrías positivas en las distribuciones de los ratios. 8. En ocasiones la variabilidad de los ratios en las empresas fracasadas era muy diferente con respecto a los de las empresas sanas, sin embargo en otras no. Esto dependía principalmente de la metodología que se aplicara. ___________________________________________________Capítulo 2: Antecedentes Históricos 76 9. En la muestra se presentaban problemas tales como: la dispersión, definición y limitación de los grupos; y la selección incorrecta de las probabilidades poblacionales previas. 10. En los resultados había una incorrecta evaluación de los costes de error tipo I y II en los resultados; un deficiente diseño e interpretación correcta del análisis discriminante; y faltaba certeza de igualdad en las matrices de covarianzas de los grupos, además de test que lo verificara. Ohlson consideró que existía un camino que podía completamente ordenar el poder predictivo de un conjunto de modelos utilizados para las decisiones predictivas. Trabajos previos al suyo habían generalmente estado basados en dos importantes consideraciones específicas y restrictivas cuando los resultados predictivos fueron evaluados y eran: 1. La matriz de clasificación se suponía que era una parte adecuada de la estructura de pagos; 2. Los dos tipos de errores de clasificación tenían una propiedad aditiva, y el “mejor” modelo era aquel que minimizaba la suma de los porcentajes de error. Para Ohlson ambos de estos supuestos eran arbitrarios, pues afirmaba que en el caso del segundo supuesto era imposible comparar los resultados de las diferentes investigaciones realizadas porque los períodos de tiempo eran diferentes, y por consiguiente, los predictores y el conjunto de datos respondían a situaciones también diferentes. Por tanto, lo que sugería como interesante era hallar en cuánto se excedían los resultados entre las diferentes investigaciones. Con respecto a la variable dependiente, Ohlson detectó que la definición de fracaso tenía significativas variaciones y arbitrariedades entre la diversidad de estudios. La dicotomía entre “quiebra versus no quiebra” era normalmente la más utilizada, pero para él era una aproximación muy “cruda”. Además, apuntaba que también existía un gran número de dificultades estadísticas y problemas metodológicos que requerían ser discutidos. Su base de datos la obtuvo del “Compustat File” cuyo período fue de 1970-1978. Para el grupo o muestra de control utilizó datos de un año previo al último cierre contable para todas las empresas sanas. En cambio para la muestra de estimación se consideraron hasta tres años previos a la quiebra. Este fue un estudio que difirió de los anteriores en cuanto a que Ohlson no seleccionó su base de datos de empresas fracasadas del “Moodys´ Industrial Manual”, pues optó por un procedimiento diferente que, según él, tenía una mayor ventaja al considerar que los reportes indicaban una situación en un punto del tiempo en que éstos fueron hechos públicos, y por tanto, el analista no podía verificar si la empresa había llegado a la quiebra antes o después de que los datos se publicaran. Este problema de temporalidad se daba porque se creía que los informes financieros estaban disponibles a la fecha del cierre anual. En la práctica lo anterior no sucedía, y menos aún en las empresas fracasadas, las cuales en ocasiones llegaban a producir su información después de ésta ya no era “oportuna”. Por eso Ohlson prefirió buscar otra fuente para su base de datos que le indicara la fecha exacta de su emisión pública para en realidad poder predecir las relaciones económicas, pues si una empresa solicitaba el procedimiento concursal entre el posterior cierre de ejercicio y antes de la emisión de los estados financieros finales, la información perdía validez, y por consiguiente el análisis predictivo también. Ohlson observó que anteriores estudios no habían considerado explícitamente este sutil hecho, ya que presuponían que un reporte está disponible al final del año fiscal y esto podía llegar a ser importante dependiendo del objetivo del estudio. Si el propósito era llevar a cabo una investigación como la suya para solamente pronosticar las relaciones, entonces el procedimiento era inadecuado. Como todos los ___________________________________________________Capítulo 2: Antecedentes Históricos 77 demás investigadores, Ohlson se encontró con estados financieros incompletos y con períodos de cierre variables en algunas empresas. Los porcentajes de error en las predicciones de Ohlson fueron mayores con respecto a otros estudios similares como los de Altman. Esto podría haberse debido, según Ohlson, a que los datos obtenidos fueron de períodos anteriores a 1970. Otra desventaja que encontró en su modelo y que también estaba relacionada con las bases de datos, fue que no utilizó datos basados en precios del mercado, lo cual pudo haber impedido incrementar el poder predictivo de su análisis. En su opinión, uno de los problemas principales que había en los modelos predictivos era el relacionado con el desarrollo de los datos de las empresas quebradas, los cuales no habían sido mencionados en la literatura sobre el tema (op. cit. p. 111). Por eso en su estudio este factor le produjo según él las siguientes limitaciones: 1. Los resultados obtenidos a través de la aplicación del modelo MDA era un score que tenía poca interpretación intuitiva. 2. Existían problemas relacionados con los procedimientos para la selección de la muestra, los cuales habían sido utilizados en el modelo MDA. Por ejemplo, las empresas fracasadas y no fracasadas eran seleccionadas de acuerdo a ciertos criterios, tales como el tamaño y el sector industrial. Para Ohlson estas tendencias eran en ocasiones arbitrarias. Ohlson consideraba las mayores determinantes para el éxito de la empresa eran: a) el tamaño de la empresa; b) las mediciones de la estructura financiera; c) los resultados y d) la liquidez actual. Basado sobre esta teoría construyó un modelo para predecir la quiebra utilizando nueve variables predictivas que incluyeron: el tamaño de la empresa; los ratios citados comúnmente en la literatura especializada; los resultados del ejercicio; las medidas de posición; y, los resultados y cambios en la posición de la empresa. Detectó que la submuestra de empresas quebradas usualmente era pequeña. Esto le llevó a que incluyera a 105 empresas en quiebra y 2058 empresas no quebradas. No especificó si éstas últimas estaban sanas o enfermas. En la selección de las variables independientes no llevó a cabo ninguna tentativa para desarrollar algún ratio nuevo. Sus criterios fueron simples y aplicó nueve variables independientes que fueron las siguientes: CUADRO 2.20. 1. 2. 3. 4. 5. 6. 7. 8. 9. Log. Activo Total / Índice del Nivel de Precios del Producto Interno Bruto* Pasivo Total / Activo Total Capital de Trabajo / Activo Total Pasivo Circulante / Activo Circulante Variable Dummy = “1”, si el total del pasivo excede al total del activo; y “0”, si el total del activo excede al total del pasivo. ** Ingresos Netos / Activo Total Fondos de Operaciones Normales / Activo Total Variable Dummy=1 si los ingresos netos fueron negativos en los dos últimos años; y 0 si los ingresos netos no fueron negativos en los últimos dos años. (Ingresos Netos del Período más reciente (NIt) – Ingresos Netos del Período t-1 (NIt-1 ) / NIt+ NIt-1 )*** ___________________________________________________Capítulo 2: Antecedentes Históricos 78 * Esta variable la seleccionó para analizar el tamaño de la empresa y su base partió del 100% para 1968. Para los activos, el índice anual equivalía a un año previo al año de cierre del balance general. El procedimiento le aseguró a su modelo la implementación del tiempo real. La transformación logarítmica tuvo para él importantes implicaciones, pues supuso que si dos empresas (A y B) tienen una fecha de balance dentro del mismo año, el signo de PA - P B es independiente del índice del nivel de precios, lo cual constituye una propiedad deseable. ** El ratio dummy (no. 5) lo utilizó como una corrección discontinua del ratio no. 2; concluyendo que: a) Una empresa que tenga un valor en libros negativo es un caso especial. b) La existencia de una empresa depende de una complejidad de factores y por tanto el efecto de una posición de endeudamiento extrema requiere ser corregida; y c) Un signo positivo sugiere casi la seguridad de una quiebra, en cambio un signo negativo indica que la situación es mala debido al ratio no. 2. *** Aquí el denominador actúa como un indicador de nivel. Esta variable intenta medir los cambios de los ingresos netos y fue propuesta por vez primera por McKibben (1972). Con respecto a los ratios de beneficios, el análisis de datos mostró que los ratios se deterioraron más conforme se acercaba la quiebra (1 y 2 años previos). Anteriores estudios sobre el “sentido común” le sugirieron a Ohlson que el signo de los coeficientes de los diferentes ratios deberían computarse de la siguiente forma: CUADRO 2.21. TIPO DE SIGNO POSITIVO RATIO NEGATIVO 1 3 6 7 9 INDETERMINADO 2 4 8 5 Sus resultados le indicaron poca correlación entre las variables de resultados y las de posición. En ambos casos obtuvo contribuciones significativas para su modelo. El tamaño de la empresa fue también considerado como un elemento significativo para la predicción de la quiebra. El modelo Ohlson clasificó correctamente 96.12% de la muestra de empresas industriales (probabilidad de quiebra). Estos resultados le indicaron que la combinación de la tasa de errores de Tipo I y II, eran mínimas en un punto límite de .038; lo que significó que 17.4% de las empresas sanas y 12.4% de las empresas en quiebra no fueran correctamente clasificadas. Las conclusiones finales de Ohlson fueron básicamente las siguientes: 1. El período de cualquier modelo depende de la información financiera disponible, es decir, de las bases de datos. 2. El poder predictivo de las transformaciones lineales de un vector de ratios parece ser más amplio cuando se aplica a muestras grandes. 3. Propuso llevar a cabo transformaciones logarítmicas o de raíz para conseguir mayor normalidad en las distribuciones. 4. Con respecto a la desigualdad de las covarianzas pensó en el análisis discriminante cuadrático, aunque consideró que éste se veía afectado más que el análisis lineal por la falta de normalidad, además de su mayor dificultad de aplicación y la disminución de la utilidad marginal de las distintas matrices de covarianzas conforme el tamaño de la muestra se reduce y el número de las variables independientes aumenta con relación a la muestra. 5. En su modelo fue posible identificar cuatro factores básicos que eran significativos estadísticamente para detectar la probabilidad de quiebra un año previo al evento. Estos factores fueron: el tamaño de la ___________________________________________________Capítulo 2: Antecedentes Históricos 79 empresa, las medidas de la estructura financiera, las mediciones de los resultados, y las mediciones de liquidez a corto plazo (aunque para él las evidencias de este factor no fueron tan claras). 6. Según Ohlson, estudios anteriores como los de Beaver, Altman, Libby, Deakin, Blum, Edmister, Wilcox, Lev, etc., parecen haber exagerado el poder predictivo de los modelos desarrollados, pues consideró que erróneamente entendieron la “predicción” como sinónimo de “pronóstico”. Al respecto Ohlson opinaba que si uno utiliza predictores derivados de estados financieros que fueron hechos después de la fecha de la quiebra, la evidencia indica que será fácil “predecir” la quiebra (p. 110). 7. Los estudios de Ohlson tuvieron una influencia en los posteriores estudios sobre la posibilidad de elección de metodologías estadísticas alternativas, pues se comenzaron a utilizar otros modelos más flexibles en sus requerimientos, proponiendo en general otros dos modelos de probabilidad condicional que fueron: la regresión logística, “Logit”, y la regresión probabilística, “Probit”, las cuales fueron tan eficientes como el MDA. 8. Su trabajo empíricamente no tuvo éxito, pero metodológicamente fue vanguardista en su aportación al desarrollo de las variables independientes. 9. En la muestra propuso por vez primera, que las muestras se podían seleccionar sin un emparejamiento y sin necesidad de cumplir las diferentes proporciones existentes entre los grupos de empresas de la población. 2.4.7. MODELO ROSE-GIROUX (1984). Peter Rose y Gary A. Giroux (1984) a través de su investigación siguieron la línea tradicional en el uso de ratios. Como muestra seleccionaron 46 empresas sin problemas de quiebra y 46 empresas en quiebra. Posteriormente seleccionaron 130 nuevos ratios, que fueron contrastados empíricamente para probar su capacidad de predicción y discriminación entre empresas en proceso de quiebra y empresas sanas. Del total, sólo 34 nuevos ratios mostraron diferencias significativas entre los dos grupos y éstos fueron combinados con 27 ratios que habían dado resultados positivos en previos estudios. Como método estadístico, utilizaron el MDA Stepwise, dando como resultado un modelo de 18 variables las cuales tuvieron una importante capacidad de predicción hasta 7 años previos a la quiebra. De estas variables 13 fueron nuevos ratios que indicaron creatividad en la elección de predictores. Este estudio fue importante porque además de utilizarse las tradicionales funciones discriminantes lineales, se aplicaron las funciones cuadráticas. Ambos tipos de funciones, fueron validadas a través del método “holdout Lachembroch”. La exactitud de la clasificación sobre el período de siete años fluctuó del 97.4% al 88% para la función lineal; y del 86.7% al 74.5% para la función cuadrática. Sus resultados les indicaron que a pesar de que la función cuadrática tuvo menor exactitud de clasificación, ésta reportó menos porcentajes de error durante el séptimo año previo a la quiebra. Además, la “F-test” les indicó diferentes matrices de varianza-covarianza para los dos grupos, lo que sugirió que la función cuadrática podía ser mejor pues exhibía menos capacidad predictiva errática. Sin embargo, estudios posteriores que utilizaron métodos estadísticos alternativos demostraron que los resultados habían sido muy similares, incluso hasta en las tasas de error. Esto llevaría a otros investigadores a la conclusión de que la capacidad del modelo predictivo no se basaba principalmente en la mejor elección de un tipo de método estadístico que sustituya a otro o en las variables independientes empleadas para la estimación y validación del modelo estadístico; sino que lo fundamental primeramente era considerar la dificultad que existe para obtener los datos que se ___________________________________________________Capítulo 2: Antecedentes Históricos 80 utilizan en las variables, los cuales tienen que ser una colección de varios años con utilidad informativa y en la mayoría de las veces su acceso es difícil. Para estos investigadores, sólo a partir de lo anterior era válido considerar posteriormente la correcta selección de las variables y la importancia del método estadístico a utilizar. Esta idea ya había sido expuesta por Hamer (1983) y fue producto de un trabajo empírico llevado a cabo con el objetivo de constatar la sensibilidad de las variables independientes a través de la utilización de tres métodos estadísticos alternativos (discriminante lineal, discriminante cuadrático y condicional logit). Para cumplir con su propósito, Hamer había seleccionado los modelos de Altman, Deakin, Blum y Ohlson, y utilizando una base de datos de empresas fracasadas, aplicó tres métodos estadísticos diferentes y concluyó al igual que Gentry, Newbold, Witford (1985) y Casey, Bartczak (1985), entre otros, que la capacidad de los modelos predictivos construidos a partir de técnicas alternativas de clasificación no difería de forma significativa. Esto establecía como precedente el reconocimiento implícito que eran las bases de datos las que determinaban en una primera fase la selección de las variables independientes y de la técnica estadística. 2.4.8. MODELO TAFFLER (1984). Richard Taffler (1984), profesor de la “University Business School of London” , llevó a cabo un trabajo cuyos principales objetivos fueron los siguientes: 1. Hacer una revisión crítica de los modelos Z-Score que se habían desarrollado hasta esa fecha en el Reino Unido. 2. Establecer la necesidad de separar los modelos de las empresas manufactureras y las empresas de distribución. 3. Explorar la utilidad del punto de corte de la técnica discriminante. 4. Determinar como las técnicas de las Z-Scores podían ser utilizadas en ese momento en el Reino Unido. Para Taffler, al igual que Altman, su modelo no se enfocaba principalmente a la capacidad predictiva, sino a la exactitud de clasificación. Su idea se fundamentaba en que si una empresa obtiene una puntuación Z-Score que la sitúe en la zona de riesgo, eso no indicaba de inicio que el modelo estuviera prediciendo el fracaso, sino de que esa empresa presenta más similitudes con un grupo de empresas fracasadas que con un grupo de empresas sanas. Posteriormente, si la empresa quebraba o no, eso dependería ya de otros factores o sujetos que no era posible incorporarlos al modelo, tal era el caso de los acuerdos con acreedores, proveedores, etc. Por eso el trabajo de Taffler se enfocó más a los problemas conceptuales y estadísticos del modelo que a la importancia de la capacidad de predicción. En 1984 realizó un “survey” sobre los trabajos desarrollados en el Reino Unido entre 1974 y 1977. Este fue el primer trabajo importante fuera de los Estados Unidos que por cierto también reconoció la importancia que tenían las bases de datos dentro del modelo. Por ejemplo, Taffler opinaba que el Reino Unido era un país ideal para el desarrollo de los modelos predictivos pues contaba con las condiciones más ventajosas para obtener mejores resultados. Éstas las resumía en los siguientes puntos: 1. La información financiera producida por las empresas que cotizaran o no, tenía la suficiente calidad y cantidad. Condición indispensable para desarrollar el modelo predictivo. 2. La bolsa de valores de este país estaba ya lo suficientemente desarrollada. ___________________________________________________Capítulo 2: Antecedentes Históricos 81 3. Existían suficientes bases de datos contables informatizadas y homogeneizadas. 4. Había en el país un gran número de empresas fracasadas y este hecho permitía conformar la submuestra de empresas quebradas, cosa que normalmente era una limitación para desarrollar adecuadamente el modelo. Taffler consideraba que una empresa que seguía operando no necesariamente se tenía que considerar como una empresa no fracasada dentro del modelo. Por otra parte, opinaba que una revisión bibliográfica exhaustiva no era suficiente para elaborar una teoría sobre la selección de los ratios. Con base en estas premisas, Taffler seleccionó 50 ratios y aplicó posteriormente un análisis de componentes principales para reducir el número de factores y variables a un total de 5. Con éstas diseño la función discriminante. CUADRO 2.22. FACTORES Y VARIABLES DEL MODELO TAFFLER FACTORES RATIOS 1. 2. 3. 4. 5. Rentabilidad Endeudamiento Posición de Activos Posición del capital circulante Nivel de actividad. 1. 2. 3. 4. 5. Beneficio neto antes de interese e imptos /Activo total inicial Pasivo total / Capital Contable Activos diferidos / Activo total Capital circulante / Fondos propios Rotación de Stocks. Fuente: Taffler (1984) Entre sus primeros resultados Taffler observó que los dos primeros factores presentaron la mayor capacidad discriminatoria de la función. En 1977 Taffler junto con Tisshawa realizaron un segundo trabajo en donde modificaron las variables del modelo original de Taffler (1973), reduciendo los factores a cuatro para hacer frente a la nueva y compleja información contable que se presentó en el Reino Unido debido a las altas tasas de inflación que afectaron a la información contable e incluyeron empresas fracasadas entre 1968-1973. La función discriminante quedó compuesta por los siguientes factores y ratios; sin embargo, el modelo de Taffler y Tisshawa no fue publicado por razones comerciales, de ahí que se desconozcan los coeficientes y su ponderación dentro del modelo. CUADRO 2.23. FACTOR Rentabilidad Posición de capital circulante Nivel de endeudamiento Liquidez RATIO Beneficios netos antes de intereses e impuestos / Activo Total Activo Circulante / Pasivo Total Pasivo Circulante / Activo Total Intervalo sin crédito. 1. 2. 3. 4. 1. 2. 3. 4. Fuente: Taffler (1984) Los factores de rentabilidad y endeudamiento fueron los que más peso clasificatorio tuvieron. Para Taffler el análisis multivariable redujo el efecto window dressing en la contabilidad, pues esta técnica estadística permitió llevar a cabo un análisis simultáneo entre la rentabilidad, el endeudamiento y la posición de liquidez; lo que hizo más difícil la manipulación. Taffler y Tisshawa advirtieron, al igual que los Takahashi y Kurokawua (1985), sobre las limitaciones del análisis discriminante a través de la utilización aislada de la Z-Score, pues opinaba que esta herramienta era más útil cuando se consigue un desarrollo complementario que proporciona una ___________________________________________________Capítulo 2: Antecedentes Históricos 82 aproximación a los diferentes grados de riesgo. A partir de esto propuso dos importantes conceptos con el fin de incorporarlos a su modelo y fueron: 1. El índice de riesgo: esta medida trató de indicar en qué medida y durante cuantos años la Z-Score era negativa. También intentó proporcionar indicadores sobre la tendencia de la Z-Score 2. El “Performance Analysis Service Score”(PAS-SCORE). Este indicador consistió en transformar la Z-Score en una medida de escala de 0 a 100. Para esto primeramente se debía de ordenar en forma ascendente las puntuaciones de las empresas muestreadas y posteriormente, se establecía el percentil en el que se ubicaban las empresas para medir el riesgo global de cada una de estas considerando la situación económica del sector. Por último, Taffler también destacó la gran importancia de la utilidad de los estados financieros cuando se analizaban adecuadamente, agregando que para cada sector se requería el desarrollo de modelos distintos. La base de datos se tomó del sistema “EXAT”, que es el equivalente al “COMPUSTAT” de los Estados Unidos de Norteamérica. 2.4.9. MODELO ZAVGREN (1985). Christine V. Zavgren (1985), profesor asistente de la Universidad de Purdue, Indiana, llevó a cabo su investigación utilizando los resultados del análisis factorial de Pinches (1973) para: reducir el número de variables, reducir la probabilidad de multicolianilidad y continuar con la medición de todas las fases de la posición financiera y los resultados de las empresas. El estudio partió del hecho de que existía una deficiente técnica que guiara la selección de las variables independientes y consideró que la importancia que tienen dichas variables tenían que ser realmente valoradas pues eran empíricamente determinantes. Zavgren seleccionó el estadístico logit como método de estimación, considerando que la probabilidad de quiebra era más importante con respecto a una única clasificación de quiebra o no quiebra, lo cual permitiría al usuario valorar el potencial de riesgo. Para la muestra seleccionó 45 empresas en quiebra y 45 empresas sanas del sector manufacturero durante el período 1972-1978. La muestra de empresas sanas la tomó del “Compustat New York Stock Exchange, Over-The Counter”. Para la muestra de empresas en quiebra tomó 130 que se inscribieron en el procedimiento concursal bajo el Capítulo X y XI durante el período de 1972-1978. De estas 69 pertenecían al sector manufacturero (SIC Codes 2200-3940) . Posteriormente 16 de estas empresas fueron descartadas por tener una mala base de datos. Por último, cada empresa quebrada fue emparejada con una sana. Para la selección de las variables independientes, el autor se basó en los estudios de Pinches, Mingo y Caruthers (1973) y de Pinches, Eubank, Mingo y Caruthers (1975), los cuales habían aplicado el análisis factorial. Estos estudios habían identificado que los ratios representaban la principal dimensión independiente de las bases de datos de los estados financieros. Por eso consideraban que era importante valorar la estabilidad de estas dimensiones a corto y a largo plazo. Zavgren observó que los anteriores estudios de Pinches et. al. habían determinado, a través del análisis factorial ortogonal, que existía estabilidad en las dimensiones de la información financiera y que cada factor contenía por lo menos un ratio con alto peso o correlación con el factor. De esta forma la mayor parte de la información estaba relacionada con el factor. ___________________________________________________Capítulo 2: Antecedentes Históricos 83 Para su estudio empleó los mismos ratios y los mismos siete factores de Pinches et al., a excepción del ratio de circulante que sustituyó por el ratio de la prueba del ácido dentro del factor de la liquidez a corto plazo. Esto lo hizo porque consideró que el ratio de circulante se incrementaba en proporción con los inventarios acumulados; y dentro de una empresa en quiebra este fenómeno daba una medida de liquidez errónea. Su modelo final quedó compuesto por el ratio más representativo de cada uno de los siete factores (peso o correlación del ratio dentro del factor). CUADRO 2.24. MODELO ZAVGREN FACTOR RATIO FACTOR LOADING 1. Retorno de la Inversión 2. Rotación de Capital 3. Rotación de Inventarios 4. Apalancamiento financiero 5. Rotación de Cuentas por Cobrar 6. Liquidez a Corto Plazo 7. Posición de Tesorería Ingresos Totales / Capital Total Ventas / Activo Fijo Inventarios / Ventas Proveedores / Capital Total Cuentas por Cobrar / Inventarios Activos Rápidos / Pasivo Circulante Tesorería / Activo Total .97 .95 .97 .99 -.99 .81 .91 Para Zavgren la rentabilidad le proporcionó una medida del retorno de la inversión y era significativa al igual que la estructura de capital y la liquidez para determinar lo sano de una empresa. Por otra parte, observó que en las empresas fracasadas se presentaba un alto apalancamiento financiero y éstas eran incapaces de cumplir con el servicio de la deuda de sus pasivos. Como se verá igualmente en otros trabajos, la liquidez no fue considerada como un signo determinante para decidir si la empresa estaba sana o no. Los ratios de eficiencia tuvieron una gran importancia a largo plazo en el modelo, porque le permitieron medir la capacidad de la empresa para la utilización de sus activos considerando el total de su capacidad instalada. Sin embargo, Zavgren determinó que a corto plazo era difícil medir la eficiencia porque la utilización de los activos es difícil de modificar en ese período y sobre todo la correspondiente a la rotación de los activos fijos. A partir de esto consideró que las medidas de eficiencia iban dirigidas a decisiones a largo plazo al igual que las inversiones en capital y las plusvalías de marketing que afectan también a los ratios de eficiencia; y por lo tanto, se tenía que analizar bajo la óptica de largo plazo. Con base en lo anterior Zavgren consideró que estas variables eran significativas dentro de su modelo financiero predictivo. Con respecto al ratio de la prueba del ácido, éste le indicó la capacidad de la empresa para hacer frente a sus obligaciones a corto plazo, pues para él una reserva inadecuada de activos rápidos podía llevar a una empresa al fracaso. El coeficiente negativo y la alta significancia del ratio del ácido en los años posteriores indicaron que la capacidad para cubrir las obligaciones a corto plazo era un factor importante para no quebrar. Los coeficientes de liquidez en los primeros años y su signo negativo mostraron que las empresas quebradas estuvieron más interesadas en la liquidez que en las oportunidades productivas. El ratio de activo circulante / activo total lo consideró como una medida de relativa liquidez pero de especial importancia, pues cuando daba resultados críticos se estaba cerca de la quiebra. Para él sólo los activos líquidos podían generar tesorería para cubrir las obligaciones, en cambio a largo plazo, una empresa exitosa debía intentar minimizar su liquidez. Por eso, algunos consideran que este ratio no es comparable entre empresas con diferentes desarrollos financieros dadas las diversas estrategias para alcanzar el éxito. ___________________________________________________Capítulo 2: Antecedentes Históricos 84 Sus resultados le indicaron que en los años cercanos a la quiebra, los ratios de tesorería / activo total y activo rápido / pasivo circulante eran importantes para la predicción de una quiebra; el ratio pasivo total /capital total fue significativo durante todos los 5 años; en cambio, el ratio inventarios / volumen de capital fue únicamente más significativo con el incremento del número de años previos a la quiebra. En cuanto a las mediciones del retorno sobre la inversión, éstas fueron marginalmente significativas sólo en el cuarto año previo a la quiebra. Esto le sugirió que “la medición contable de los beneficios no distinguía entre lo sano o enfermo de una empresa” (p.41). En la rentabilidad no encontró una característica significativa distinta. Zavgren consideró a los costes de error tipo I y II como iguales, por consiguiente, el punto límite de quiebra: “Logit-Score”, dio como resultado un porcentaje de error total más bajo. Los porcentajes de error en la muestra original fueron de: 18%, 17%, 28%, 27% y 20%, del primero hasta el quinto año previo a la quiebra entre los cinco años previos a la quiebra. La muestra de validación (1979-1980) dio un porcentaje de error de clasificación del 31% para cada uno de los años. Los porcentajes de error un año previo a la quiebra fueron similares a los de Ohlson; es decir, fueron más bajos que los reportados por Altman. Sin embargo, Zavgren reconoció que dada la limitada disponibilidad de datos correspondientes a las empresas en quiebra, una posible generalización no era un hecho factible, pues a lo más la única generalización que se podía hacer de su estudio era si los resultados del modelo podían ser validamente extensibles a períodos de tiempo futuros. Zavgren, a través del análisis riguroso de los estudios pioneros elaborados hasta la década de los setenta, ha sido uno de los principales investigadores que llegó a la conclusión sobre la importancia que tiene la mejora de las bases de datos contenidas en los estados financieros para mejorar los modelos predictivos. ___________________________________________________Capítulo 2: Antecedentes Históricos 85 2.5. ESTUDIOS BASADOS EN FLUJOS DE EFECTIVO (CASH BASED) PARA PREDECIR QUIBERAS: EL CASH FLOW EN LOS PRIMEROS ESTUDIOS SOBRE QUIEBRAS. Una primera crítica que han hecho algunos investigadores a los trabajos empíricos sobre quiebras conducidos antes de mediados de la década de los ochenta, es que estos estudios sólo se realizaban sobre la base del devengo. Pero a partir de la época de los ochenta, se iniciaron estudios conducidos principalmente para investigar si existía evidencia empírica de una mayor capacidad predictiva al utilizarse el cash flow operativo, para aplicarlo posteriormente a ratios individuales o en combinación con otros ratios basados en el devengo. Esto se llevó a cabo con metodologías estadísticas similares a las que se habían estado utilizando en los modelos basados únicamente en el devengo y desarrollados principalmente en los Estados Unidos durante las décadas de los sesenta y setenta. En aquellos tiempos la utilización de datos basados únicamente en la contabilidad del devengo, puede ser parcialmente justificada por la falta de información y normatividad sobre el cash flow. Los reportes de cash flow no se elaboraron hasta que se volvieron obligatorios en 1987 por recomendaciones del FASB en su Boletín No. 95 que estableció los estados estandarizados de contabilidad financiera y exigió por vez primera elaborar el estado de cash flow. Como se observará más adelante, el concepto de cash flow fue considerado en general sólo como la suma de los ingresos netos más las depreciaciones o el capital de trabajo operativo, hasta que Pinches et Al (1973, 1975) hicieron notar que los sustitutos del cash flow no contenían la misma información del concepto más correcto y actual del cash flow. En general, el antiguo concepto de cash flow se asociaba más con las medidas de rotación de ventas o rotación de activos. Por otra parte, la posición de tesorería se presentaba como un factor separado de la liquidez a corto plazo, pues se consideraba un concepto distinto. Actualmente el cash flow tiene otros componentes tales como el de financiación y el de inversión. Con respecto al cash flow operativo, éste puede ser calculado por dos métodos que son reconocidos por el SFAS No. 95. Dichos métodos son el directo y el indirecto. El primero incluye las actividades ordinarias, las cuentas por pagar y otras cuentas de tesorería. En el segundo método su cálculo parte de los ingresos netos sin considerar los extraordinarios, y a su vez se puede optar por dos alternativas que son: a) eliminando los efectos del devengo, los anticipos diferidos, y las operaciones que producen ingresos y gastos pero que no modifican o contienen partidas de tesorería; y b) ajustando los recursos operativos y los usos de la tesorería, los cuales no producen ingresos y gastos. La adopción de los anteriores criterios aunque ha sido importante en varias investigaciones, también en otras se ha omitido erróneamente. Así, en la década de los ochenta los estudios sobre quiebras pasaron por alto la información sobre los componentes del cash flow operativo, de inversión y de financiación, y por consiguiente, de los ratios basados sobre las diversas actividades medidas a partir de esta variable. Estudios como los de Beaver (1966), Deakin (1972), Edmister (1972) y Ohlson (1980), aunque utilizaron diversos conceptos de cash flow, estos en realidad fueron sustituciones imprecisas, tales como la de los ingresos netos más la depreciación, los ingresos extraordinarios y algunas partidas de gastos. Aunque tales sustituciones estaban justificadas por el “state of art” del concepto del cash flow, en la opinión de Bukovinsky (1993), esto originaba principalmente tres situaciones negativas dentro del modelo que eran las siguientes: 1. Las sustituciones del cash flow podían llevar a conclusiones erróneas al usuario del modelo. ___________________________________________________Capítulo 2: Antecedentes Históricos 86 2. La sustitución del cash flow no contenía la misma información que tiene actualmente este concepto que es muy complejo. De hecho se ha podido comprobar que el contenido de la información del antiguo y más popular concepto no es ni siquiera equivalente al contenido del cash flow operativo. 3. Los sustitutos del cash flow sólo se referían al cash flow operativo y no se consideraba al cash flow de financiación e inversión. Por eso, en los primeros estudios no fue posible utilizar esa información en los componentes de los ratios cuya base era el efectivo, para contrastar si aumentaba el poder predictivo de los modelos. Con base en estos tres puntos se puede concluir que durante la década de los sesenta y setenta no se sabía exactamente lo que se estaba midiendo, pues incluso la liquidez y el cash flow se consideraban como conceptos equivalentes. Con respecto a la información de cash flow, el boletín No. 95 del FASB obligó a las empresas a incluir un estado de cash flow dentro del conjunto de estados financieros básicos, pues consideró que este estado debía sustituir al estado de cambios en la posición financiera, pues proporcionaba información financiera más relevante que no contienen otros estados financieros, como por ejemplo: la determinación de la liquidez y la capacidad de pago de los pasivos (solvencia). Al avanzar el desarrollo contable también se propuso la sustitución del estado de cash flow por el estado de cambios en la situación financiera, pues aunque actualmente la información que ambos estados proporcionan es válida, las bases de su preparación y su significado pueden ser en ciertas ocasiones diferentes, debido principalmente a los efectos de la inflación en la información financiera. En este caso, el estado de cambios en la posición financiera muestra en moneda constante los recursos generados y aplicados en la operación, los cambios en la estructura financiera y su reflejo final en el efectivo e inversiones temporales a través de un período determinado. En general, los resultados de los estudios predictivos, que consideraron al cash flow operativo, mostraron que tales medidas podían utilizarse sólo como una contribución marginal para diferenciar entre las empresas en quiebra y las empresas sanas. Sin embargo, dicha exactitud marginal dentro del modelo podía ser mínima y siempre debía tenerse un gran cuidado para seleccionar a las variables independientes. Diversas investigaciones en general han coincidido en que entre las empresas sanas y fracasadas existen valores estadísticos diferentes para varias mediciones del cash flow total, operativo, financiero y de inversión. Pero que no todas estas medidas proporcionan una utilidad para predecir la quiebra. Estudios como lo de Casey y Bartczak (1984, 1985) nos ayudan a comprender que no deberíamos caer en la euforia de una “medida mágica” para los modelos predictivos, pues en sus resultados quedó demostrado que el cash flow operativo no exhibió por sí sólo (o cuando lo sumaron a los modelos basados en el devengo) mayor poder predictivo. Similares resultados obtuvieron Gómbola et al. (1987), Gentry et al. (1985 a, 1985 b), Aziz y Lawson (1989), entre otros. Los diferentes resultados obtenidos han llevado a la conclusión de que el análisis de sólo el concepto del cash flow operativo debe abandonarse y considerar la diversidad de conceptos que tiene el cash flow; incorporando como mínimo el cash flow de inversión y de financiación. La literatura especializada indica también que es importante analizar el modelo predictivo no sólo desde la óptica estadística, sino partiendo desde la concepción del modelo como sistema de información contable complejo y multidisciplinario, y cuyo objetivo es presentar estados o información financiera condensada en ratios que posteriormente sean transformados, a través del análisis estadístico, a indicadores de exactitud, error e ignorancia, para clasificar o discriminar entre empresas sanas, fracasadas y enfermas. ___________________________________________________Capítulo 2: Antecedentes Históricos 87 Como hemos visto, los primeros estudios se concentraron en partir de la posición de la empresa basada en los sistemas de devengo y en las mediciones de rentabilidad. Posteriormente, el avance en la evolución de los estados de cambios en la posición financiera incrementó la complejidad, pero a la par también incrementó la objetividad y la utilización más correcta de los conceptos y medidas de flujos de fondos; es decir, hoy sabemos mejor qué y cómo queremos medir ciertas variables, así como, que componentes deben incluirse en ellas. Por otra parte, también hoy sabemos que hemos pasado de un periodo “obscuro”, en donde la liquidez y el cash flow se consideraban erróneamente como sinónimos. Actualmente no sólo se han propuesto diferentes definiciones a estos dos elementos, sino que también se pueden utilizar para cada uno de ellos diferentes estados financieros que son producto de un mejor cálculo. Así tenemos por ejemplo: el estado de cambios en la posición financiera, el estado de cash flow, el estado de tesorería o el estado de caja entre otros. Algunos de los anteriores estados deberían de contribuir de forma importante como nuevas alternativas para las bases de datos a lo largo del desarrollo de los actuales modelos predictivos. Sin embargo, aún es notoria la ausencia de contables en este campo donde paradójicamente el lenguaje común son los estados financieros. La combinación adecuada y constante de nuevos estudios con base en el cash flow y con base en el devengo, puede llevarnos a una mayor exactitud real tanto clasificatoria como predictiva. También la descomposición cada vez más exacta de los elementos del cash flow puede proporcionar al modelo nuevas variables independientes que incrementen la exactitud marginal, y por qué no, llegar tal vez a proponer un nuevo factor dentro de las funciones lineales. Para esto se deberán desarrollar nuevas propuestas de ratios basados en una sólida teoría que habrá nuevas oportunidades al investigador. Debemos entender que el “cash position” y el cash flow constituyen conceptos diferentes que juegan un papel muy importante. La nueva tendencia metodológica parece indicar que hay que intentar sumar o restar variables o componentes del cash flow dentro del sistema del devengo para incrementar el poder predictivo del modelo. A continuación se presentan una serie de trabajos que establecieron las bases de un nuevo enfoque de los modelos predictivos. 2.5.1. MODELO DAMBOLENA Y KHOURY (1980). Dambonela Ismael, de la Universidad de Babson, y Khoury Sarkis, de la Universidad de Bucknell, realizaron un estudio sobre la estabilidad de los ratios y la quiebra empresarial. Para ello presentaron un modelo cuyo principal atributo era su estabilidad a través del tiempo y el mantenimiento del nivel de los ratios como variables explicativas dentro de la función discriminante. Este estudio fue de los primeros en importancia que abordó el problema de la falta de dinimicidad de los modelos predictivos, al utilizar ratios como variables independientes estáticas que no reflejaban la evolución de la información en cuanto a su tendencia y variabilidad a lo largo de los años. Según los autores, los ratios de las empresas fracasadas presentan importantes fluctuaciones a medida que se está más cerca del fracaso. Por eso su principal objetivo fue obtener una propuesta sobre la dinimicidad. Para esto consideraron básico medir la estabilidad de cada uno de los ratios en un momento del tiempo aplicando la desviación estándar hasta 4 años previos a la quiebra. El modelo con esto, a parte de incluir los valores de cada ratio con los que se estructuraba la función discriminante, también integraba indicadores de estabilidad temporal pertenecientes a esas variables independientes. Anteriores estudios sólo habían considerado la estabilidad del ratio pero no del conjunto en general. ___________________________________________________Capítulo 2: Antecedentes Históricos 88 Las medidas para medir la estabilidad y dinimicidad del modelo fueron cuatro:1.- Desviación típica de los valores durante los últimos tres años. 2.- Desviación típica de los valores durante los últimos cuatro años. 3.- El error estándar de las tendencias a lo largo de cuatro años. 4.- El coeficiente de variación de los cuatro años. Una vez obtenidas estas medidas Dambolena y Khoury definieron dos funciones discriminantes a través del método “Stepwise”. La primera función se diseñó a partir de los 15 ratios más populares. En la segunda función se incluyeron a demás de éstos ratios, las desviaciones típicas de cada ratio a lo largo de los últimos cuatro años. Su investigación les indicó que existía un grado sustancial de inestabilidad durante los últimos años al aplicar a los ratios financieros mediciones como: la desviación estándar; la estimación del error estándar; y el coeficiente de variación de los ratios correspondientes a empresas que llegaron a la quiebra en comparación con aquellas que no quebraron. Dicha inestabilidad mostró un significativo incremento a través del tiempo. La inclusión de la estabilidad de los ratios en el análisis incrementó considerablemente la capacidad discriminante de la función para predecir una quiebra. El modelo de estos investigadores obtuvo una exactitud clasificatoria entre grupos de empresas fracasadas y no fracasadas del 78% cinco años previos a la quiebra. La fuerza de su análisis consistió en que éste no sólo tendió a desarrollar un modelo con mayor poder predictivo, sino que además buscó desarrollar un sistema conceptual para los demás modelos que buscan predecir las quiebras en las empresas. La desviación estándar de los ratios a través del tiempo mostró ser la mejor medida para la estabilidad del ratio, lo cual representó para ellos el núcleo fuerte de su análisis. Los porcentajes de clasificación correcta fueron del 87% un año previo a la quiebra; 85% tres años y 78% cinco años previos a la quiebra. Su función discriminante incluyó a ratios que pertenecían a las categorías de rentabilidad, endeudamiento y liquidez; y fueron los siguientes: CUADRO 2.25. FACTOR RATIOS 1. Beneficios netos / Ventas 2. Beneficios netos / Capital Contable 3. Beneficios netos / Capital de Trabajo Neto 4. Beneficios netos / Activo Fijo 5. Beneficios netos / Activo Total 5. Ventas / Capital Contable 6. Ventas / Capital de Trabajo Neto 7. Ventas / Inventarios Coste de Ventas / Inventarios 8. Ratio de Circulante 9. Ratio de Prueba del Acido 10. Desviación Estándar del ratio Inventario / Capital de Trabajo Neto 11. Pasivo Circulante / Inventarios 12. 13. 14. 15. 16. 17. Desviación Estándar del Ratio Activo Fijo / Capital Contable Pasivo Circulante / Capital Contable Pasivo Total / Capital Contable Ratio de Intereses Ganados Pasivo Fijo (Deuda Consolidada) / Capital de trabajo Neto Pasivo Total / Activo Total MEDIDAS DE RENTABILIDAD ACTIVIDAD Y RETORNO (EFICIENCIA) MEDIDAS DE LIQUIDEZ MEDIDAS DE ENDEUDAMIENTO Fuente: Dambolena y Khory (1980) Para ellos la utilidad de los ratios ofreció una medición razonable para la eficiencia directiva. Los ratios de apalancamiento y la estabilidad del ratio de Activo Fijo / Capital Contable les proporcionó, según ellos, algunos razonamientos históricos para el fracaso empresarial que se resumía en que la excesiva utilización del apalancamiento estaba directamente relacionada con el fracaso, y que la estabilidad del ratio de liquidez constituye una medición necesaria para la solvencia empresarial ___________________________________________________Capítulo 2: Antecedentes Históricos 89 En cuanto a su base de datos, ésta la obtuvieron de 68 empresas (34 sanas y 34 en quiebra). Las empresas fueron emparejadas de acuerdo al sector industrial y según los criterios del “Dun and Bradstreets´ Million Dollar Directory”. Los datos financieros de 20 empresas se obtuvieron del “Moody´s Industrial Manual”, con un período de ocho años previos a la quiebra o al último cierre del ejercicio de las empresas sanas. Como en casi todos las investigaciones sobre este tema, los autores tuvieron que eliminar de la muestra a once pares de empresas por la inconsistencia y la variabilidad de los criterios contables. Aquí los estados financieros (balance general y estado de resultados) no tenían ajustes ni estaban reexpresados. Esta omisión se debe a que consideraron que el único ajuste significativo que había realizado Altman fue el correspondiente a la capitalización. Las quiebras ocurrieron durante el período de 1969-1975 y el sector al que pertenecían las empresas era el manufacturero y el detallista. En cuanto a las variables independientes, la selección de los ratios se hizo bajo las siguientes cuatro consideraciones: 1. La disponibilidad de los datos para calcular los ratios entre todas las empresas y a través del tiempo. 2. La razonabilidad del ratio con relación al desarrollo de la función discriminante. 3. El desarrollo comprensible de un conjunto de ratios en cuanto a su tipo (rentabilidad, liquidez, endeudamiento y actividad). 4. Cada ratio se calculó para todas las empresas a través de un período de cinco años. Con base en sus resultados finales, Dambolena y Khory concluyeron que al incluirse medidas de estabilidad se obtenía un incremento en las funciones discriminantes un año previo al fracaso. Su trabajo en general aportó importantes elementos y conceptos a la teoría del fracaso empresarial. Años después Dambolena realizó otro trabajo con Joel Shulman (1988). Su Estudio proporcionó evidencia empírica sobre el incremento de la capacidad predicitiva cuando se incluyen variables basadas en el cash flow. Para ellos la utilización de la variable de Balance Neto Liquido fue muy importante y consistía en la diferencia entre todos los activos líquidos financieros (tesorería, valores transferibles y valores moviliarios) y todos los pasivos exigibles. Esta variable ya había sido utilizada en otros estudios como los de Altman (1968) y Gentry, Newbold y Whitford (1985a). En el modelo de Altman esta variable había incrementado la exactitud predictiva del 85% al 92% un año previo a la quiebra; y del 82% al 84% dos años previos a la quiebra. En el modelo de Gentry et. al. se incrementó del 74% al 89% y del 68 % al 76 %, uno y dos años previos a la quiebra. Todos estos resultados les indicaron que las bases de datos basadas en el efectivo podían incrementar el poder predictivo. 2.5.2. MODELO CASEY (1980). Cornelius Casey (1980) realizó su estudio con el apoyo de la Universidad de Harvard, “Robert Morris Associates” y la fundación “Peat, Marwick and Mitchell”, entre otras. Este estudio se basó en el trabajo de Libby (1975) que había determinado que la confianza tradicional que se tenía en el análisis de ratios para los ratings crediticios parecía justificada (p. 156). Para su estudio Libby había utilizado sólo una base de datos financieros correspondiente a un año. A partir de esto Casey se propuso llevar a cabo un estudio comparativo con respecto al trabajo de Libby con una muestra que integraba únicamente a bancos, los cuales habían sido seleccionados con base en su participación activa dentro de los más sofisticados análisis de información contable. La muestra final quedó integrada por 15 empresas quebradas y 15 empresas no quebradas incluidas en el “Compustat Industrial Tape·”. Para la selección de la muestra se tomó en cuenta principalmente el tamaño y el sector industrial de la empresa (clasificación industrial estándar: SIC). “Robert Morris ___________________________________________________Capítulo 2: Antecedentes Históricos 90 Associates” le proporcionó la base de datos de 27 bancos comerciales ubicados en 18 ciudades dentro de 14 estados de Norteamérica. A su vez esta base de estados financieros, con datos contables y datos no contables, se obtuvo del “Compustat Industrial Tape” con una unidad temporal de cinco años previos a la quiebra y contaba con una clasificación industrial estándar que especificaba el período de tiempo de los datos. Para definir a la variable dependiente se consideraron aquellas empresas que habían solicitado su quiebra bajo el Capítulo X y XI del “Federal Bankruptcy Act” durante el período 1972-1976 y que fueron incluidas en la lista de quiebras del “Wall Street Journal Index”. Aquí el fracaso fue un sinónimo de las empresas que estaban en un procedimiento concursal. En cambio en el estudio de Libby se había considerado para el fracaso a los conceptos de: “quiebra”, “insolvencia” o “liquidación para el beneficio de los acreedores”. Como variables independientes Casey utilizó los cinco ratios del trabajo de Libby, más el ratio número seis y cuyos porcentajes de importancia fueron los siguientes: CUADRO 2.26. RATIOS PORCETAJES DE ACIERTO 1. 2. 3. 4. 5. 6. Ingresos Netos / Activo Total Activo Circulante / Activo Total Activo Circulante / Pasivo Circulante Cash Flow / Activo Total Ventas Netas / Activo Circulante Pasivo Total / Capital Contable 19% 11% 21% 11% 12% 28% Fuente: Casey (1980) Al analizar el comportamiento de los ratios durante tres años previos a la quiebra los porcentajes de Casey coincidieron con los de Libby. La exactitud predictiva correcta que obtuvo fue de 17 empresas de un total de 30 empresas. Esto le sugirió que las oficinas de crédito cuando analizaban una muestra, era frecuente que no supieran con certeza acerca de la posibilidad futura de una quiebra. Por otra parte, como ha sido normal en todos los resultados de las investigaciones, el mayor porcentaje obtenido del total de predicciones correspondió a las empresas no quebradas (79.6%). Las conclusiones finales de Casey fueron que los años y la tendencia de los datos (que esta fuertemente influenciada por las predicciones subjetivas) son desconocidos. También reconoció que la obtención de los datos por medio de encuestas presenta problemas, especialmente por una falta de control que esta asociada con el uso inadecuado de un cuestionario que se envía por correo. De ahí que advirtiera sobre la necesidad de llevar a cabo futuras investigaciones sobre las bases de datos contables más representativas del mundo real, así como de las diferentes cantidades y tipos de “multiperíodos” de datos de los ratios con variaciones en sus niveles de contenido predictivo. 2.5.3. MODELO CASEY Y BARTCZAK (1984). Cornelius Casey y Norman Bartczak (1984), éste último profesor del Dartmouth College, desarrollaron conjuntamente y por primera vez una investigación que contrastara estadísticamente la utilidad del cash flow operativo en un análisis univariable, comparándolo con un análisis multivariable aplicado a ratios basados en el devengo en un mismo modelo para ver su capacidad predictiva marginal. Esto con el objetivo de limitar el exceso de optimismo que comenzaba a presentarse con esta nueva magnitud, ya que la experiencia vivida en muchos trabajos antes de la década de los setenta, les había señalado que el ___________________________________________________Capítulo 2: Antecedentes Históricos 91 excesivo convencimiento de muchos investigadores sobre el ratio de circulante y el de beneficio por acción había resultado erróneo. La muestra se compuso de 60 empresas quebradas y 230 empresas sanas durante el período de 19711982. La selección de las variables independientes se estructuró a través de la combinación de un análisis univariable a un grupo de tres ratios cuya base era el cash flow operativo (cash flow operativo, cash flow operativo / pasivo circulante y cash flow operativo / pasivo total) y otro grupo de seis ratios que se calcularon con base en el devengo a través del análisis MDA. Para estos ratios, se seleccionaron principalmente los factores de rentabilidad y endeudamiento. Para el análisis se calcularon los valores medios de los ratios para cada grupo de la muestra, los cuales dieron valores bajos para las empresas en quiebra durante los cinco años del análisis. También muchas empresas, tanto sanas como fracasadas, exhibieron similares medidas de cash flow operativo, y sólo pocas empresas sanas mostraron mayores magnitudes de cash flow operativo. En general ninguna de las tres variables de cash flow operativo obtuvo mayor capacidad de clasificación en comparación con las seis variables analizadas con el tradicional MDA, cuya exactitud predictiva global para el primer grupo osciló entre el 72% hasta el 46%, y para el segundo grupo osciló entre el 86% al 61%, del primero hasta el quinto año previo a la quiebra. Posteriormente, Casey y Bartczak incluyeron las tres variables de cash flow en el modelo basado en el devengo, pero tampoco obtuvieron una significativa capacidad de clasificación marginal. Estos resultados les indicaron que el cash flow operativo no tenía una importante capacidad predictiva, sobre todo en aquellas empresas con crecimiento económico y aquellas empresas fracasadas que producen relativamente poco cash flow, porque su tesorería esta vinculada con la expansión del inventario y los pasivos. En 1985 ambos autores emprendieron otro estudio para comprobar la capacidad predictiva marginal de los flujos de caja en el modelo a través del análisis discriminante. Para este estudio contaron con las sugerencias de importantes investigadores como Altman, Horrigan, Stickney, entre otros. A estas fechas ya se reconocía la mayor confiabilidad de los estados financieros contables y de la información adicional que las empresas ya comenzaban a emitir sobre el cash flow operativo. El FASB consideraba que este concepto tenía una gran importancia para que la empresa pudiera entender los cambios adversos en las condiciones de operabilidad. Casey y Bartczak consideraban que basados en la intuición y en la evidencia empírica, el cash flow operativo histórico les permitría valorar mejor el cash flow futuro de la empresa. Su estudio nuevamente se orientó a comprobar si en realidad los datos del cash flow operativo y las medidas obtenidas con éste, proporcionaban una mayor exactitud predictiva. Para esto, tomaron en cuenta los resultados de la investigación de Gombola y Ketz (1983), en donde habían determinado varios ratios basados en el cash flow operativo en lugar de un simple ratio de cash flow con el fin de ver si eran más útiles como descriptores y predictores. A partir de esta idea intentaron determinar el contenido predictivo marginal de un número de ratios cuyo componente era el cash flow operativo. Los autores utilizaron como variables independientes iniciales a las siguientes: CUADRO 2.27. ___________________________________________________Capítulo 2: Antecedentes Históricos 92 1. 2. 3. 4. Cash flow operativo/ Pasivo Circulante Cash flow operativo / Pasivo Total Cash flow operativo / Activo Total Activo Circulante / Activo Total 5. 6. 7. 8. Activo Circulante / Pasivo Circulante Ventas / Activo Circulante Ingresos Netos / Activo Total Pasivo Total / Capital Contable Para Casey y Bartczak los pobres resultados sobre este tipo de ratios en trabajos anteriores, no implicaban un preludio de su capacidad para aumentar el poder predictivo del modelo cuando se utilizaban en combinación con los ratios basados en la acumulación o devengo. Tomaron en cuenta que las investigaciones contables habían sido incapaces de documentar la existencia de un contenido informativo incremental sobre datos de cash flow operativo y por ello decidieron volver a examinar el potencial de esos datos contables. En las anteriores investigaciones se definía normalmente al cash flow como los ingresos netos más los gastos que no eran de capital de trabajo. Para ellos esto era un grave error, pues se omitían elementos tan importantes, tales como los cambios en los activos y pasivos circulantes, los cuales tenían un significativo impacto sobre el cash flow operativo actual de la empresa. Para ellos el concepto de cash flow correcto era el capital de trabajo operativo más, o menos, los cambios en las cuentas del capital de trabajo, que no fueran en efectivo. Este concepto era consistente con aquel recientemente expuesto por el FASB (Exposure Draf de 1981). Partiendo siempre de que las anteriores investigaciones empíricas sobre la relación del cash flow operativo y el fracaso financiero habían proporcionado poca evidencia de que tales datos eran útiles para discriminar entre las empresas con “problemas” y las empresas sanas, propusieron como solución establecer algunas diferencias que fueron principalmente las siguientes: 1. Incluyeron un enfoque sobre el potencial marginal que incrementara la exactitud de clasificación al utilizar el cash flow operativo. 2. Utilizaron una muestra grande de empresas en donde sólo existiera una pequeña porción de empresas fracasadas. 3. Llevaron a cabo una validación de los resultados basada sobre una muestra de control. 4. Utilizaron la misma base de datos de las empresas quebradas del estudio de Ohlson (1980). Para la submuestra seleccionaron 60 empresas quebradas. Parte de estas empresas constituyeron la base de datos que Ohlson (1980) había utilizado en su estudio durante el período de 1971-1982. También incluyeron algunas otras empresas del “Dun and Bradstreet” y del “Wall Street Journal Index”. Un criterio importante para la selección de la muestra fue que las empresas tuvieran una base de datos de estados financieros de por lo menos cinco años. Esto lo hicieron con el fin de poder observar bien la tendencia de las variables. En cuanto a la submuestra de empresas sanas, incluyeron 230 empresas del “Compustat Industrial Tape”. Aquí las firmas no se seleccionaron con base en su tamaño pues este aspecto no se consideró de importancia. Como técnica estadística, utilizaron los análisis MDA, el Logit y el condicional “Stepwise”. El MDA lo aplicaron a 9 variables: seis de las cuales habían sido propuestas por Chen y Shimerda (1981) y estaban basadas en el devengo. Las otras tres variables de cash flow eran las mismas que había utilizado en su anterior estudio (1984). ___________________________________________________Capítulo 2: Antecedentes Históricos 93 El ratio de cash flow operativo / pasivo circulante fue significativo durante los tres primeros años. El cash flow operativo / pasivo total fue significativo únicamente los dos primeros años. Por último, el ratio de cash flow operativo fue significativo el primero, cuarto y quinto año, es decir, no tuvo una tendencia decreciente constante. Al validar estos resultados con una muestra de control, las nueve variables independientes no mejoraron su significancia o capacidad predictiva con respecto al modelo original que incluía sólo seis variables basadas en el devengo. Posteriormente aplicaron una regresión logística “stepwise” en cada uno de los cinco años previos a la quiebra. Los resultados indicaron que las variables de cash flow operativo no tenían poder explicativo, pues no se obtuvo mayor exactitud en la clasificación. Estos resultados reafirmaron los de su estudio de 1984. Los autores sugirieron que utilizando medidas alternativas de cash flow en combinación con otras medidas financieras y no financieras, se podría tal vez obtener mayor exactitud clasificadora. La capacidad de clasificación total de la muestra original fue del 75% un año previo a la quiebra para el ratio cash flow operativo / pasivo circulante, decreciendo hasta el 62% durante el quinto año. Con respecto al cash flow operativo, éste mostró los peores resultados al clasificar correctamente sólo el 60% de la muestra un año previo a la quiebra, decreciendo hasta el 50% a partir del tercer año. Aunque la exactitud de clasificación fue mejor en las empresas sanas, los porcentajes de error tipo II se presentaron en general también en éstas. Esto lo atribuyeron al hecho de que en gran número de empresas sanas se presentaron medidas de cash flow operativo muy similares a los que mostraron las empresas fracasadas. Esto les sugirió que el cash flow operativo no representaba un factor con tanta capacidad predictiva como se empezaba a creer, al contrario de otros factores que sí podían representar mejores indicadores preventivos, como por ejemplo: el nivel de endeudamiento, la estabilidad de los activos de capital, los activos líquidos, la capacidad de desinversión o el acceso al crédito y mercado accionario. Al no obtener resultados positivos en este trabajo, concluyeron que el cash flow operativo no incrementaba el poder predictivo de los modelos y con esto diferían de aquellas opiniones, como las de James Largay y Clyde Sticney (1980), las cuales afirmaban que la inclusión de ratios de cash flow producía más exactitud en las predicciones en comparación con aquellos modelos que únicamente utilizaban información basada en el devengo. Además, advirtieron que el simple concepto de cash flow operativo no era suficiente, pues había otras medidas que también eran importantes como el cash flow de financiación, el de inversión o la posición de tesorería. James Gahlon y Robert Vigeland también descompusieron el cash flow total en varios componentes con el fin de analizar su capacidad marginal de exactitud dentro del modelo. Para esto seleccionaron una muestra de 60 empresas fracasadas y 204 empresas sanas. Aquí el cash flow se presentó de acuerdo al formato del estado de cash flow propuesto por el FASB. En este caso, estos investigadores advirtieron que el formato del “análisis crediticio uniforme” era diferente al formato para preparar el estado de cash flow, y por lo tanto, entre ambos estados no estaba contenida información similar. Gahlon y Vigeland al analizar los valores medios de las dos submuestras durante un período de cinco años, sus resultados mostraron diferencias entre ambos grupos. El cash flow de las ventas, el coste de ventas y los gastos de operación fueron los principales componentes del cash flow operativo, y estos no mostraron diferencias significativas en ningún año entre las dos submuestras. Sin embargo, las medias de los valores de los componentes podían representar posibles alternativas como variables independientes para incluirse en un modelo predictivo; aunque advirtieron que estas diferencias significativas no necesariamente indicaban capacidad de predicción. ___________________________________________________Capítulo 2: Antecedentes Históricos 94 Otro estudio importante que siguió la misma línea de Casey y Bartczack fue el de Abdul Azis y Gerald Lawson (1989). Su estudio también se enfocó a descomponer el cash flow total para compararlo entre modelos basados en el cash flow y en el devengo. Para esto crearon tres tipos de modelos que fueron: los de tesorería, los de devengo y los mixtos. Esto tuvo como fin comprobar si un modelo basado únicamente en el cash flow tenía más poder predictivo. Para esto utilizaron las mismas cinco variables del modelo Altman (1968), aplicándolas al modelo de Lawson (1985) que estaba basado en el efectivo. Posteriormente, compararon sus resultados con los del modelo Altman (1968) y el modelo Altman, Halderman y Narayanan (1977). Para determinar la capacidad predictiva del modelo utilizaron el método estadístico Logit y el formato del estado de cash flow para obtener los componentes del cash flow total. Los resultados de su trabajo les indicaron que su modelo no fue mejor que la Z-Score de los trabajos de Altman et. al. para clasificar entre empresas sanas y fracasadas. Sin embargo, las diferencias en los porcentajes de error fueron consistentes con el estudio de Casey y Bartczak (1984) y de Gentry, Newbold y Whitford (1985), los cuales habían determinado que las bases de datos basadas en el efectivo, no mejoraban la capacidad predictiva global del modelo, aunque en la submuestra de empresas fracasadas observaron que si mejoró la exactitud predictiva cuando los modelos tuvieron únicamente como base al efectivo, o bien, se combinaron con variables tradicionales basadas en el devengo. 2.5.4. MODELO GENTRY, NEWBOLD Y WITFORD (1985a, 1985b). James Gentry, Paul Newbold y David Whitford, profesores de la Universidad de Illinois, al analizar el estudio de Ball y Foster (1982), les llamó la atención que éstos últimos en su revisión sobre los modelos de quiebras, habían visto que en general estos utilizaban un total empirismo para seleccionar a las variables independientes. Los dos estudios de Gentry et al., consistieron en verificar si un modelo con ratios basados en todos los conceptos de flujos de fondos (“cash-based funds flow”) podía clasificar mejor a las empresas quebradas y no quebradas, en lugar de utilizar sólo ratios basados en la contabilidad acumulativa (“accrual accounting”). Estos estudios se llevaron a cabo como complemento al estudio realizado anteriormente por Casey y Bartczack (1985) en donde únicamente utilizaron el cash flow operativo y cuyos resultados dejaron demostrado que éste no incrementó los resultados clasificatorios. El modelo utilizado por estos tres autores fue desarrollado inicialmente en 1972 por Helfert y su propósito inicial fue identificar la relevancia de las mediciones de flujos de fondos a través de la inclusión de ocho componentes de flujos de fondos netos que fueron: CUADRO 2.28. COMPONENTES DEL MODELO DE FLUJOS DE HELFERT 1. 2. 3. 4. Fondos de operacionales (capital circulante operativo o flujos de fondos netos operativos) Capital de trabajo (variaciones de saldos operativos del circulante) Dividendos financieros (actividades de financiación) Gastos fijos de cobertura (actividades de inversión) 5. 6. 7. 8. Gastos de capital (pago de intereses) Pago de Dividendos (gastos de capital) Otros flujos de activos y pasivos (variaciones) Cobros en efectivo y “marketable securities” (variaciones de tesorería). Fuente: Gentry, et al.. (1985) Con estos componentes se obtuvo un 83.33% de clasificación global correcta. Al comparar el cash flow operativo y las entradas y salidas de tesorería, observaron que en las empresas fracasadas los principales inflows previos al fracaso provenían de la rotación de cuentas por cobrar y los inventarios, lo cual constituía su principal fuente de liquidez que se utiliza para cubrir los altos gastos financieros ___________________________________________________Capítulo 2: Antecedentes Históricos 95 provocados por el sobre endeudamiento. Las interrelaciones de estos componentes fue muy compleja para ellos, y por tanto, trataron de traducirla en una ecuación (p.147). Para determinar si los componentes del flujo de fondos por sí mismos podían discriminar entre las dos submuestras de empresas, utilizaron el MDA, el Probit y el logit con el fin de examinar dicha capacidad de predicción de los componentes a partir de tres años previos a la quiebra. En el análisis de los valores medios de las 8 variables, se llevaron a cabo cálculos en 33 empresas fracasadas y 33 empresas sanas, mostrando importantes diferencias entre los dos grupos. Además, la submuestra de empresas fracasadas mostró una mayor desviación estándar. Los resultados del análisis Logit clasificaron correctamente el 83 % de las empresas un año previo a la quiebra cuando utilizaron datos “uni-anuales”; y en un 77 % cuando utilizaron la media de los datos durante un periodo de tres años. Posteriormente utilizaron una segunda muestra de empresas “débiles” y “sanas”, obteniendo una exactitud de clasificación del 72 % con la base de datos “uni-anual”; y un 74 % con la media de la base de datos “tri-anual” para el primer año previo a la quiebra. Estos resultados fueron consistentes con los de Casey y Bartzack (1984 1985). En 1985, Gentry et al. llevaron a cabo un segundo estudio y sustituyeron el capital de trabajo por 5 componentes incluidos en el flujo de fondos que fueron: cuentas por cobrar, inventarios, otros activos circulantes, cuentas por pagar, otros pasivos circulantes. Las medias de estos componentes mostraron una significativa diferencia entre las empresas sanas y las fracasadas. Por ejemplo, las cuentas por cobrar, los inventarios y los otros activos circulantes en general se comportaron como inflows en las empresas fracasadas y como outflows en las empresas sanas. Esto le sugirió que las empresas fracasadas tendían a liquidar sus activos circulantes para generar tesorería. En cambio, las empresas sanas tendían a invertir dichos activos. Los autores concluyeron que la adición de las variables de cash flow dentro del modelo y basándose en el devengo, daba resultados significativos que incrementan los resultados predictivos. Sin embargo, esta conclusión estaba basada únicamente en la significancia estadística global del modelo. Su muestra la obtuvieron del “Standar and Poor´s Compustat, Industrial Annual Research 1981”, durante el período 1970-1980. Para esto seleccionaron 114 empresas fracasadas, las cuales no necesariamente estaban quebradas. Dichas empresas frecuentemente dejaron de producir estados financieros uno o dos años antes del fracaso. Del total de empresas, 68 estaban en quiebra y 24 en liquidación. Posteriormente seleccionaron sólo a 92 empresas dentro del grupo de fracasadas. De las 92 empresas seleccionadas que se emparejaron posteriormente para formar la muestra de empresas sanas, sólo 33 presentaron información completa durante el primero, segundo y tercer año previo a la quiebra. De estas 21 eran del sector industrial y 12 de otros sectores. El Balance General y el estado de Resultados fueron los informes utilizados para determinar los componentes del flujo de fondos. Es importante señalar que los archivos del Compustat no indicaron con precisión la fecha del último reporte anual que fue realizado, pues únicamente mencionaba la fecha en que la quiebra fue declarada antes o después de que el Compustat recibiera el reporte anual. Aunque su estudio fue similar al de Casey y Bartczack, el de Gentry et al. se diferenció en dos aspectos básicos que fueron: a) los objetivos y b) el diseño experimental. Según los autores, Casey y Bartczack estaban sólo interesados en la capacidad clasificadora del cash flow operativo y por eso decidieron únicamente utilizar el flujo de fondos basado en el capital de ___________________________________________________Capítulo 2: Antecedentes Históricos 96 trabajo. En cambio, ellos utilizaron el modelo de flujos de fondos basado en el efectivo para identificar los componentes que midieran los resultados asociados con las principales decisiones financieras dentro de la empresa. La conclusión final de este trabajo fue que los componentes del flujo de fondos basados en el cash flow ofrecen una alternativa viable para clasificar a las empresas en sanas y no sanas. Esto contrasta con los resultados de Casey y Bartczack que llegaron a la conclusión de que el cash flow operativo no incrementaba la capacidad de dicha clasificación. En cuanto al análisis logit, sus resultados les indicaron que los componentes del flujo de fondos del dividendo eran una variable significativa para el modelo. Según ellos, esto tal vez se debió a las diferencias que hubo entre los dos estudios en cuanto al diseño de la investigación. Lo que nos lleva a pensar que aunque se utilicen similares bases de datos, el diseño experimental afecta directamente a los resultados dentro de los modelos predictivos. 2.5.5. MODELO TAKAHASI Y KUROKAWUA (JAPON, 1985). A partir de principios de la década de los setenta se iniciaron en Japón los primeros estudios predictivos en el “Nomura Research Institute” (1973), aunque también fueron precursores de la escuela japonesa investigadores tan importantes como: Toda (1974); Itoh (1977); Ohta (1978); Tamaka y Nakagi (1974); Murakami (1979); Igarashi (1979); Ozeki y Ohno (1980). Todos ellos utilizaron los modelos de predicción multivariable a través de funciones discriminantes a excepción de Tamaka y Nakagi que utilizaron el análisis de componentes principales y el análisis cluster. En general, todos estos estudios utilizaron muestras de empresas pequeñas y se caracterizaron por utilizar pocas variables independientes. Sin embargo, uno de los trabajos que más llamó la atención fue el de Takahashi y kurokawua (1985). Éste resultó interesante para nuestro análisis por la importancia y el enfoque que prestaba a las bases de datos contables a través de una proposición bien estructurada sobre el fracaso empresarial. Takahashi y kurokawua consideraron que el poder predictivo del análisis aumentaba si se utilizaban como variables tanto a los ratios como a las cantidades absolutas; basados ambos elementos en datos de estados financieros sobre la base de efectivo (“cash based”) a partir de tres años antes de la quiebra. También destacaban en su estudio los numerosos casos que se dan en Japón, donde los reportes de los auditores de las empresas quebradas muestran “excepciones” o “reservas” dado el importante efecto del window dressing que se presume existe en las bases de datos contables (op. cit. p. 231). A partir de esto Takahashi y kurokawua consideraron que dada la existencia de este fenómeno, se debían realizar ajustes a los estados financieros, pues pocos estudios lo habían intentado antes. También mantenían la idea de que el período óptimo para las bases de datos obtenidas en Japón debía ser de tres años pues resulta que aquí era raro el número de empresas que quebraban. Para la base de datos seleccionaron 75 ratios con datos financieros cuya base era acumulativa o de devengo, “accrual based” (61 ratios y 14 cantidades absolutas); y 54 índices con datos financieros cuya base fue el efectivo, “cash based” (45 ratios y 9 cantidades absolutas). Desde el punto de vista de Takahashi y kurokawua, se podían desarrollar diferentes tipos de modelos predictivos dependiendo sobre todo de qué tipo de datos provenientes de los estados financieros e índices utilizados. Como ejemplos citaban los siguientes cuatro puntos: a. Con datos no ajustados o datos ajustados que reflejen las salvedades, negación de opinión o las notas que aparecen en los informes del auditor. ___________________________________________________Capítulo 2: Antecedentes Históricos 97 b. Utilizando índices con datos financieros con base acumulativa (devengo) o con base de flujos de efectivo. c. Con valores de índices de tres años previos a la quiebra. d. Sólo utilizando ratios o una combinación de ratios con valores absolutos. Desde un enfoque teórico, para ellos la combinación de los anteriores puntos podía llegar a producir 16 tipos de modelos contables diferentes. Además, en adición a los 16 modelos, se podía desarrollar otra función discriminante que representará al modelo número 17, el cual utiliza ratios y cantidades absolutas derivadas de la base ajustada del acumulado y la base ajustada del efectivo durante tres años previos a la quiebra. Para cada uno de sus 17 modelos utilizaron 8 índices (24 variables), o bien, 24 índices que fueron seleccionados sobre la misma base que utilizaron para el análisis de componentes principales. Los autores, al analizar el trabajo de Altman y basados en la idea de sus 17 modelos, producto de las diferentes bases de datos que utilizaron en forma simple o combinada, concluyeron que Altman en realidad desarrolló diferentes tipos de modelos entre el período de 1968 a 1977. Según ellos, esto se dio al utilizar diferentes tipos de bases de datos de estados financieros para integrar sus ratios: primero calculándolos un año previo a la quiebra, y posteriormente extendiendo el período a más de un año previo a la quiebra. Además, observaron que Altman utilizó una parte de los datos de los estados financieros como cantidades absolutas para sus ratios. Sobre el tipo de contenido de las bases de datos, los autores recomendaron que se debía utilizar una con base de efectivo, pues a corto plazo era mejor para mostrar los flujos de fondos. Sin embargo, alertaron sobre los diferentes conceptos que existen sobre los fondos. Ellos, en este caso, utilizaron la definición del “APB Opinion” Nos. 3 y 9, que se refieren a los conceptos de “capital de trabajo” y “cash fund”. Además, al observar que el valor del ratio para las empresas fracasadas mostraba un comportamiento diferente cuando los conceptos utilizados eran diferentes, recomendaron utilizar los anteriores dos conceptos en el mismo modelo. Subrayaron que en general las instituciones financieras (y en particular los bancos) tienen una gran influencia sobre las empresas por los préstamos que les proporcionan. En el caso de Japón, esta influencia era más significativa e incluso en ocasiones se llega al caso de que era el banco quien determinaba si continuaba o no apoyando a ciertas empresas para que no quebrara. Desgraciadamente para ellos estos factores no se reflejaban en los datos de los estados financieros y apuntaban que también ante el efecto del window dressing existía la necesidad de intentar ajustar los datos financieros para reflejar las salvedades, la negación de la opinión o las notas del informe del auditor antes de aplicar el análisis discriminante, al menos en el caso particular de las empresas japonesas. Continuando con el análisis de la situación japonesa, los autores señalaban que cuando tratan de predecir una quiebra no creen que se pueda lograr solamente utilizando un único punto de corte o punto discriminante. Para ellos era mejor contar con más de un punto de corte, obteniendo desde el más “conservador” hasta el más “optimista”. En el caso de su estudio establecieron 6 puntos de corte para el modelo predictivo con el objetivo de proporcionar al usuario resultados predictivos plurales para formar su juicio final. Los puntos de corte que desarrollaron fueron los siguientes: ___________________________________________________Capítulo 2: Antecedentes Históricos 98 CUADRO 2.29. CUT OFF POINT SIGNIFICADO Ca Cb Cc Cd Ce Cf Este punto tiene una probabilidad global de mala clasificación (mínima), asumiendo que ambas poblaciones tienen una distribución normal. Este punto tiene ua probabilidad de error tipo I (clasificación de empresas fracasadas como no fracasadas que llegó al 11%), asumiendo que ambas poblaciones tienen una distribución normal. Este punto tiene ua probabilidad de error tipo I (clasificación de empresas fracasadas como no fracasadas que llegó al 5%), asumiendo que ambas poblaciones tienen una distribución normal. En este punto el número de empresas mal clasificadas fue mínimo. En este punto el número de empresas quebradas mal clasificadas, como no quebradas, fue cero. En este punto el número de empresas no fracasadas mal clasificadas como quebradas (error tipo II) llegó a cero. Fuente: Takahashi y kurokawua (1988). Al intentar determinar la variable dependiente de su modelo, partieron de la premisa de que en Japón existen dos tipos de empresas fracasadas: 1) un grupo con estructuras financieras negativas; y 2) el segundo grupo de empresas que tienen una pérdida de flujos de fondos. Para su muestra seleccionaron 72 empresas: 36 habían fracasado y las emparejaron con otras 36 empresas que estaban sanas. En cuanto a las fracasadas, estas quebraron antes de 1977. El período de análisis de este estudio fue de 1961 a 1977. Un elemento interesante que se observó en la selección de la muestra fue que en la selección de la submuestra de empresas fracasadas se establecieron varias clasificaciones con base en ciertos patrones en cada uno de los grupos, lo cual les dio como resultado dos tipos de métodos que a continuación explicamos. En el primer método, la empresa fracasada se podía clasificar en los siguientes tres grupos: Tipo A 1 = Tipo B1 = Tipo C1 = Empresas que tienen una mala estructura financiera (27 empresas fracasadas). Empresas que tienen una disminución en los flujos de fondos (9 empresas fracasadas). Empresas que no tienen mala estructura financiera, ni disminución en los flujos de fondos (3 empresas fracasadas). ___________________________________________________Capítulo 2: Antecedentes Históricos 99 El objetivo de esta clasificación consistía en excluir de la submuestra de empresas fracasadas a aquellas empresas que mostraron índices con datos financieros con extraordinarios valores. En cuanto al segundo método, también se establecieron tres grupos que fueron los siguientes: Empresas con mala posición financiera y con cambios de comportamiento en la serie temporal de los índices de datos financieros, donde el valor del índice para el primero y para el tercer año antes de la quiebra fue en ambos casos mayor con respecto al segundo año previo a la quiebra (28 empresas fracasadas). Empresas con mala posición financiera y con cambios en el comportamiento en las series temporales de los índices de datos financieros donde el valor del índice para el primero y tercer año previos a la quiebra, fue en ambos casos menor con respecto al segundo año antes de la quiebra (7 empresas fracasadas). Empresas cuya posición financiera no fue mala (4 empresas fracasadas). Tipo A 2 = Tipo B2 = Tipo C2 = Como variables independientes seleccionaron inicialmente 80 ratios basados en los siguientes dos criterios: 1. Verificar si cada uno de los ratios mostraba o no cambios significativos antes de la quiebra. 2. Verificar si cada ratio había dado o no buenos resultados en previos estudios. Posteriormente analizaron en los ratios: el valor de su nivel, tendencia, y comportamiento a partir de tres años previos a la quiebra. Al final únicamente utilizaron 6 ratios seleccionados de la lista original de los 80 ratios con base en: a) la determinación del coeficiente de correlación de cada ratio con respecto a la lista original; y b) La selección se llevó de acuerdo a las principales diferencias que mostraron los ratios entre los grupos de empresas fracasadas y sanas. CUADRO 2.30. VARIABLES INDEPENDIENTES (6 ÍNDICES 18 VARIABLES) UTILIZADOS PARA EL ANÁLISIS DE COMPONENTES PRINCIPALES 1. 2. 3. 4. 5. 6. Capital Contable / Activo Total Capital de Trabajo / Activo Total Gastos Financieros / Ventas Valor Añadido del Activo Total al principio del año. Cash flow Operativo / Activo Total al principio del año. Capital de Trabajo / Activo Total al principio del año. En el análisis de componentes principales sus resultados les indicaron dos importantes características que son peculiares en la muestra de empresas fracasadas que son las siguientes: La primera característica, y que frecuentemente no se toma en cuenta en la literatura sobre las quiebras empresariales, es que las empresas fracasadas pueden ser clasificadas dentro de dos grupos importantes que son: a) Aquellas empresas que sufren constantes problemas en su estructura financiera (Tipo A1 ). b) Aquellas empresas que sufren problemas en el flujo de fondos dentro de un período de tiempo relativamente corto (Tipo B1 ). La segunda característica se refiere a los cambios en las series temporales, los cuales cuando presentaron mejoras temporales, les indicaron que las empresas ocultan algunos de sus fracasos antes de la quiebra. Estos tipos de mejoras las clasificaron en dos importantes grupos que fueron: a) Aquellos que temporalmente muestran alguna mejora en su posición financiera durante el segundo año previo a la ___________________________________________________Capítulo 2: Antecedentes Históricos 100 quiebra y posteriormente se agrava su situación nuevamente (Tipo B2 ). b) Aquellos que temporalmente muestran alguna mejora en su posición financiera durante el primer año previo a la quiebra (Tipo A2 ). Las conclusiones finales de Takahashi y kurokawua fueron que los modelos 6 y 17 tuvieron relativamente una alta exactitud predictiva relacionada con los puntos de corte utilizados. También cada uno de los 17 modelos fue sujeto a un estudio comparativo para constatar si se observaba o no algún cambio significativo en la exactitud predictiva debido a: a) los diferentes componentes; b) los diferentes datos de los estados financieros; c) los diferentes números de años antes de la quiebra; y/o d) los diferentes tipos de índices financieros que se utilizaron. El estudio comparativo reveló los siguientes hechos importantes: 1. Los modelos predictivos que utilizaron datos de estados financieros ajustados tuvieron una mayor exactitud predictiva con respecto a aquellos que utilizaron datos no ajustados. 2. Los modelos predictivos que utilizaron índices cuya base fue la del devengo tuvieron una mayor exactitud predictiva con respecto a los que utilizaron la base de flujos de efectivo. 3. Los modelos predictivos que utilizaron datos de estados financieros tres años previos a la quiebra, tuvieron mayor exactitud predictiva con respecto a aquellos que sólo utilizaron datos de sólo un año previo al fracaso. 4. No existió una significativa diferencia de exactitud predictiva entre los modelos que sólo utilizaron ratios y aquellos que utilizaron además de ratios, cantidades absolutas. ___________________________________________________Capítulo 2: Antecedentes Históricos 101 2.6. MODELOS MULTIVARIABLES BASADOS EN EL ANALISIS FACTORIAL. El análisis factorial es otra técnica multivariable también muy importante. Ésta se enfoca a un problema que presentan los modelos multivariables cuando aplicando el MDA se origina la multicolinealidad, que es un fenómeno que dificulta las mediciones de las variables independientes. Con el análisis factorial se ayuda a limitar este problema entre los ratios y consiste en una serie de métodos de tipo estadístico cuyo objetivo es reducir un conjunto de variables. Las técnicas del análisis factorial tienen el objetivo común de reducir un conjunto dado de variables a un reducido número de factores hipotéticos basados sobre las relaciones de esas variables originales y que contienen aproximadamente igual cantidad de información. Los resultados son un número mínimo de factores que cuentan con más o toda la covariación observada de las variables originales. Es decir, capturan la mayoría de la información contenida en el conjunto de las variables originales pero que no estén relacionadas entre si. La variable original en principio debe ser la más cercana y relacionada con cada uno de los factores. Sin embargo, en ocasiones se elige a otra variable menos cercana al factor pero con mayor confiabilidad en los datos de cada uno de sus componentes. Jhonson (1970) ya había detectado el problema de las variables colineales en los estudios con análisis discriminantes y había advertido que se tenía que lograr que los ratios fueran necesariamente independientes entre ellos para aplicar el MDA. Para él, la utilización de múltiples ratios con alta correlación producía redundancia e inestabilidad dentro de los coeficientes de la función en las diferentes muestras y también generaba altos errores estándar para los coeficientes. En opinión de Horrigan (1965), la colinealidad presentaba problemas pero también oportunidades para el investigador. Consideraba que la colinealidad entre los ratios financieros daba más información que la contenida en un pequeño número de ratios; sin embrago, advertía que la selección de los ratios debería realizarse cuidadosamente para evitar los problemas de multicolianilidad. Aunque los estudios pioneros de la década de los sesenta y setenta intentaron limitar este fenómeno y capturar al mismo tiempo la mayor cantidad de información útil en los ratios financieros, tales métodos actualmente se han cuestionado. Por ejemplo, Atlman (1968) analizó las intercorrelaciones entre las variables independientes antes de seleccionar las variables finales de su modelo. El método que utilizó consistió sólo en analizar al mismo tiempo las correlaciones entre dos pares de variables. Este análisis bivariable de intercorrelaciones estaba muy lejos del actual concepto del análisis múltiple de correlaciones. Por otra parte, Edmister (1972), y Rose-Giroux (1984) fueron más lejos y utilizaron la técnica de selección “Stepwise” para determinar la contribución relativa de cada variable independiente y su correlación con otras variables del modelo. Sin embargo, el análisis “Stepwise” aunque limitó la multicolinealidad, el nivel de correlación aceptable se estableció arbitrariamente. En lo que respecta a los estudios más sobresalientes sobre el análisis factorial, aplicado a los ratios están los desarrollados por: Pinches y Mingo (1973), Libby (1975), Gombola y Ketz (1983),Gombola, Haskings, Ketz y Wiiliams (1987), Largay y Stickney (1980), Gahlon y Vigeland (1988), Dambolena y Shulman (1988), Azis y Lawson (1989). También el análisis factorial ha sido utilizado en una gran variedad de estudios contables que han sido de especial relevancia para los estudios de quiebra, como los desarrollados por Pinches, Mingo y Caruthers (1973, 1975) y de Chen y Shimerda (1981). Por otra parte, los trabajos de Gombola y Ketz (1983a); y de Casey y Bartczak (1985) han sido muy importantes para los estudios sobre la posición de tesorería y el cash flow dentro de los estudios predictivos. A continuación explicaremos en términos generales en qué consistieron estos trabajos. ___________________________________________________Capítulo 2: Antecedentes Históricos 102 2.6.1. MODELO PINCHES, MINGO y CARUTHERS (1973). Pinches, de la Universidad de Missouri, Mingo, y Caruthers, ambos de la Universidad de Oklahoma (1973), presentaron un trabajo cuyos objetivos fueron: a) desarrollar una trabajo empírico sobre las clasificaciones o taxonomía de los ratios financieros; b) medir la estabilidad de los factores a largo plazo durante un período de 18 años, así como los cambios de estas clasificaciones durante los períodos de: 1951, 1957, 1963 y 1969 11; c) obtener una clasificación de factores estadísticamente independientes con relación al gran número de ratios que existían en la literatura sobre el tema. Su trabajo examinó la significancia predictiva de los ratios financieros considerando la quiebra empresarial y los ratings de los bonos. Además, para el desarrollo de la investigación tomaron en cuenta aquellos estudios que habían tratado los temas sobre el efecto del tamaño, crecimiento y clasificación industrial de los ratios, con el fin de estructurar su investigación sobre la base de: la evidencia empírica, una taxonomía de los ratios y las mediciones contables de largo alcance durante los cuatro períodos ya mencionados. Utilizaron como metodología el análisis factorial con el fin de observar la reducción de las variables en un número reducido de factores. Éstos tenían la propiedad de retener la máxima cantidad de información, explicando la máxima varianza contenida en la matriz de datos originales. La base de datos se obtuvo del “Compustat Data Tapes” y estuvo conformada por 221 empresas industriales a las que se les aplicaron los 48 ratios financieros. Una transformación logarítmica se llevó a cabo en todos los ratios cuyos objetivos fueron: incrementar la normalidad, reducir los “outliers” o variables extremas e incrementar la homosteacidad de las distribuciones. El análisis factorial dio como resultado 7 grupos o factores que fueron diferentes con respecto a las numerosas clasificaciones que se habían realizado anteriormente “ad hoc” con ratios financieros. Aquí observaron que debido a su correlación, algunos ratios aparecían en más de un grupo. Los factores y los ratios de cada grupo fueron los que se muestran en el cuadro 2.31. Los 7 factores capturaron entre 87% y 92% del total de la información contenida en las variables originales a lo largo de los cuatro períodos. Estos resultados del análisis factorial les indicó a Pinches et al., que el factor No. 4 correspondiente al apalancamiento financiero, era el más estable. En cambio, la intensidad de capitales fue el factor menos estable a través de los años en términos de consistencia. Con respecto a los ratios más correlacionados con cada uno de sus respectivos factores se obtuvieron los del cuadro 2.32. Según los autores, los cambios en los patrones o convenciones financieras de las empresas industriales entre 1957-1969, se volvieron más aparentes cuando el promedio medio de los ratios financieros y los resultados del análisis factorial (“diferencial-R”) fueron analizados. Estos resultados les sugirieron que las tendencias a la baja en los factores: retorno de la inversión y posición de tesorería, habían sido muy consistentes en casi todas las empresas y que el incremento en el capital intensivo en las empresas industriales no había sido el mismo en todas ellas. Por otra parte, la intensidad de las cuentas por cobrar y la liquidez a corto plazo fue moderadamente estable en todos las empresas. 11 Como se ve esta base no fue continúa como en la mayoría de los otros estudios. ___________________________________________________Capítulo 2: Antecedentes Históricos 103 CUADRO 2.31. FACTOR RATIOS 2. Ingresos Totales / Ventas 27. Cash flow / Activo Total 28. Cash flow / Capital Contable 30. Ingresos Totales / Activo Total 31. Ingresos Netos / Activo Total 32. Ingresos Netos / Capital Contable 38. Beneficios antes Intereses e Imptos. / Activo Total 39. Beneficios antes Intereses e Imptos. / Ventas 43. Cash flow / Capital / Total 44. Ingresos Totales / Capital Total 1. 1. 2. 3. 9. 14. 18. 22. 34. 37. 39. 1. 45. Cash flow / Ventas Ingresos Totales / Ventas Ingresos Netos / Ventas Pasivo Circulante / Planta Neta (Activo Fijo material) Capital de Trabajo / Activo Total Activo Circulante / Activo Total Activo Rápido / Activo Total Activo Circulante / Ventas Capital Contable / Ventas Coste de Ventas / Inventarios Beneficios antes Intereses e Imptos. / Ventas Ventas / Planta Neta (Activo Fijo Material) Ventas / Capital Total 1 Retorno de la Inversión 2 Intensidad del capital 3 Intensidad del Inventario 9. Capital de Trabajo / Activo Total 14. Activo Circulante / Activo Total 22. Activo Circulante / Ventas 23. Inventario / Ventas 35. Ventas / Capital de Trabajo 37. Coste de Ventas / Inventario 6. Pasivo Total / Activo Fijo Material 7. Pasivo Total / Capital Total 8. Pasivo Total / Capital Contable 10. Activo Total / Capital Contable 47. Pasivo Total / Activo Total 48. Pasivo Total / Activo Total 11. Clientes / Inventarios 16. Inventarios / Activo Circulante 17. Inventarios / Capital de Trabajo 20. Clientes / Ventas 24. Activos Rápidos / Ventas 5. Pasivo Circulante / Capital Contable 15. Activo Circulante / Pasivo Circulante 17. Inventarios / Capital de Trabajo 19. Activos Rápidos / Pasivo Circulante 46. Activo Circulante / Activo Total 12. Efectivo / Activo Total 13. Efectivo / Pasivo Circulante 21. Efectivo / Ventas 25. Activos Rápidos / Gastos en Efectivo 26. Efectivo / Gastos en Efectivo 4 Apalancamiento Financiero 5 Intensidad de Clientes 6 Liquidez a Corto Plazo 7 Cash Position ___________________________________________________Capítulo 2: Antecedentes Históricos 104 CUADRO 2.32. Factor 1: Factor 2: Factor 3: Factor 4: Factor 5: Factor 6: Factor 7: Ingresos Netos / Capital Contable Ventas / Activo Total Inventarios / Ventas Pasivo Total / Capital Total Clientes / Inventarios Activo Circulante / Pasivo Circulante Efectivo / Gastos en Efectivo Su análisis concluyó que se tenían que identificar tres patrones separados que eran: la intensidad del capital, la intensidad del inventario y la intensidad en las cuentas por cobrar. También la posición de tesorería debía tratarse como una categoría o patrón separado de la liquidez a corto plazo. Con respecto a los resultados de su análisis factorial, “diferencial-R”, éste les indicó que los patrones de apalancamiento financiero, el retorno de la inversión y la posición de tesorería, presentaban cambios más grandes entre 1951 y 1969. Al aplicar el procedimiento multivariable se concluyó que los patrones de los factores compuestos por ratios financieros en las empresas industriales correspondientes a los siete ya citados. También detectaron que los patrones se mantuvieron estables durante los cuatro períodos. En cambio, el retorno de la inversión y el posición de tesorería presentaron la tendencia más significativa a la baja durante 1951 y 1969. Por otra parte, el apalancamiento financiero tuvo una amplia tendencia a la alza; la intensidad de las cuentas por cobrar tuvo una modesta tendencia a la alza; y la intensidad del capital presentó una tendencia a la alza muy inestable. Por último, la intensidad de los inventarios y la liquidez a corto plazo tuvieron una tendencia completamente baja en casi todas las empresas industriales. Con base en lo anterior, consideraron que las clasificaciones de los ratios financieros se podían determinar a través de resultados empíricos, y que la composición de estos grupos o factores eran razonablemente estables a lo largo del tiempo, aunque las magnitudes de los ratios presentasen cambios. Su trabajo ha sido uno de los más importantes sobre el análisis factorial, pues durante la década de los setenta fueron muy pocos los trabajos serios, como el de Libby (1975), que aplicaron este análisis antes de seleccionar a las variables independientes. Pinches, Mingo y Caruthers obtuvieron siete factores para su modelo que fueron los siguientes: CUADRO 2.33. 1. 2. 3. 4. 5. 6. 7. TIPO DE VARIABLE Retorno de la Inversión Intensidad del Capital Intensidad de Inventarios Posición de Endeudamiento Intensidad de Deudores Liquidez a Corto Plazo Posición de Tesorería FACTOR Rentabilidad Rotación Rotación Endeudamiento Rotación Liquidez Cash flow A lo largo de los cuatro años analizados, los factores lograron capturar el 91%, 92%, 87% y el 92% de la información incluida en las matrices originales. La correlación intertemporal de cada uno de los ___________________________________________________Capítulo 2: Antecedentes Históricos 105 factores fue alta. Esto les indicó una estabilidad de los factores a lo largo del período analizado; siendo el factor de posición de endeudamiento el más estable de los siete. Para las variables independientes se basaron en la teoría financiera tradicional y definieron tres factores de rotación (intensidad de capital, intensidad de inventarios e intensidad de deudores). Posteriormente, los dos últimos factores fueron comprimidos en uno sólo. En cambio, el de intensidad de capital incluyó ratios tanto de composición de activos como de rotación. Esto les llevó a incluir otro factor más en el modelo. Los ratios de margen sobre ventas (resultado neto / ventas), cash flow tradicional / deuda total y resultado neto / deuda total, se habían venido utilizando en otros estudios como factores independientes. Sin embargo, en este trabajo no se clasificaron de forma específica en ninguno de los siete factores preseleccionados. Esta investigación aportó dos conclusiones importantes en términos generales para los modelos predictivos, y en términos particulares para aquellos modelos que utilizaban bases de datos basadas en el efectivo, y fueron: 1. La posición de tesorería fue un factor separado y distinto del factor de liquidez a corto plazo. 2. Las variables de cash flow, como las basadas en ingresos, tuvieron un peso más fuerte dentro del factor retorno de la inversión. Esto pudo deberse al hecho de que el cash flow fue definido como ingresos netos más depreciaciones, ingresos extraordinarios y otros gastos. Actualmente el cash flow es un concepto diferente, y al asociarlo con el retorno de la inversión, puede indicar la capacidad a largo plazo para cubrir las operaciones de la empresa. Es decir, las medidas de cash flow pueden asociarse al concepto de solvencia que también es un buen predictor dentro del modelo. 2.6.1.1. MODELO PINCHES, EUBANK, MINGO y CARUTHERS (1975). En este estudio trataron de obtener una clasificación jerárquica de los ratios para analizar las interrelaciones entre los factores. Pinches et al. opinaban que no se tenía un buen conocimiento de las similitudes empíricas entre el gran conjunto de ratios propuestos en la literatura especializada. Los factores propuestos en su trabajo de 1973 habían comenzado a ser considerados de fácil interpretación contable. Por eso, en su estudio de 1975, propusieron la selección de los ratios con base a categorías únicas que tenían que combinarse con el conocimiento de la capacidad descriptiva y predictiva de cada ratio para optimizar la utilidad de los estados financieros. En este estudio también se analizaron los mismos 48 ratios para determinar la estabilidad de los mismos 7 factores, aunque en el corto plazo, durante el período de 1966-1969. Con respecto a la metodología, ésta fue la misma del estudio de 1973, en donde la importancia de cada ratio individual con respecto a cada uno de los factores fue calculada para saber cual era su peso específico dentro de dicho factor. También esto se llevó a cabo para observar las asociaciones producidas por los cambios en los patrones financieros de las empresas industriales entre el ratio y el factor durante los periodos de tiempo establecidos. Lo anterior representó una novedad ya en 1973, pues normalmente las bases de datos eran continuas y cada ratio se clasificaba “per se”, dentro de un factor sin llevar a cabo este análisis. ___________________________________________________Capítulo 2: Antecedentes Históricos 106 Al aplicar un análisis factorial del tipo “High-Order” sobre el total de los factores, éstos fueron reducidos a un segundo grupo de sólo tres factores que fueron: a) retorno del capital invertido; b) liquidez global (compuesta de los factores originales del retorno del capital, liquidez a corto plazo, y los factores de posición de tesorería); y c) volumen del capital a corto plazo (compuestos de los factores originales de inventarios y volumen de ventas). Finalmente, sólo 8 de los 48 ratios originales no dieron un gran peso en ninguno de los factores. Lo que más les llamó la atención de estos resultados negativos fue el comportamiento del ratio capital de trabajo / activo total y del ratio cash flow / pasivo total. Éste último había sido el mejor predictor de Beaver(1966), y los dos en su conjunto también habían sido importantes en los estudios de Beaver (1966), Altman (1968) y Deakin (1972). Este hecho les llevó a la conclusión de que las actividades medidas con estos ratios no habían sido correctamente calculadas, o bien, dichas actividades eran diferentes y tenían cada una su propia medida, y por lo tanto, no estaban asociadas con otros ratios. Con base a lo anterior, determinaron que los ratios que habían sido útiles en previos estudios no deberían eliminarse simplemente porque no tuvieran un peso importante dentro de alguno de los factores seleccionados, ya que podían contener información única y representar un factor más dentro del modelo. Además, también advirtieron que debería explicarse con base en qué fundamento teórico se seleccionaban cada uno de los factores y se elegían cierta cantidad de ellos. 2.6.2. MODELO CHEN-SHIMERDA (1981). Kung Chen y Thomas Shimerda (1981) realizaron un análisis comparativo de cinco importantes estudios que habían utilizado el análisis factorial. Su idea partía de que era muy importante aplicar primero un análisis factorial en el modelo. Además, sugirieron que los ratios que se utilizaran deberían tener una base teórica bien fundamentada para posteriormente tratar de demostrar su capacidad empírica. Con estas premisas se propusieron superar el problema sobre cuáles eran los ratios que, de forma fácil y rápida en su cálculo, indicarían en términos globales la situación de la empresa. Al analizar otros importantes estudios (ver cuadro 2.3.4.), observaron que no existía una teoría para la selección de los ratios o sobre cual debería ser el grupo de los más eficientes. También, apuntaban que existía un gran problema de correlación que se había presentado en los ratios utilizados en previos estudios. CUADRO 2.34. REDUCCION DE RATIOS A TRAVÉS DEL ABALISIS FACTORIAL INVESTIGACION No. DE VARIABLES No. DE FACTORES % DE REDUCCION Pinches y Mingo (1973) Pinches, Mingo y Caruthers (1973) Stevens (1973) Libby (1975) Pinches, Eubank, Mingo y Caruthers (1975) Fuente: Chen y Shimerda (1981) 35 48 20 14 48 7 7 6 5 7 80 85 70 64 85 Para Chen y Shimerda, la redundancia informativa no era posible eliminarla a través de un simple análisis exploratorio, sino que se requería utilizar técnicas estadísticas. Para esto primero trataron de llevar a cabo una homogeneización de los factores obtenidos en los otros estudios. Esto les llevó a establecer 12 factores que fueron los siguientes: ___________________________________________________Capítulo 2: Antecedentes Históricos 107 CUADRO 2.35. 1. 2. 3. 4. 5. 6. Posición de activos Actividad Rentabilidad Liquidez Posición de Tesorería Liquidez a corto plazo 7. 8. 9. 10. 11. 12. Intensidad de deudores Intensidad de Inventarios Retorno de la inversión Intensidad de capital a corto plazo Intensidad de capital a largo plazo Posición de endeudamiento Posteriormente, seleccionaron 100 ratios de 26 investigaciones importantes anteriores a 1981 para clasificarlos dentro de los 12 factores. Sus resultados les indicaron que los factores, aunque tenían nombres diferentes, no aportaban mayores diferencias teóricas con respecto a los 7 factores propuestos por Pinches et al. (1973). Al reducir el número de ratios a 34, trataron de clasificarlos en los siete factores. El resultado fue que 10 ratios no fue posible clasificarlos en ningún factor, destacando dos ratios que en estudios anteriores habían dado excelentes resultados (cash flow tradicional / pasivo total) y beneficios retenidos /activo total). También observaron que cada ratio financiero que había sido utilizado en los anteriores estudios predictivos, podía ser clasificado en un reducido número de factores. Sin embargo, los autores indicaron que su trabajo no resolvía el problema sobre cual ratio podía representar mejor a cada factor, ya que aunque ciertos ratios contenían alguna información en común con otros ratios, también el ratio en particular tenía una información que le era única. Por consiguiente, los ratios incluidos en el modelo tenían que ser seleccionados con base en su mayor capacidad para capturar la información común de: a) sus respectivos factores, b) de su grupo y c) de su mayor contenido de información única con respecto al conjunto de los otros ratios. Esta importante conclusión que llevaron a cabo Chen y Shimerda, se debió a que en la práctica el ratio que se seleccionaba para representar al factor dentro del modelo, era aquel que únicamente solía tener más peso dentro del grupo, sin considerar erróneamente los otros dos criterios. 2.6.3. MODELO GOMBOLA Y KETZ (1983). El estudio de Michel Gombola y Edward Ketz (1983) partió de la idea de que los ratios basados en el cash flow operativo originaban un factor independiente nuevo con respecto a los siete propuestos por Pinches et al. (1973), y que habían sido confirmados posteriormente a través del trabajo de Chen y Shimerda (1981). El primer propósito de su estudio fue valorar el impacto de las mediciones del cash flow sobre los patrones de clasificación de los ratios financieros. También investigaron el impacto de los ratios que utilizaban el nivel general de precios, comparando sus patrones con los de aquellos ratios basados en costes históricos. Partiendo de que la rentabilidad difiere conceptualmente del cash flow, Gombola y Ketz opinaban que se debían considerar entonces dos factores por separado. Lev (1969) ya había desarrollado tempranamente el concepto de la descomposición de las mediciones contables de acuerdo a la teoría de la información. Ambos estudios concluyeron que, la mayor diferencia entre estos trabajos y otros anteriores fue que los patrones de clasificación (factores) para los ratios financieros “mentían” en la identificación de las mediciones de cash flow, al considerarlos como dimensiones separadas de los resultados de la empresa (ingresos netos más depreciaciones y amortizaciones). Para los autores, el cash flow debía ser medido como rentas en efectivo (ingresos en tesorería menos gastos en efectivo de operaciones). Por otra parte, decían que los ratios de cash flow se debían de clasificar como un factor distinto, pues éste factor separado no se capturaba por ningún otro grupo de ratios (incluyendo a los ratios rentabilidad). Sus resultados les confirmaron las distintas diferencias entre las medidas de rentabilidad y las de cash flow, así como la validez para separar los objetivos entre el estado de cambios en la posición financiera (“cash basis”) y el estado de resultados. ___________________________________________________Capítulo 2: Antecedentes Históricos 108 Anterior a los estudios de Gombola y Ketz (1983), el cash flow se entendía como los ingresos netos más la depreciación. Así, los ratios de cash flow se asociaban muchas veces con los ratios de “retorno” o “rotación”. Sin embargo, en su estudio el cash flow se trató de definir mejor y consideraron a los ingresos netos de todas las acumulaciones y aplazamientos. Para estos investigadores el entender las relaciones empíricas a través de los ratios era un requisito previo para desarrollar algunos sistemas que clasificasen a los ratios financieros. Según ellos, cuando diferentes usuarios emplean un gran número de subconjuntos de ratios financieros para un mismo propósito, no existía ningún problema. Pero si los diferentes ratios financieros se utilizaban para diferentes estudios, la comparación de los resultados era muy compleja. Pinches, Mingo y Caruthers (1973) ya habían desarrollado antes, con base en hechos empíricos, un sistema de clasificación para los ratios financieros durante los años 1951, 1957, 1963 y 1969. Como ya apuntamos, utilizaron el análisis factorial y examinaron 48 ratios financieros en una muestra de 221 empresas, encontrando siete grupos de factores de ratios que fueron: 1) Retorno de la Inversión; 2) Intensidad del Capital; 3) Intensidad del Inventario; 4) Apalancamiento Financiero; 5) Intensidad de las Cuentas por Cobrar; 6)Liquidez a Corto Plazo; y 7) Posición de Efectivo (Cash Position). Algunos otros estudios, como los de Pinches (1975) y Chen y Shimerda (1981), habían también producido resultados similares. Desde el punto de vista de Gombola y Ketz, los ratios de rentabilidad (tales como los ingresos netos / activo total e ingresos netos / capital contable) estaban estrechamente asociados con el factor de retorno de la inversión. Sin embargo, algunos ratios como el cash flow / activo total y el cash flow / capital contable, podían indicar a través de sus resultados, que las medidas de rentabilidad y las medidas de cash flow capturaban la misma característica o magnitud de los resultados de la empresa. Para los autores, este descubrimiento podía llevar a pensar que las medidas de la rentabilidad contable indicaban resultados operativos que incluían medidas de cash flow y significaban solvencia y flexibilidad financiera. Sin embargo, el FASB había aclarado que la rentabilidad y el flujo de fondos eran términos diferentes. Gombola y Ketz ya habían observado que los estudios de Pinches, Mingo y Caruthers(1973) y Pinches (1975) se habían enfocado a observar las diferencias entre los ratios de rentabilidad y los ratios de cash flow. En éstos como en otros tantos estudios, la suma de los ingresos netos más las depreciaciones se utilizaron como un sustituto del concepto actual del cash flow dentro de los diferentes componentes de los ratios. Con respecto al estado de cambios en la posición financiera, se percataron que era más frecuente que se preparase sobre la base del capital de trabajo. Para ellos este reporte financiero indicaba que los usuarios necesitaban más información acerca de los “cash inflows” y de los “cash outflows”. Además, examinaron si el capital de trabajo operativo proveía información que no era captada por los ingresos netos o el cash flow operacional. En cuanto a la metodología utilizada, aplicaron el análisis factorial a los ratios considerando la experiencia de Harman H.H. (1976) y Tatsuoka M.M. (1971). El análisis factorial se aplicó a los tres conjuntos de 41 ratios para cada año, durante un período de 19 años (1962-1980), realizándose un total de 57 análisis. El estudio incluyó ratios que utilizaron el concepto del cash flow tradicional (ingresos netos más depreciación) y otros conjuntos de ratios que utilizaron al capital de trabajo operativo y al cash flow operativo. Este último concepto fue calculado como: ingresos netos ajustados para todas las partidas que no fueron de tesorería (“no-cash”) y cambios en el capital de trabajo que tampoco incluyeran a la ___________________________________________________Capítulo 2: Antecedentes Históricos 109 tesorería. Los cálculos para el reporte de los ingresos, el cash flow y la situación financiera de las empresas se llevaron de acuerdo con los criterios del FASB (Exposure Draft: 1981). 2.6.3.1. GOMBOLA Y KETZ (1983b). En un segundo estudio, Gombola y Ketz calcularon siete medidas de flujo de activos que fueron: ingresos netos, ingresos netos de operación, ingresos netos más depreciación, ingresos netos de operación más depreciación, capital de trabajo de operaciones, "Quick flow from operation" y cash flow de operaciones. Con estos 7 factores realizaron un análisis de 597 empresas durante el período de 1960-1977. Los factores: 3, 4, 5 y 6, mostraron medias similares que fueron más altas con respecto a los factores 1 y 2. El factor 7 dio un valor medio más bajo en comparación con los otros dos grupos de medidas de flujos de activo. Los autores pensaron que estos resultados proporcionaban indicadores preliminares en cuanto a que el cash flow podía diferir de los ingresos netos más las depreciaciones y del capital de trabajo operativo. Si los anteriores resultados eran validos, entonces se podía asegurar que era incorrecto referirnos al ingreso neto más depreciación como sinónimo del cash flow, o bien, que el contenido del Estado de Flujo de fondos basado sobre capital de trabajo contuviera la misma información que un estado de flujo de tesorería (op. cit. p. 68). Gombola y Kentz obtuvieron importantes resultados empíricos para apoyar lo anterior, al calcular una matriz de correlación para las 7 medidas. Los factores: 1,2,3,4 y 5, fueron todos altamente correlativos (por arriba del .85). Los factores 6 y 7 mostraron mucho menos correlación que las otras cinco medidas de flujo. Sin embargo, estuvieron correlacionadas con cada una de ellas en un .86. Esto les sugirió que los ingresos netos más la depreciación y el capital de trabajo operativo podían no proporcionar un análisis con mucho más información con respecto a los ingresos netos (p. 69). Además de la alta correlación con los ingresos netos, los resultados les indicaron que el factor 3 y 5 eran los más utilizados como sustitutos del cash flow y podían presentar las mejores clasificaciones como una medida de ganancia, pero no de liquidez. Las variables de mayor interés para estos autores fueron: los ingresos netos; los ingresos netos más las depreciaciones, amortizaciones y agotamiento (deflación); el cash flow operativo y el capital de trabajo operativo. Este último concepto lo consideraron igual a los ingresos netos más (o menos) los siguientes componentes: a) gastos de depreciación, amortización y agotamiento de intangibles y cargos diferidos; b) amortización de cuentas por pagar; y c) amortización de créditos diferidos. ___________________________________________________Capítulo 2: Antecedentes Históricos 110 El cash flow operativo se consideró, igual al capital de trabajo operativo, más (o menos) los siguientes componentes: ADICIONES SUBSTRACCIONES Disminuciones en las cuentas por cobrar Disminución en el inventario. Incremento en las cuentas por pagar; Incremento en los pasivos acumulados. Incremento en las cuentas por cobrar. Incremento en el inventario. Disminución en las cuentas por pagar. Disminución en los pasivos acumulados. El capital de trabajo operativo se basó en el “APB Opinion” No. 19 emitido en 1971 (anterior a este documento se determinaba de acuerdo a los anteriores componentes descritos). En cambio, a partir de esta normativa el cash flow operativo se comenzó a determinar ajustando el capital de trabajo operativo a través de los cambios en el activo y pasivo circulante, exceptuando las cuentas de tesorería. Para la elaboración y racionalización de estos conceptos, Gombola y Ketz tomaron las ideas de los estudios de Largay y Stickney (1980), así como las conclusiones a las que habían llegado en sus anteriores trabajos (1981 y 1982). En estos últimos artículos habían incluido ejemplos de los reportes anuales actuales que mostraban como se debían realizar los cálculos correspondientes. Como variables independientes utilizaron cuarenta ratios financieros, sin aplicarles ninguna transformación logarítmica por las siguientes tres razones: 1. El análisis factorial no implicaba ningún supuesto distribucional, por tanto, las transformaciones no eran necesarias. 2. Este estudio no consistía en un modelo de decisión, por lo que no existía ninguna especificación sobre la forma de la variable. 3. Aunque era deseable tener variables con distribución normalizada, no estaba aún claro que alguna transformación ayudara a alcanzar el objetivo (Deakin, 1976). Los cuarenta ratios se calcularon sobre las siguientes bases contables: 1. Costes históricos. 2. Nivel general de precios: considerando el nivel adquisitivo ganado o perdido (“purchasing power”). 3. Considerando el poder adquisitivo ganado o perdido, el cual sí se había incluido en los ingresos. Esto se debió a que en ese momento existía un serio debate dentro de la profesión contable sobre si el poder adquisitivo se tenía que incluir o no. 4. La estimación la llevaron a cabo utilizando el modelo de Parker (1977) 12. Al final de su trabajo que duró un año, determinaron 8 factores que fueron los siguientes: 12 Parker J.E. (1977): “Impact of Price Level Accounting”; The Accounting Review; January; p. 69-96. ___________________________________________________Capítulo 2: Antecedentes Históricos 111 CUADRO 2.37. FACTORES 1. 2. 3. 4. Retorno de la Inversión. Posición de Tesorería. Intensidad del Inventario. Intensidad del Capital. 5. 6. 7. 8. Intensidad de los Clientes. Liquidez a Corto Plazo. Estructura de la Deuda. Cash flow Operativo. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. RATIOS ORIGINALES Efectivo / Pasivo Circulante 21. Pasivo a Largo Plazo / Activo Total Efectivo / Ventas 22. Ingresos Netos / Capital Contable Efectivo / Activo Total 23. Ingresos Netos Ventas Efectivo / Pasivo Total 24. Ingresos Netos / Activos Totales Cash flow / Capital Contable 25. Ingresos Netos + Depreciaciones / Capital Contable Cash flow / Ventas 26. Ingresos Netos + Depreciaciones / Ventas Cash flow / Activo Total 27. Ingresos Netos + Depreciaciones / Activo Total Cash flow / Pasivo Total 28. Ingresos Netos + Depreciaciones / Pasivo Total Coste de Ventas / Inventarios 29. Activos Rápidos / Pasivo Circulante Coste de Ventas / Ventas 30. Activos Rápidos / Ventas Activo Circulante / Pasivo Circulante 31. Activos Rápidos / Activo Total Activo Circulante / Ventas 32. Clientes / Inventarios Activo Circulante / Activo Total 33. Clientes / Ventas Pasivo Circulante / Pasivo Total 34. Pasivo Total / Ventas Beneficios antes Intereses e Imptos. / Capital Contable 35. Capital de Trabajo / Ventas Beneficios antes Intereses e Imptos. / Ventas 36. Capital de Trabajo / Activo Total Beneficios antes Intereses e Imptos. / Activo Total 37. Capital de Trabajo Operativo / Capital Contable Inventarios / Activos Circulantes 38. Capital de Trabajo Operativo / Ventas Inventarios / Ventas 39. Capital de Trabajo Operativo / Activo Total Inventarios / Capital de Trabajo 40. Capital de Trabajo Operativo / Pasivo Total * Al traducirse este artículo, el término “equity” significa desde un punto de vista contable el patrimonio neto; es el valor de una sociedad descontando todos los gravamenes. Es decir, son los fondos propios o el capital contable de una mercantil (capital escriturado). Desde un punto de vista de la sociedad o empresa, es el capital social (acciones ordinarias). Siete de estos factores coincidieron con otros estudios, como los de Johnson W.B. (1979) y Short (1978). Sin embargo, algunos de los 40 ratios no fue posible clasificarlos en ninguno de los ocho factores. Esto les indicó que una vez aplicado el análisis factorial, se obtienen ciertos factores en donde algunos ratios no es posible integrarlos (“eigen value”). Sus resultados les sugirieron que existía una alta correlación entre los ingresos netos más la depreciación y el capital de trabajo (al obtenerse un rango de .941 a .986). Es decir, se trataba del mismo factor. También se presentó una correlación similar entre los ingresos netos más la depreciación menos el cash flow y el capital de trabajo operativo menos el cash flow. Por ejemplo: al dividir el capital contable o el activo total, las correlaciones fueron moderadas (.587 a .698). Sin embargo, cuando se dividió por las ventas o el pasivo total, las correlaciones tendieron a ser más altas (.781 a .840). Los patrones de los ratios financieros entre el conjunto de datos de costes históricos y nivel general de precios, fue muy similar. Desde nuestro punto de vista, esto pudo deberse a que existía una baja tasa inflacionaria. Por eso Gombola y Ketz apuntaron que si cambian las condiciones económicas (inflación, productividad, crecimiento, tasas de interés, etc.) o las diferentes convenciones contables, entonces los resultados del análisis factorial también cambiarán. También estos resultados les sugirieron que los ratios basados en datos contables ajustados a niveles generales de precios, estaban muy correlacionados con aquellos ratios basados en datos históricos. Esto reforzaba la tesis de que cuando se utiliza un sistema contable actualizado, aunque la mayoría de los índices se modifican, la importancia relativa de éstos permanece estable. Gombola et al. observaron que al utilizar el concepto tradicional de cash flow, éste se incluía en el numerador del ratio y en el factor de rentabilidad. Sin embargo, notaron que dicho concepto no contenía información real sobre los flujos de tesorería. Por eso su trabajo se enfocó principalmente a investigar como influían las mediciones correctas de cash flow en las tendencias de los grupos de ___________________________________________________Capítulo 2: Antecedentes Históricos 112 ratios. Para ellos el término de cash flow se integraba de cuatro conceptos fundamentales que eran: Resultado Neto, Resultado Neto más Amortizaciones, Capital Circulante Operativo y Cash flow Operativo Aquí los resultados les indicaron que existía una alta correlación entre las tres primeras medidas durante los años 1960 y 1977. En cambio, la correlación estadística del cash flow operativo con respecto a las demás medidas fue baja: del .659 con el capital circulante operativo; del .606 con el resultado neto más amortizaciones; y del .497 con el resultado neto. La idea de utilizar una base de datos a lo largo de 18 años fue para comprobar la estabilidad temporal de los factores seleccionados. De estos, ocho mostraron cierta estabilidad y siete fueron muy similares a los utilizados en el estudio de Pinches et. al. (1973), siendo el único factor diferente el del cash flow operativo. Este hecho, aunque fue sorprendente en ese momento, posteriormente otros estudios confirmaron su valor como factor independiente dadas las nuevas tendencias contables que se institucionalizaron para el cálculo de esta magnitud. Gombola y Ketz advirtieron que el cash flow tradicional y el capital circulante operativo en realidad no eran ratios que pertenecieran al factor de cash flow, sino que estos eran del grupo o factor de la rentabilidad. Esto llevó a que se considerase una nueva propuesta o replanteamiento sobre el análisis de la solvencia. Sus conclusiones finales sugirieron que los ratios de cash flow podían contener cierta información que no se encontraba en los ratios de rentabilidad. Por lo tanto, los ratios de cash flow no deberían excluirse en los estudios descriptivos y predictivos que involucraran ratios financieros. También analizaron el impacto de la definición de los ratios de cash flow sobre los patrones de clasificación. Aquí vieron que se podía estudiar esas clasificaciones a través de los ajustes a los ratios financieros por el nivel general de precios, ya que dicho nivel mostraba patrones dentro del factor muy similares a los patrones que muestran los ratios de coste histórico. Es decir, incluían la presencia por separado del factor cash flow. Sus estudios aunque no proporcionaron por si mismos ninguna información acerca del poder predictivo o descriptivo de los ratios financieros o sus grupos, sí dieron una base teórica para distinguir conceptos tan importantes y diferentes como la rentabilidad y el cash flow. Por eso estos autores subrayaron que su modelo no era de decisión ni de análisis de comportamiento para la toma de decisiones, sino que era un análisis de patrones de clasificación para los ratios financieros que proporcionaba una ayuda para seleccionar a las variables independientes potenciales que se utilizaban en los modelos de decisión y en el análisis del comportamiento. 2.6.4. MODELO GOMBOLA, HASKINS, KETZ Y WILLIAMS (1987). El estudio de Michel Gombola, Mark Haskins, Edward Ketz y David Williams (1987) fue importante por sus aportaciones a los modelos basados en el análisis factorial. Este proporcionó más evidencia en contra de la verdadera utilidad del cash flow operativo para predecir una quiebra. Aquí los autores continuaron desarrollando el estudio de Gombola y Ketz (1983), que examinó el comportamiento a través del tiempo, de los ratios basados en el cash flow operativo. En esta ocasión seleccionaron 21 variables independientes que aplicaron a una base de datos contable cuyo período global fue de 1967-1981. La base de este modelo estuvo integrada por 6 ratios basados en el devengo. Éstos habían mostrado un peso significativo en cada uno de los seis factores que se obtuvieron a través del análisis factorial. Posteriormente, incluyeron en el conjunto de las variables a los mismos grupos de ratios basados en los ingresos netos más las depreciaciones, el capital de trabajo operativo y el cash flow operativo. Los ratios basados en el cash flow operativo mostraron diferentes e importantes medidas. ___________________________________________________Capítulo 2: Antecedentes Históricos 113 También diseñaron tres modelos para cada uno de los años previos a la quiebra e incluyeron los siguientes ratios: cash flow operativo / activo total; ingresos netos más depreciación / activo total; y capital de trabajo operativo / activo total. La base de datos comprendió tres períodos que fueron: 1967-1972, 1973-1981 y el período completo: 1967-1981. Luego se aplicó por separado un análisis factorial para cada uno de los períodos de tiempo. Los resultados de los modelos MDA que se diseñaron para cada uno de los cuatro años previos a la quiebra, indicaron que la inclusión del ratio de cash flow operativo (cash flow operativo / pasivo total), aunque tenía un gran peso dentro del factor de cash flow, podía no incrementar la exactitud de clasificación del modelo. En cuanto a los resultados del factorial, éstos indicaron que los factores no eran estables a través del tiempo. En el primer período: 1967-1972, el factorial no separó al cash flow. Los ratios de cash flow operativo, ingresos netos más depreciaciones y capital de trabajo operativo, se clasificaron dentro de los factores de rotación de activos y rotación de ventas. Durante el segundo período: 1973-1981, el análisis factorial dio un nuevo factor para el cash flow. Este factor contenía únicamente a ratios basados en el cash flow operativo y estos ratios no se clasificaron en ningún otro factor. Los anteriores resultados sugirieron que en los últimos años, los ratios basados en el cash flow operativo contenían información única que no era captada por los ingresos netos más la depreciación o el capital de trabajo operativo. Esto lo atribuyeron al hecho de los nuevos estándares contables que se habían establecido durante la década de los setenta. Al analizar varios ejemplos sobre los componentes que afectaban a los ingresos netos pero no al cash flow, Gombola et al. advirtieron que el efecto de los nuevos estándares disminuyó la correlación entre las ganancias y el cash flow. Con base en esto, destacaron la debilidad que tuvieron los primeros estudios que basaron sus resultados en el concepto del cash flow tradicional, pues indicaron que si el cash flow operativo y el cash flow tradicional hubieran estado altamente correlacionados en los primeros años, los estudios predictivos hubieran tal vez tenido validez a lo largo del tiempo. Sin embargo, notaron que los resultados no se podían generalizar a lo largo del tiempo. Por otra parte, opinaban que si el cash flow operativo era un buen predictor, esto se debía a partir de mediados de los setenta y no antes, dadas las nuevas disposiciones del FASB. Sus resultados les indicaron que el cash flow operativo / activo total fue significativo en un .10 para el tercer y cuarto año previo a la quiebra del primer período y para el primer año previo a la quiebra del segundo período. Con respecto al período completo, este mismo ratio fue significativo únicamente en un .05 para el tercer año previo a la quiebra. Esto les sugirió a los autores que esta variable era inconsistente en su significancia, y que su inclusión no incrementaba la exactitud de clasificación de los modelos. Por último, Gombola et al. concluyeron que el cash flow operativo aunque era un factor de información independiente, no tenía un importante poder predictivo dentro del modelo. 2.7. EL MODELO DE REDES NEURONALES DE GIANCARLO Y VARETTO (ITALIA, 1993). En 1993 Marco Giancarlo y Franco Varetto, de la Central de Balances de Turín, realizaron un trabajo empírico en el que utilizaron redes neuronales. Este trabajo lo dividieron en cuatro partes cuyos objetivos consistieron en lo siguiente: ___________________________________________________Capítulo 2: Antecedentes Históricos 114 1. Verificar la capacidad de las redes neuronales para reproducir los valores numéricos de los Z-Scores que se obtienen a través del análisis discriminante lineal. 2. Verificar la capacidad de las redes neuronales para separar las muestras entre empresas sanas y empresas en quiebra. 3. Determinar los cambios de los resultados de las empresas a través del tiempo, ya que las funciones discriminantes tienen un problema de “sensibilidad” sobre dichos cambios. 4. Verificar la capacidad de las redes neuronales para no separar a las empresas en dos categorías como se hacía tradicionalmente, sino en tres categorías: “empresas sanas”, “empresas vulnerables” y “empresas inestables”. Para Giancarlo y Varetto las redes neuronales no representaban una teoría matemática exacta y clara en comparación con las técnicas estadísticas tradicionales. Sin embargo, y a pesar de estas limitaciones, subrayaron la importancia de que una de las partes integrales de su proyecto consistía en probar nuevas metodologías de análisis para las empresas crediticias a través de construir y mantener una base de datos específica que incluyera compañías con problemas financieros. Esto con el objetivo de desarrollar investigaciones mediante procesos dinámicos (en tiempo real) de quiebras y fracasos. En su trabajo también se destacaba el reto por crear modelos específicos para cada sector, pues la investigación se centraba en un modelo que trataba por separado a las empresas de tres sectores: el industrial, el comercial y el de la construcción. Consideraron como un punto básico que el modelo era un “sistema de diagnóstico” que sólo debía tomar en cuenta a empresas del mismo tamaño. En este caso ellos sólo consideraron a empresas medianas y pequeñas, excluyendo de la muestra aquellas que tuvieran ventas superiores a 60 millones de dólares durante el período de 1985-1992. La muestra fue seleccionada de una población total anual de 37 mil compañías. El método de las redes neuronales consistía en interconectar un gran número de unidades con otras, para ver si son capaces de dar resultados que son relativamente fáciles de calcular. Es decir, la idea se basaba en observar como un gran número de unidades interactuan entre si. Para ellos, el análisis de los resultados de las empresas presentan problemas cuyo origen está en la teoría tradicional financiera y esto imposibilitaba el completar un modelo específico. Por eso los autores opinaban que las investigaciones tenían que adoptar una forma funcional comúnmente lineal predefinida que relacionara a variables endógenas y exógenas. Por otra parte, apuntaban que las redes neuronales no requerían una previa especificación de una forma funcional lineal, ni la adopción de supuestos restrictivos acerca de las características de las distribuciones estadísticas de las variables y errores del modelo. Es decir, las redes daban la posibilidad de trabajar con variables imprecisas, cambiando los modelos a través del tiempo para que fueran capaces estos de adaptarse gradualmente a cada nuevo caso que se presentara. Para la unidad temporal, la estimación no se inició un año previo a la quiebra, sino dos años previos a que la empresa fuera clasificada como fracasada. Según ellos, esto obedeció a que las empresas transitan, entre el procedimiento concursal y la suspensión de pagos, un tiempo mayor a un año con respecto al momento de su declaración fiscal. Con respecto a la muestra y a los modelos discriminantes, consideraron que éstos últimos tenían sólo una modesta exactitud “ex-post” cuando utilizan muestras grandes de empresas sanas. También reconocieron la dificultad para clasificar y discriminar muestras compuestas de empresas “vulnerables” y “enfermas”, ya que la utilización de una sofisticada metodología estadística bayesiana no incrementaba la exactitud para integrar los grupos. Sin embargo, apuntaron que otro camino para mejorar el sistema de muestreo consistía en realizar una serie de etapas pragmáticas para llegar a ___________________________________________________Capítulo 2: Antecedentes Históricos 115 obtener las dos submuestras, advirtiendo que estos métodos no podían ser consistentes para todos los casos pues eran únicos para cada estudio y para cada base de datos. Como ya se apuntó anteriormente, para obtener la variable dependiente separaron a las empresas en tres categorías: “sanas”, “vulnerables” y “poco estables”. Al final consideraron que el término “poco estable” era el que se debía considerar como fracaso empresarial, y así lo hicieron seleccionando 213 empresas con esta situación. Posteriormente, a estas empresas fracasadas las emparejaron con otra submuestra de empresas sanas. Ambas submuestras fueron elegidas entre un total de mil empresas cuyas bases de datos estaban integradas en la Central de Balances de Turín y cuya unidad temporal comprendió el período de 1982-1992. Los sectores a los que pertenecían las empresas muestreadas eran: el industrial, el comercial, de la construcción y el detallista (comercio al menudeo). Cabe resaltar que por la importancia que mostraron los italianos con respecto a las bases de datos, la Central de Balances de Turín fue establecida en 1983 por el banco de Italia, la Asociación Bancaria Italiana y otros bancos e instituciones de crédito. Los autores trabajaron con especial interés para coadyuvar en el proyecto para la integración del Sistema Informático, Económico y Financiero de esta nueva institución cuyo producto principal sería precisamente el proveer a los bancos de bases de datos contables, que se utilizasen como herramienta para identificar a empresas con problemas financieros. Sin embargo, hasta 1993 esta institución sólo agrupaba a 37 empresas que proporcionaban información sobre sus estados financieros. A partir de los criterios establecidos para la variable dependiente, los autores incluyeron en su primera función (F1 ) “un espacio de clasificación” más amplio que tenía cinco zonas: 1. 2. 3. 4. 5. Empresas con alta seguridad. Empresas seguras. Empresas con incertidumbre (entre seguras y vulnerables). Empresas vulnerables. Empresas muy vulnerables. En su segunda función (F2 ) establecieron otros cinco tipos de zonas o espacios clasificatorios que fueron: empresas con alta vulnerabilidad, empresas vulnerables, empresas con incertidumbre (entre vulnerables y con riesgo), empresas con riesgo y empresas con alto riesgo de quiebra. Una novedad en el estudio de estos investigadores consistió en probar por primera vez un método alternativo al análisis discriminante cuya aplicación estuviera basada en la inteligencia artificial, a través de las redes neuronales. Sus resultados les confirmaron que este sistema da un diagnóstico automático y puede ser utilizado para preseleccionar negocios que deban examinarse posteriormente con más profundidad para otorgarles créditos. En cuanto al mayor problema que encontraron en su investigación, destacó la existencia de un inaceptable tipo de comportamiento dentro de la red. La frecuencia de tipos de comportamientos ilógicos dentro del juicio del análisis financiero creció con el incremento en la complejidad de la arquitectura de la red. Sólo las redes neuronales muy simples limitaban la probabilidad de resultados inaceptables. Sin embargo, los autores sugirieron como una alternativa, el integrar redes y funciones discriminantes para tratar problemas complejos de clasificación aprovechando la flexibilidad y la capacidad de estructuración simple que tienen las redes. Los resultados obtenidos mostraron que un año previo a la quiebra se llegó a una exactitud del 92.6 % para las empresas fracasadas. De acuerdo con esto, los autores consideraron que las redes neuronales permitían al analista obtener una capacidad para aproximarse a un indicador con valor numérico para discriminar funciones y en ocasiones poder clasificar con más exactitud que el análisis discriminante lineal, a grupos de empresas sanas y no sanas. Un año previo a la quiebra se obtuvo una exactitud del ___________________________________________________Capítulo 2: Antecedentes Históricos 116 87.6 % para las empresas fracasadas. Según los autores, con estos resultados se podían sacar las siguientes conclusiones: 1. Las redes neuronales proporcionaban al analista la capacidad para aproximarse a un valor numérico (indicadores) para discriminar funciones entre grupos de empresas sanas y no sanas, e incluso con mayor exactitud que el análisis discriminante múltiple. 2. Este sistema tenía un poder predictivo considerable y era flexible, sin embargo se requerían numerosas pruebas para obtener la estructura de las redes. 3. Existía la posibilidad de obtener un comportamiento ilógico de las redes dadas las diferentes variaciones de los “input-valores”. Esto constituyó para ellos un serio problema desde un punto de vista financiero, y por lo tanto, recomendaron utilizar en paralelo tanto el MDA como las redes neuronales. Giancarlo y Varetto concluyeron que aunque este sistema tenía un poder predictivo considerable y era flexible, se requerían numerosas pruebas para obtener la estructura de las redes neuronales. Además, también existía la posibilidad de obtener resultados con un comportamiento ilógico dadas las diferentes variaciones de los “input-valores”. Esto desde un punto de vista financiero representaba un serio problema. Por eso reconocieron la necesidad de utilizar simultáneamente el análisis discriminante múltiple y el método de redes neuronales. El análisis final sobre esta primera parte del trabajo indica el desacuerdo extraordinario que existe hasta la fecha sobre los modelos predictivos en general, pero sobre todo en lo particular cuando analizamos cada uno de sus componentes desde un enfoque conceptual y técnico. Así lo podemos ver en el siguiente cuadro en cuanto a la muestra, el sector que tiende a no definirse de forma específica, la unidad temporal y el número de ratios utilizados. ___________________________________________________Capítulo 2: Antecedentes Históricos 117 CUADRO 2.3.8. CUADRO COMPARATIVO ENTRE LOS CRITERIOS PARA SELECCIONAR ALGUNOS ELEMENTOS DEL MODELO PREDICTIVO AUTOR Fitzpatrick Merwin Winakor, Smith Beaver (1966) Altman (1968) Baida, Riveiro Swason, Tybout Pascale Deakin Edmister Blum Ohlson Rose, Giroux Zavgren Dambolena, Khory Casey Casey, Bartczak Takahashi, Kurokawua Pinches et. al. (1973) Gombola, Ketz (1983) MUESTRA DE EMPRESAS: Sanas (s) Fracasadas(f) 19 (s) 19 (f) 183 (f) 939 79 (s) 79(f) 33(s) 33(f) 23(f) no específica 44 (s) 44(f) 32 (s) 32(f) 21 (s) 21(f) 115(s) 115(f) 2058(s) 105(f) 46(s) 46(f) 45(s) 45(f) 34(s) 34(f) 15(s) 15(f) 220(s) 60(s) 36(s) 36(f) 221 597 SECTOR UNIDAD TEMPORAL (AÑOS) 9 9 10 10 19 3 8 5 6 3 8 no específica no específica 6 8 5 12 16 18 18 NO DE RATIOS UTILIZADOS no específica no específica no específica industrial manufactura, industrial textil, mobiliario, metalurgía, papel, etc manufactura manufactura no específica no específica industrial no específica no específica manufactura manufactura detallista bancario no específica no específica industrial no específica no específica no específica no específica 30 22 22 16 13 30 19 12 9 130 no específica 17 6 9 75 48 40 Fuente: Elaboración Propia. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 118 CAPITULO 3 LA ESTRUCTURACION DE LAS BASES DE DATOS Y EL WINDOW DRESSING 3.1. EL EFECTO WINDOW DRESSING Y SU REPERCUSION EN LA UTILIDAD DEL SISTEMA CONTABLE. En los modelos predictivos, normalmente cuando no existen bases de datos fiables no es posible obtener resultados fiables. Sin embargo, este error se pasa por alto cuando no se toma en cuenta que en la contabilidad de las empresas se presentan diversos grados de distorsión, tanto en los conceptos como en las cifras, lo cual provoca que la información financiera pierda parte de su utilidad. Desde un enfoque normativo, la contabilidad es una técnica que sirve para registrar todas las transacciones identificables y cuantificables que lleva a cabo una empresa expresada en unidades monetarias de forma sistemática, cronológica y estructurada, con la finalidad de producir informes financieros que nos indiquen los resultados económicos en un período de tiempo y el estado de la situación financiera a una fecha determinada para la posterior toma de decisiones sobre la financiación, inversión, riesgo y política de dividendos de la empresa. También desde un enfoque macroeconómico, la contabilidad sirve para trasmitir información económica y financiera a otras entidades, y junto con el sistema de precios, compone un sistema de información integral empresarial dirigido a usuarios internos y externos. En cuanto al sistema de precios, cuya base es la teoría microeconómica, éste se desarrolla en una entidad para cumplir tres funciones fundamentales que, según Friedman (1980), son: * La transmisión de la información. * La aportación de estímulos para adoptar los métodos menos costosos, y * La determinación sobre quién obtiene las distintas cantidades del producto o distribución de la renta. Con base en lo anterior y para una correcta toma de decisiones, es necesario desarrollar un sistema de información integral empresarial basado principalmente en el sistema contable. Sin embargo, desde el enfoque de la contabilidad positiva, en el contexto interno y externo de la empresa existen variables que constantemente distorsionan la utilidad y confiabilidad de la información contable y del sistema de precios. En el caso particular del sistema contable, el efecto window dressing o contabilidad creativa, que consiste en una serie de técnicas para manipular la contabilidad, éste se ha convertido en uno de los principales y más complejos problemas internos de distorsión del sistema integral de información. Además, su efecto negativo aumenta al interactuar con las variables más importantes del contexto externo: la inflación, la devaluación de la moneda y la variación en las tasas de interés, entre otras. También otros problemas muy importantes, y que son independientes del contexto interno de la empresa, son originados por la excesiva heterogeneidad de la terminología y el desacuerdo en las cuantificaciones contables. Ambos elementos constituyen una clara muestra de la todavía deficiente estructura básica de la teoría contable, que impide que a su vez se le utilice como una base de datos fiable en muchos de los modelos predictivos. Dentro de la práctica contable, es sabido que muchas de las transacciones comerciales y financieras varían en su complejidad, dependiendo del grado de dificultad para obtener la información cualitativa y cuantitativa. En el caso de la empresa moderna, la observación inmediata del fenómeno medido no es tan ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 119 fácil en muchas de sus operaciones y entonces la información cuantitativa resulta compleja1. Por desgracia, al revisar innumerables trabajos sobre el fracaso empresarial se ha observado la escasa atención que se presta a este tema a la hora de contrastar la fiabilidad de las bases de datos contables. Según Stevens (1982), esto se debe a que los principales usuarios del sistema contable, aunque perciben su subjetividad, erróneamente se han convencido de que la contabilidad refleja con exactitud la situación real de un negocio al utilizar números detallados y formatos ordenados de clasificación e interpretación basados en principios y normas2. En cambio el experto contable al ir desarrollando su trabajo, se encuentra en repetidas ocasiones con serias limitaciones, ambigüedades y contradicciones en sus métodos e instrumentos de trabajo que le impiden certificar la utilidad y fiabilidad de los estados financieros, y por lo tanto, sólo suele dar una opinión (positiva, negativa o incluso llegar hasta la abstención de ésta) a través de los dictámenes o informes de la auditoría interna y externa. Con respecto a la producción de la información contable, ésta es total responsabilidad de la empresa para llevar a cabo la elaboración de estados o informes financieros de carácter general (contabilidad financiera) y de carácter analítico (contabilidad de gestión o costes). Ambas contabilidades deben orientarse con base a los Principios de Contabilidad Generalmente Aceptados (PCGA) y a sus reglas particulares bajo un criterio prudencial para garantizar las características más importantes que exigen al sistema contable las normas y procedimientos de auditoría generalmente aceptados. Sin embargo, en la práctica la opinión limitada del auditor únicamente tiene alcance en cuanto a la razonabilidad de las cifras y algunas clasificaciones de los estados financieros y económicos de la empresa. Esta limitación en gran parte se debe a la utilización cada vez más frecuente del efecto window dressing, que como se apuntó anteriormente, ha venido a agravar aún más el conocimiento financiero y económico real de la empresa moderna3. Un método para tratar de dar solución al anterior problema surge a partir del estudio y comparación entre las categorías que forman la estructura ideal y básica sobre las que se fundamenta la teoría contable, y que se ha denominado “contabilidad normativa”. Por otra parte, es importante considerar otro criterio, que se refiere a los conceptos y técnicas más populares sobre las que se desarrolla la técnica contable, y es el enfoque de la “contabilidad positiva”, y en particular el efecto window dressing que impide obtener información útil, confiable y veraz. Ambos elementos se comentan en los siguientes incisos. 3.1.1. ESTRUCTURA CONCEPTUAL Y CATEGORIAS BASICAS DE LA TECNICA CONTABLE. Partiendo desde el enfoque de la contabilidad normativa, en la mayoría de los países de economías abiertas, actualmente la estructura de la teoría contable está compuesta por varias clases de conceptos ordenados de acuerdo a una jerarquía general decreciente, encaminada a mejorar el sistema integral de 1 De no existir el concepto intangible, tal vez la técnica contable sería menos ambigua. Sin embargo, dada la existencia de un importante contenido de derechos y obligaciones de la empresa, que tienen la característica de intangibilidad y sumado a la flexibilidad que dan los principios contables, las transacciones de las empresas deben ser traducidas en términos monetarios que incluyan expectativas y posibilidades de declive o éxito. Al reducirse esto a números, dan origen al denominado efecto window dressing. El problema aumenta si consideramos que el dinero líquido y su correspondiente principio de unidad monetaria, representan un factor que contiene un amplio grado de intangibilidad para su valoración en su definición conceptual. 2 Actualmente hay que considerar a los investigadores y académicos como importantes usuarios del sistema contable, pues requieren continuamente bases de datos de ratios y estados financieros para desarrollar sus modelos empíricos. 3 Existen otras variables endógenas que también dificultan el conocimiento real de la empresa, por ejemplo, actualmente son todavía limitados los principios para orientar al técnico sobre la contabilización de las complejas transacciones de productos derivados. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 120 información financiera, que el Instituto Mexicano de Contadores Públicos (IMCP), siguiendo las directrices del International Accounting Standars Comite (IASC)4, ha clasificado así: * Principios de Contabilidad Generalmente Aceptados (PCGA). * Reglas Particulares de los PCGA. * El Criterio Prudencial en la aplicación de las reglas particulares de los PCGA. Los Principios de Contabilidad Generalmente Aceptados (PCGA) son definidos por el IMCP como “guías de acción” a las que se les adjudica poder explicativo y de predicción, y no “verdades fundamentales o absolutas”. Otra definición emitida por el mismo IMCP nos dice que son “conceptos básicos que establecen la delimitación e identificación de lo económico; las bases de cuantificación de las operaciones; y la presentación de la información financiera cuantitativa por medio de los estados financieros” (op.cit., p.15-27). Los PCGA son aplicables a la hora de transformar datos en información, para posteriormente presentar ésta de forma adecuada. Pero al evaluar la teoría contable nos encontramos con que hay diferentes corrientes teóricas que por sus enfoques, metodologías y criterios, hacen que la contabilidad de cada una de las empresas sea sustancialmente distinta entre sí, aunque dichas empresas pertenezcan al mismo sector y dimensión. Otro fenómeno importante que impide alcanzar la armonización contable se debe a la orientación que se da a la información financiera entre los diversos países. En algunos se dirige principalmente a las necesidades del inversor; en otros países el sistema contable se enfoca a los acreedores y proveedores; y por último, también se diseña para cumplir con políticas macroeconómicas del gobierno, tales como el nivel de crecimiento y el fortalecimiento del sistema tributario. Aunque a corto plazo es difícil imaginar cualquier tipo de estandarización a escala mundial, también es importante recordar que el objetivo principal que buscan por el momento los organismos promotores de la contabilidad internacional, es eliminar las diferencias innecesarias entre los contables de diversos países. Poblano (1994: p.12) opina que si consideramos a la contabilidad como el lenguaje más eficaz para los negocios, en tanto forma de comunicación, este lenguaje debería intentar “hablar” en términos más universales para lograr consolidar un sistema contable mundial que promueva una mayor eficiencia en las empresas. Esto significa evitar costes de traducción e interpretación de estados financieros, reducir costes en la consolidación de transacciones en moneda extranjera y determinar con más claridad la participación de la empresa matriz. Desde un punto de vista más optimista, algunos analistas consideran que la internacionalización de la contabilidad es ya un hecho, propiciado por el actual proceso de globalización económica e integración de los países en grandes bloques de poder económico y financiero, como por ejemplo la Unión Europea o el Tratado de Libre Comercio de Norteamérica. También existe la hipótesis de que las oportunidades de importación y exportación, que refuerzan más las relaciones comerciales internacionales, es otro hecho evidente que produce criterios contables más estandarizados e información financiera más homogénea que es exigida por los accionistas para sus análisis de inversión y financiación en el extranjero. 4 La Comisión de Normas Internacionales de Contabilidad (IASC) se creó en junio de 1973, teniendo como fundadores a los siguientes países: Alemania (Institut der Wirtschaftsprüfer in Deutschland e Wiirtschaftsprüferkammer), Australia (Institute of Chartered Accountans in Australia), Canadá (Canadian Institute of Chartered Accountans), Estados Unidos (American Institute of Certified Public Accountans), Francia (Ordre des Experts Comptables et des Comptables Agréés), Holanda (Nerderlands Institut van Registeraccountans), Irlanda (Institute of Chartered Accountans in Ireland), Japón (Japanese Institute of Certified Public Accounts), México (Instituto Mexicano de Contadores Públicos) y Reino Unido (Institute of Chartered Accountans in England and Wales, Institute of Chartered Accountans in Scotland, Association of Certified Accountans). ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 121 Sin embargo, pese al largo camino recorrido desde principios de siglo hasta nuestros días, es un hecho que predomina la opinión de que aún existen serias diferencias en algunas partidas y clasificaciones que es preciso eliminar a través de la experiencia acumulada por la profesión contable, para obtener realmente un sistema de información financiera armónico. (Ver Cuadro 3.1.) CUADRO No. 3.1. SITUACION TEMPORAL DE LA CONTADURIA INTERNACIONAL EN EL DESARROLLO CONTABLE EPOCA DE LA INOCENCIA No existían normas contables. Mientras los registros estuvieran al corriente y los balances fueran “correctos”, no había motivo de discusión. Se inician los cuestionamientos a los contadores acerca de la divergencia en cuanto al ejercicio de la práctica contable y la falta de realismo. Algunas normas fueron improvisadas para regular algunas situaciones que parecían obsoletas. Se da la necesidad de los principios contables. EPOCA DE LA IMPROVISACION EPOCA DE LA UNIFORMIDAD Se intenta evitar el exceso de tecnicismos en los reportes financieros pues llegan a ser incomprensibles a los usuarios de la información. Se propone uniformar las prácticas contables. Los pronunciamientos profesionales son discutidos y ya no se aceptan de manera pasiva. EPOCA DE LA INFLACION En los setenta, la inflación destruye las premisas y tradiciones de la contabilidad y surgen las contabilidades nacionalistas, en donde cada país o grupo de estos, otorgan sus diferentes criterios respecto al impacto de la inflación en la información financiera. EPOCA DE LA INTERVENCION Entre mediados de la década de los setenta hasta finales de los ochenta, Organismos internacionales e instituciones reguladoras intervienen en el desarrollo de las normas contables. EPOCA DE LA INTEGRACION A partir de los noventa a la fecha, se desarrolla un proceso de integración en cuanto a las normas, donde participan las instituciones de profesionales nacionales e internacionales, el gobierno y las empresas, para producir información más confiable y oportuna. EPOCA DE LA INNOVACION Se espera que para el siglo XXI, después de alcanzarse cierto nivel de integración a nivel continental y mundial, todo el potencial de investigación y experiencia profesional, permitirán desarrollar y evaluar nuevos métodos de información. Según esta clasificación, la contabilidad financiera esta actualmente localizada entre las épocas de intervención - integración. Respecto a la Contabilidad Internacional, quiza se encuentre entre las épocas de Uniformidad - Inflación. FUENTE: Poblano Herrera Magdalena (1994): “Contaduría Internacional: Reto de la Investigación para el Profesional en Contaduría del siglo XXI”; Edit. IMCP; México, pp. 82-83. Basado en el artículo de Dean Athol S. Carrignton (1977): “Accounting Standars and the Profession”; V.K. Zimmerman, Illinois; USA, pp.41-46. En el caso de México, la estructura e institucionalización moderna de la profesión contable se inició realmente en la década de los setenta, consolidándose durante la década de los ochenta. Actualmente son nueve los principios fundamentales para producir y presentar la información financiera en el país y existen cuatro series de boletines en donde se explica el marco conceptual del sistema contable, que son: * Boletines Serie A: Principios Contables Básicos. * Boletines Serie B: Principios Relativos a Estados Financieros en General. * Boletines Serie C: Principios aplicables a Partidas y Conceptos Específicos. * Boletines Serie D: Problemas Especiales para Determinación de Resultados. * Circulares de la Comisión de Principios de Contabilidad. De los nueve principios contables básicos que se aplican en México, tres de éstos sirven para delimitar a la entidad y a sus aspectos financieros, y son: ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 122 El principio de entidad, que está dirigido a identificar a la unidad empresarial que persigue fines económicos particulares y es independiente de otras entidades, es decir, la personalidad del negocio es independiente con respecto a los accionistas. El principio de realización, que nos dice que la contabilidad cuantifica en términos monetarios las operaciones y eventos económicos que realiza la entidad, y son: cuando ha llevado a cabo transacciones con otras entidades; cuando se han llevado a cabo transformaciones internas que modifican la estructura de recursos y fuentes; o cuando ocurren eventos económicos externos a la entidad pero que son derivados de sus operaciones y pueden cuantificarse razonablemente en términos monetarios. En el caso de la Unión Europea se aplica el principio de “registro”, el cual dice que los hechos económicos deben registrarse cuando nazcan los derechos u obligaciones que los mismos originen. El principio de período contable: se refiere a dividir la vida de la empresa en períodos convencionales por la necesidad de conocer sus resultados de operación y la situación financiera de la entidad (aunque ésta tenga existencia continua). En este principio, el IMCP recomienda en términos generales, que los costes y gastos deben identificarse con el ingreso que lo originaron, independientemente de la fecha en que se paguen, es decir, es la base del devengo que es el principal elemento del efecto window dressing. En Europa recibe el nombre de “principio de devengo”, y establece que la imputación de los ingresos y gastos dentro de un período deberá respetarse siempre, salvo cuando se autoricen por disposición legal, rectificaciones al mismo. En este caso deberá facilitarse cumplida información en la memoria. En un segundo grupo, hay tres principios que sirven para establecer la base para cuantificar las operaciones de la entidad y su presentación, y son: El principio de valor histórico original: nos indica que las transacciones deben registrarse según las cantidades de efectivo que se afecten o la estimación razonable que de estas cantidades se haga al momento en que se consideren realizados contablemente. Sin embargo, las cifras deberán ser modificadas aplicando métodos de ajuste en forma sistemática cuando se den fenómenos que hagan perder su significado. En la Unión Europea (UE) se le denomina: “principio del precio de adquisición”, y establece que como norma general todos los bienes y derechos se tienen que contabilizar a su precio de adquisición (precio de venta) o coste de producción (precio de coste). Este principio se debe respetar siempre, salvo cuando se autoricen por disposición legal rectificaciones al mismo. En este caso debe incluirse el motivo en la memoria. El principio de negocio en marcha: se fundamenta en la existencia permanente de la entidad y dice que las cifras deben estar expresadas en sus valores históricos o en sus modificaciones obtenidas sistemáticamente. También las cifras pueden expresarse en valores de liquidación cuando la entidad esté en ese proceso. En la UE se conoce como “principio de empresa en funcionamiento o gestión continuada”, y establece que la gestión de la empresa tiene prácticamente una duración ilimitada. Esto determina que los principios contables no vayan dirigidos a determinar el valor del patrimonio a efectos de enajenación global o parcial, ni al importe resultante en caso de liquidación. Este es el principal principio que interviene en un modelo de fracaso empresarial, pues a partir de su aplicación se pueden derivar tres clases de valores: el contable, el del mercado y el de liquidación. El principio de dualidad económica: se refiere a la doble dimensión de la representación contable de la entidad (sus recursos y fuentes) para relacionar y comparar su estructura con la de otras entidades manteniendo la igualdad aritmética de cargos y abonos. En la UE el principio de que más se ajusta, aunque no de forma precisa es el de “correlación de ingresos y gastos”. Este principio establece que el resultado del ejercicio estará constituido por los ingresos menos los gastos de dicho período. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 123 El principio de la revelación suficiente sirve para la presentación de la información financiera e indica que la información contable presentada en los estados financieros debe estar expresada de forma clara y comprensible para la toma de decisiones. Su equivalente en la UE es el “principio de la no compensación”, el cual establece que en ningún caso podrán compensarse las partidas de activo y del pasivo, así como las de gastos y ganancias. También establece que se valorarán separadamente los elementos integrantes de las distintas partidas del activo y pasivo. Todo lo anterior tiene el objetivo de alcanzar en la presentación de estados financieros la revelación suficiente para la toma de desiciones. Por último, se han establecido dos principios que tratan sobre las clasificaciones antes descritas y que operan como requisitos generales para la calidad del sistema contable y son: El principio de importancia relativa: indica que se tiene que mostrar los aspectos relevantes de la entidad susceptibles de ser cuantificados en términos monetarios, equilibrando el detalle y multiplicidad de los datos con los requisitos de utilidad y finalidad de la información. Con el mismo nombre en la UE, este principio indica que se podrá admitir la “no aplicación” estricta de algunos principios contables, siempre y cuando, la importancia relativa en términos cuantitativos de la variación que tal hecho produzca, sea escasamente significativa, y en consecuencia, no altere las cuentas anuales como expresión de la “imagen fiel” del patrimonio, la situación financiera y los resultados de la compañía. En caso de contradicciones entre los principios, debe prevalecer el que mejor refleje la realidad de la empresa. Por este hecho, algunos contables consideran que este principio tiene un carácter preferente sobre los otros, aunque también se admite que es uno de los argumentos más negativos para justificar el window dressing. El principio de consistencia: nos dice que para los usos de la información contable es necesario seguir procedimientos de cuantificación que permanezcan en el tiempo, es decir, la información debe ser obtenida mediante la aplicación continua de todos los principios y reglas particulares de cuantificación. Su equivalente en la UE es el “principio de uniformidad” , el cual establece que hay que mantener y aplicar los principios en el tiempo, en tanto no se alteren los supuestos que motivaron la elección de estos criterios. En cuanto a la flexibilidad que tienen los PCGA es importante recordar que en caso de presentarse un cambio que afecte a la comparación de la información financiera, se puede romper uno o varios de los anteriores principios, siendo necesario advertirlo claramente en la memoria o notas a los estados financieros. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 124 CUADRO No. 3.2. CUADRO COMPARATIVO ENTRE LOS PRINCIPIOS APLICADOS EN MÉXICO Y LOS APLICADOS EN LA COMUNIDAD EUROPEA CONCEPTO I PRINCIPIOS PARA DELIMITAR A LA ENTIDAD Y A SUS ASPECTOS FINANCIEROS II PRINCIPIOS QUE ESTABLECEN LA BASE PARA CUANTIFICAR LAS OPERACIONES DE LA ENTIDAD Y SU PRESENTACION FECHA DE ENTRADA EN VIGOR EN MÉXICO 1-IX-1975 1-X-1975 1-X-1975 NOMBRE DEL PRINCIPIO EN MÉXICO NOMBRE DEL PRINCIPIO EQUIVALENTE EN ESPAÑA (MISMOS DE LA U.E.) 1. *** 2.REGISTRO 3. DEVENGO 1. ENTIDAD 2. REALIZACION 3. PERIODO CONTABLE De Dic. de 1985 a la fecha se han emitido 5 adecuaciones al B-10 por la Inflación. 1-VII-1974 4. VALOR HISTÓRICO ORIGINAL 5. NEGOCIO EN MARCHA 6. DUALIDAD ECONÓMICA 4.PRECIO DE ADQUISICION 5. GESTIÓN CONTINUADA O EMPRESA EN FUNCIONAMIENTO 6. CORRELACION DE INGRESOS Y GASTOS III PRINCIPIO QUE SE REFIERE A LA INFORMACIÓN IV PRINCIPIOS QUE ABARCAN LAS CLASIFICACIONES ANTERIORES COMO REQUISITOS GENERALES DEL SISTEMA 7. REVELACION SUFICIENTE 7. NO COMPENSACION 1-X-1981 1-I-1974 8. IMPORTANCIA RELATIVA 9. COMPARABILIDAD (ANTES CONSISTENCIA) 8. IMPORTANCIA RELATIVA 9. UNIFORMIDAD CUALIDADES Y CARACTERÍSTICAS DE LA INFORMACIÓN FINANCIERA SEGÚN EL TRATADO DE LIBRE COMERCIO DE AMERICA DEL NORTE (TLC) 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. Comparabilidad. Relevancia. Valor de pronóstico y valor de retroalimentación. Importancia relativa. Confiabilidad. Representación fiel (veracidad o validez). Sustancia sobre forma. Neutralidad (objetividad). Prudencia. Integridad suficiente. 11. 12. 13. 14. 15. 16. 17. 18. Comparabilidad. Consistencia. Oportunidad. Beneficio versus coste. Verificabilidad. Significación (sólo en México). Selecciones de contabilidad. Jerarquía de las cualidades de contabilidad. FUENTE: Elaboración propia. Los dos únicos principios contables que no coinciden entre México y la Unión Europea, son el de la entidad y el de la prudencia respectivamente. Este último se define en el Plan General de Contabilidad de España de la siguiente forma: “Únicamente se contabilizaran los beneficios realizados a la fecha de cierre del ejercicio. Por el contrario, los riesgos previsibles y las pérdidas eventuales con origen en el ejercicio o en otros anteriores, deberán contabilizarse tan pronto sean conocidos; a efectos se distinguirán los reversibles o potenciales de los realizados o irreversibles. En consecuencia, al realizar el cierre se tendrán en cuenta todos los riesgos y pérdidas previsibles, cualquiera que sea su origen. Cuando tales riesgos y pérdidas fuesen conocidos entre la fecha del cierre del ejercicio y aquella en que se establecen las cuentas anuales, sin perjuicio de su reflejo en el balance y estado de resultados, deberá facilitarse cumplida información de todos aquellos en la memoria. Igualmente, se tendrán en cuenta toda clase de depreciaciones, tanto si el resultado del ejercicio fuese positivo como negativo”. Como se ve, este principio contiene algunos elementos que incluye el del período contable. La relación entre los conceptos que forman la estructura de la teoría contable es muy sencilla. Los PCGA, las reglas particulares y el criterio prudencial están basados en una jerarquía general decreciente. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 125 Los PCGA, máximo fundamento conceptual, representan las proposiciones de medición y clasificación más amplias y menos específicas. Esto lleva a un modelo que no es rígido y que impide que la operación del sistema de información contable sea automática, pues se utiliza un criterio general para seleccionar entre diversas alternativas equivalentes. Por eso cuando aplicamos los principios a todas las transacciones empresariales, no tenemos la garantía total de evitar, y menos resolver, todas las controversias que se presentan en el proceso contable. Las reglas particulares, que son la especificación individual y concreta de los conceptos que integran los estados financieros, se establecen para intentar de resolver aquellas controversias no permanentes y su vigencia es inferior respecto a los PCGA. Es decir, antes de cuestionar, modificar, eliminar o agregar algún principio, es necesario hacerlo previamente con sus respectivas reglas particulares El criterio prudencial o juicio profesional es el concepto central entre la “abstracción” de los PCGA y la “rigidez” de las reglas particulares. Este criterio permite operar al sistema contable para obtener la información financiera y económica. Es importante apuntar que el criterio prudencial no se refiere nunca a los PCGA, sino siempre a las reglas particulares. La aplicación de este criterio sólo esta justificada en aquellos casos en que no existen bases para elegir entre las alternativas propuestas que nos dan las reglas particulares. En éste caso, generalmente las asociaciones y colegios de contadores y auditores recomiendan aplicar el criterio más conservador o menos optimista. El criterio prudencial, que como se mencionó anteriormente se aplica al nivel de reglas particulares, se dividen en dos tipos que son: * Las Reglas de Valuación: que sirven para la correcta aplicación de los principios y la cuantificación de los conceptos específicos de los estados financieros, y * Las Reglas de Presentación: que de modo particular tratan de incluir adecuadamente cada concepto en los estados financieros. 3.1.2. CARACTERISTICAS DE LA INFORMACION CONTABLE. Las características de la información contable surgen del proceso de cuantificación, que va desde la obtención y transformación de datos, hasta la generación y presentación de la información financiera. Sin embargo, el sistema contable no tiene una única presentación sino que se estructura con base a los objetivos informativos que desea el usuario, lo cual implica que “sólo una parte de la realidad sea de interés como objeto de estudio y se retiene para su manejo y presentación como información” (IMCP, op.cit., p. 22). Actualmente se reconocen tres características fundamentales que tiene que presentar la información contable y son: la utilidad, la confiabilidad y la provisionalidad. La confiabilidad la define el IMCP (1996) como: “la característica de la información contable por la que el usuario la acepta y utiliza para tomar decisiones basándose en ella. Esta no es una cualidad inherente a la información, sino es adjudicada por el usuario y refleja la relación entre él y la información” (op.cit. p.21). Esa confianza que el usuario deposita en la información financiera está basada en que el proceso de cuantificación contable u operación del sistema que tiene que ser estable, objetivo y verificable “en la obtención de datos, su manejo (clasificación, reclasificación y cálculo) y la presentación de los estados financieros (forma, clasificación y designación de los conceptos que los integran)”. (op.cit. p.21). El Cuadro No. 3.3. resume y explica con más detalle cada una de las mencionadas características que han sido institucionalizadas en los Boletines Serie A de los PCGA (IMCP, op.cit. p.21). ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 126 CUADRO No. 3.3. CARACTERÍSTICAS DEL SISTEMA CONTABLE VARIABLES QUE DETERMINADA A LA CARACTERISTICA 1. CUALIDADES DE LA CARACTERISTICA CARACTERISTICA DEFINICIONES Capacidad de representar simbólicamente (con palabras y cantidades)la entidad y su evolución, su estado en diferentes puntos en el tiempo y los resultados en su operación). SIGNIFICACION DE LA INFORMACIÓN CONTENIDO INFORMATIVO DE LA INFORMACIÓN CONTABLE I UTILIDAD 2. RELEVANCIA DE LA INFORMACIÓN Cualidad de seleccionar los elementos de la información que mejor permitan al usuario captar el mensaje y operar sobre ella para lograr sus fines particulares. 3. VERACIDAD Cualidad esencial pues sin la veracidad se desvirtúa la representación contable de la entidad que abarca la inclusión de eventos realmente sucedidos y de su correcta medición de acuerdo con las reglas aceptadas como válidas para el sistema. 4. COMPARABILIDAD Cualidad de la información de ser válidamente comparable en los diferentes puntos del tiempo para una entidad y de ser válidamente comparables dos o más entidades entre sí, permitiendo juzgar la evolución de las entidades económicas. OPORTUNIDAD DE LA INFORMACIÓN CONTABLE Aspecto esencial para que llegue la información al usurario a tiempo, aún cuando las cuantificaciones obtenidas tengan que hacerse cortando convencionalmente la vida de la entidad y se presenten cifras estimadas de eventos cuyos efectos no se conocen totalmente. ESTABILIDAD El sistema y su operación no deben cambiar en el tiempo. La información producida se debe obtener aplicando las mismas reglas en la obtención de datos, su cuantificación y presentación, salvo sí se da la necesidad de evolución y perfeccionamiento de la información contable con aviso formal a los usuarios. II CONFIABILIDAD (en el proceso de cuantificación contable) Implica que los principios y reglas del sistema no se han distorsionado en el proceso de cuantificación, y de esta manera garantizar que la información representa la realidad de acuerdo a los PCGA. Así el sistema puede operar objetiva e imparcialmente al cumplir con la característica de veracidad. OBJETIVIDAD VERIFICABILIDAD El sistema debe permitir que a toda operación se le puedan aplicar pruebas para su comprobación, a través de la captación selectiva de los datos, transformación, arreglo y combinación de los datos, así como clasificación y presentación de la información. III PROVISIONALIDAD La información contable no son hechos totalmente acabados ni terminados y más que una cualidad es una limitación a la exactitud que representan los estados financieros que son elaborados dada la necesidad de toma de decisiones que obliga a la entidad a realizar cortes normalmente anuales, semestrales o trimestrales. FUENTE: Elaboración Propia con base en los Principios de Contabilidad Generalmente Aceptados del IMCP. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 127 3.1.3. LA CONTABILIDAD POSITIVA. En el inciso anterior se explicó la estructura ideal para producir estados financieros útiles y confiables, a lo cual hemos denominado contabilidad normativa. Ahora este inciso trata sobre cómo se produce realmente en las empresas la información contable o contabilidad positiva. Para esto primero se introduce al lector en el antecedente de la contabilidad positiva y en el concepto del efecto window dressing. Posteriormente se explica brevemente la aplicación de la contabilidad creativa. Lo anterior tiene como objetivo central que el investigador perciba el por qué la información financiera, al utilizarse como base de datos en los modelos de predicción de quiebras sin ninguna previa y adecuada reclasificación y homogeneización, origina que se parta de fundamentos totalmente manipulados que no reflejan la realidad de las empresas muestreadas, y por consecuencia, todos aquellos resultados e indicadores sintéticos que se obtienen al final de los trabajos empíricos, no tienen en la mayoría de los casos una real capacidad predictiva. Dentro del campo de la economía, Friedman (1953) había popularizado el término de “positivo” en los círculos de estudios contables a mediados de la década de los setenta, gracias a la importación del concepto por parte de Watts y Zimmerman (1978) y a los trabajos desarrollados en la Universidad de Chicago por parte de los australianos Ray Ball y Philip Brow (1968). Éstos últimos utilizaron para sus trabajos una serie de métodos de investigación empírica aplicados en finanzas.5 Anteriores a estas investigaciones, los trabajos académicos sobre contabilidad eran exclusivamente normativos, y como apunta Monterrey: ninguno intentaba explicar el mundo real de la contabilidad empleando modelos no temáticos o técnicas más o menos formales. Según Watts (1995), el cambio curricular en las grandes escuelas de negocios estadounidenses, entre la década de los cincuenta y hasta principios de los setenta, fue impulsado sobre todo por la “Fundación Ford” y la “Carnegie Corporation”, que encargaron cambiar los programas MBA cuya tendencia era marcadamente normativa. A cambio propusieron una investigación que tratara sobre cómo hacer negocios en el mundo real. Este hecho impulsó en definitiva el enfoque positivista de la contabilidad, más aún cuando el Comité de Programas de Doctorado de la Asociación Americana de Contabilidad (“American Accounting Association´s Committe on Doctoral Programs”) también dictó una orientación positiva de su investigación.6 Por otra parte, en 1963 la Universidad de Chicago y la London School of Economics iniciaron la publicación del Journal of Accounting Research. En estos trabajos se comenzó a reforzar el enfoque positivista de la contabilidad a través de la limitación de la práctica excesiva de normatividad, la cual generalmente proponía soluciones contables específicas. Por otra parte, se estableció que no todo lo empírico implicaba necesariamente que la contabilidad fuera positiva, ni que toda la contabilidad positiva se debía que apoyar en técnicas empíricas, ya que la contabilidad positiva no tiene que considerarse como un producto aislado del ámbito académico, ni tampoco la información contable tiene que ser considerada como un producto neutral. En los países no sajones la orientación clásica de la investigación contable, generalmente se ha dirigido al estudio de la regulación contable, y en específico se ha centrando el interés en el proceso de producción de la información financiera más que en su análisis económico. Ambos enfoques responden a una contabilidad positiva que se sustenta sobre dos fundamentos básicos que son: a) la moderna teoría financiera y b) la teoría de la firma. En la primera se establece la hipótesis de la eficiencia. Sus precursores fueron Ball, Brow y Beaver (1968) quienes a través de sus trabajos analizaron la respuesta del 5 “ An Empirical Evaluation of Accounting Income Numbers”; Journal of Accountig Research, Autun, pp. 159-178. 6 Watts Ross (1995), “Positive Research in Accounting” Work Paper. Universiti of Rochester. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 128 mercado de capitales a la información contable. También Ball y Brow estudiaron la asociación existente entre los precios de las acciones y los resultados contables de las empresas (Monterrey1998: p. 436). Por otra parte Lev (1989) aportó nuevos elementos para ampliar el concepto de la contabilidad positiva y expuso el escaso papel que la información contable desempeña en el mercado de capitales, añadiendo que el resultado contable no constituye una buena medida de la capacidad de creación del valor de una empresa dada su alta probabilidad de manipulación. En cambio, para Lev los pronósticos de los analistas financieros y las expectativas creadas por los participantes en el mercado son los que realmente provocan los movimientos en las cotizaciones, y por tanto, los precios son los que originan cambios en los resultados y no a la inversa.7 Algunos trabajos como el de Ohlson (1992), sugieren que las causas que explican el bajo contenido informativo de la información financiera se deben a que, el resultado contable anual mide la capacidad de creación del valor de las empresas en un plazo muy corto y con varios errores. Además, en el caso de los modelos predictivos, cuando se utiliza a los resultados acumulados de varios ejercicios como variable explicativa o independiente, éstos aumentan el grado de error en las mediciones según lo demuestran los resultados de sus investigaciones.8 Respecto a la contabilidad positiva basada en la teoría de la firma, Coase (1937) indica que todas las instituciones económicas o firmas deben su existencia a los costes contractuales. Aquí se afirma que si se presentará una ausencia de dichos costes, las empresas serían irrelevantes ya que los consumidores contratarían directamente con los propietarios de los factores de producción, lo que daría “un mundo sin costes contractuales”, y por tanto, la contabilidad sería inexistente e irrelevante, pues los precios se establecerían como único elemento para la toma de decisiones. Sin embargo, ante la existencia de costes contractuales que dan vida a las organizaciones, y en este caso a la contabilidad positiva, se generan normas contables y la elección de políticas para su aplicación buscan maximizar los beneficios. De ahí, que se afirme que la contabilidad no es un producto neutral y sí un factor que origina fenómenos distorsionadores del sistema de información empresarial, como es el caso del efecto window dressing. 3.1.4. EL EFECTO WINDOW DRESSING TRADUCIDO A CONTABILIDAD CREATIVA Y CONTABILIDAD DE FRAUDE. Primero es importante considerar que el efecto window dressing da origen a dos tipos de contabilidades dentro de la dinámica empresarial que son: 1) la denominada contabilidad creativa, y 2) la que jurídicamente se sanciona en las leyes como contabilidad del fraude. Ambos tipos de contabilidades se producen actualmente más por un deseo malintencionado que por la falta de una estructura normativa y conceptual, que ya existe para la mayoría de las cuentas incluidas en los estados financieros. Aunque es importante reconocer que en no pocos casos dicha normativa y estructura es aún deficiente. La contabilidad creativa es un sistema legal que aprovecha las deficiencias del sistema contable y está designado para necesidades a corto plazo y de uso transitorio para alcanzar diversos objetivos como los que se muestran en el Cuadro No. 3.4. Respecto a la contabilidad fraudulenta, la podemos definir como aquella que se sale de los márgenes normativos y jurídicos permitidos por la ley y comúnmente al aplicarla se lleva doble juego de libros (“los verdaderos” y “los falsos”) a través de un enlace de partidas de ajuste para fines o efectos de presentación a terceros. 7 Lev Baruch (1989), “On the usefulness of earnings and earnings research”, Journal of Accounting Research, pp. 153-192). 8 Ohlson James (1992) “Disaggregated Accounting Data Explanatory Variable for Returns”, Journal of Accounting, Auditing and Finance. Autunn, pp. 553-573. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 129 Este último tipo de contabilidad es un sistema que se implanta con o sin necesidades financieras y puede tener un alcance a corto, mediano o largo plazo. Sus fines pueden ser los mismos que busca la contabilidad creativa, aunque el aspecto fiscal se presenta como uno de los objetivos centrales. CUADRO No. 3.4. OBJETIVOS DEL EFECTO WINDOW DRESSIING • • • • • Captar nuevas inversiones Obtener liquidez de los acreedores. Obtener créditos de los proveedores Obtener apoyos del gobierno, vía inversiones o prestamos. Mantener el control de las cifras, entre las presentadas a terceros y las cifras reales para la toma de decisiones de inversión y • financiación. Maximizar y tratar de estabilizar la cotización de las acciones o • sea el valor de la empresa. Controlar dividendos. Mejorar los ratios de la empresa. • • • • • • Ocultar grandes beneficios frente a competidores. Minimizar al máximo el pago de impuestos. Evadir impuestos (desde un enfoque fiscal la evasión es un delito reconocido y sancionado, mientras la elución aunque es una práctica poco ética, es legal pues aprovecha las deficiencias del sistema tributario). Impresionar a los inversores reportando grandes beneficios o el crecimiento sostenido de beneficios. Evitar exigencias salariales elevadas con utilidades mínimas o reportando pérdidas. Alcanzar una fusión con una empresa sana Vender la empresa a un precio mayor que el real. Obtener las mayores ventajas competitivas en las operaciones de adquisiciones, fusiones, asociaciones, participaciones, etc. • • • Fuente: Elaboración propia con base en las ideas de Amat (1996) y Griffiths (1986). Amat (1996: p.20) ha hecho una observación interesante sobre las similitudes y diferencias entre la contabilidad creativa y la contabilidad del fraude. Primero afirma que en ambos casos existe la intención de engaño y una necesidad real de dar respuesta a dificultades financieras en una determinada empresa.9 La diferencia radica en que la contabilidad creativa no es ilegal en sí misma. Sin embargo, si presenta una deficiente calidad profesional y ética que no cumple con el principio de “máximo esfuerzo”, puede ser la “antesala” hacia la contabilidad del fraude. Sobre si la contabilidad creativa es o no sinónimo de fraude, podemos decir que la realidad empresarial nos condiciona a dar una respuesta ambigua si consideramos que el fraude es cuando se incurre en interpretaciones erróneas, mal intencionadas y con falta de argumentos sólidos para sostener cada uno de los criterios adoptados en la contabilización de las transacciones, y sobre todo de aquellas de gran impacto económico y financiero negativo. En cambio la contabilidad creativa, aunque puede incurrir en los elementos antes mencionados, en ocasiones se diseña precisamente para evitar esos impactos negativos, ya sea por un vacío normativo o alguna ley mal elaborada. Al respecto Amat (1996: p.1) considera que la contabilidad creativa consiste en manipular la información contable para aprovecharse de los vacíos existentes en la normatividad y de las posibles elecciones entre diferentes prácticas de valoración que ésta ofrece. Este tipo de contabilidad transforma las cuentas anuales partiendo de lo que se tiene hacia lo que se quiere que sea una empresa modelo. Es decir, es un sistema de contabilidad moldeado por y para las necesidades a corto plazo de la empresa, produciéndole un efecto positivo a través de la distorsión de sus resultados y su posición financiera real. 9 Amat (1996, pp9-22) en su obra llega a citar un interesante comentario de un analista de inversiones que afirma que “gran parte del aparente crecimiento económico de la década de los ochenta se debe más a las manos de los contables que al genuino crecimiento económico” (Smith T.1992: “Accounting for Growth” Century Busssiness; London). ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 130 Stevens (1982, p.87) ha definido este fenómeno a través de la siguiente analogía: “...al igual que un bastidor para un cuadro, los contables inventaron hace muchos siglos este breve, casi místico conjunto de números, siempre exacto en los totales, sin tener en cuenta cuanto dinero hace la compañía: el balance, una ecuación que siempre pierde al lego a pesar de que su teoría es muy sencilla, dice que los bienes del activo siempre deberán igualar a las deudas contraídas más el capital y los beneficios”. Griffiths (1986: p.11) por su parte considera que la contabilidad creativa es en realidad un “fraude completamente legítimo” 10, ya que las empresas normalmente manipulan los beneficios y en la práctica ningún contable desconoce este campo exigido por la realidad empresarial. En un análisis conceptual sobre la contabilidad creativa, Amat (op.cit.,p.12) encuentra dos importantes elementos en común para definirla y son: * La práctica de la contabilidad creativa es un hecho generalizado. * La contabilidad creativa es una práctica engañosa e indeseable. Por su parte Griffiths considera que dentro del campo de la contabilidad creativa, la manipulación de las clasificaciones y cifras de los estados financieros tiene los siguientes elementos centrales: * La flexibilidad que dan los principios de contabilidad generalmente aceptados. * La imprecisión o “lagunas” de las reglas contables. * La falta de homologación de las normas y procedimientos de auditoría generalmente aceptados. * La falta de reglamentación y leyes más específicas para la preparación y presentación de los estados financieros (exceptuando al sistema financiero en donde se nota un gran avance al respecto). Para algunos analistas y expertos contables, el window dressing no tiene en realidad efectos muy importantes o negativos, pues consideran que cuando las bolsas de valores están en fases a la alza, las plusvalías y pagos de dividendos están al alcance de todos los inversores que en muchas ocasiones ni siquiera consultan los estados financieros sino el dividendo repartido. Así, si dichos dividendos son altos y la empresa los paga, poco efecto tiene sobre ellos la contabilidad creativa. Sin embargo, este argumento es considerado muy débil por otros analistas financieros, pues parten de la idea de que la contabilidad creativa no se limita sólo a mantener contentos a los actuales inversores, sino que busca constantemente atraer a nuevos accionistas y acreedores para diversificar el riesgo empresarial, y esta captación de nuevos socios es posible normalmente a través de hacerles llegar información contable. Además, cuando las bolsas se comportan a la baja, las cotizaciones también tienden a bajar y el panorama se torna diferente ya que las exigencias de liquidez aumentan en un mercado al desplome y entonces la contabilidad representa un fundamento muy importante para la toma de decisiones. Sin embargo, otra importante limitación que le encuentran a la contabilidad creativa para que no sea un problema grave es la que se refiere al tiempo, pues se dice que no es posible mantener indefinidamente resultados positivos en una empresa que de forma permanente tiene dificultades económicas. Sin embargo, para descubrir una crisis empresarial pueden pasar muchos años si quien “maquilla” la contabilidad logra, dentro de los períodos de tiempo del ciclo de explotación de la empresa, aplicar los métodos y técnicas más potentes del efecto window dressing para que no se noten los síntomas de crisis. 10 Citado por Amat, op. cit. p.9-22. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 131 Esto lleva a que el daño causado a terceros sea regularmente significativo, pues como se comentó anteriormente, la contabilidad creativa sólo sirve para retrasar y suavizar la evidencia de las malas marchas del negocio pero no garantiza su eliminación, y a largo plazo puede llevar a las empresas con altas cotizaciones en sus acciones a estrepitosos desplomes en sus precios. 11 Es aquí donde las cifras producidas por el efecto window dressing cobran una mayor relevancia, al tener el inversor y acreedor que tomar decisiones más acertadas ante unas cifras que no son un fiel reflejo de la empresa. Por otra parte, la auditoría externa tampoco ha sido el elemento capaz de garantizar la fiabilidad de las cifras e informes financieros, y tal es así, que actualmente auditores de grandes corporaciones han popularizado la práctica de contratar seguros de indemnización para protegerse de reclamaciones sobre el riesgo de sus auditorías, pues aún queda sin resolverse el alcance de la responsabilidad o “irresponsabilidad” limitada del auditor externo. La contabilidad creativa en realidad no puede ser totalmente descubierta, pues la ley permite una serie de transacciones económicas y financieras que pueden estar registradas fuera de balance. Los importes de estas operaciones en ocasiones son muy significativos y hasta más altos en comparación con las partidas que componen el balance general. Esto provoca que los niveles de deuda real puedan ser peligrosamente significativos y prácticamente incuantificables a través del análisis financiero que lleva a cabo el auditor externo. Lo anterior a llevado en repetidas ocasiones a que los analistas tengan una total falta de credibilidad en las cuentas anuales de algunas empresas o sectores económicos que producen información financiera. También es importante recordar que en ciertos países con grandes problemas económicos, se ha fomentado y permitido ciertas prácticas de contabilidad creativa entre las empresas foráneas a través de especies de “paraísos fiscales” para resolver otro tipo de problemas, tales como la escasa oferta de empleo o la falta de inversiones productivas en el país. Así, la mayor flexibilidad de ciertos criterios contables parece ser que se convierte en un elemento antagónico respecto a la razonabilidad y fiabilidad de la información financiera. Griffiths (1986: p.18) dice que en este caso, lo único que se exige a las cuentas de las empresas es que sean más que nada un fiel reflejo de la realidad, pero sin embargo añade que “nadie a llegado a definir del todo lo que esto significa”. La anterior situación en gran parte se debe a la evolución del pensamiento contable de principios de siglo encaminado sólo a mostrar el historial económico de la empresa. En nuestros días, el extraordinario cambio tecnológico y los nuevos enfoques de la actividad económica, y en específico de la técnica contable, se dirigen fundamentalmente a lograr maximizar el valor de la empresa. Dicho objetivo se puede alcanzar en muchas ocasiones a través de la información financiera que es la que afecta directamente al valor de las acciones. Esta situación ha venido ha ejercer una extraordinaria presión profesional en el especialista contable y en el auditor para mostrar los mejores resultados de la empresa, cumpliendo al mismo tiempo con los criterios contables que son susceptibles de varias interpretaciones. Así, los usuarios de la información financiera sienten cada vez más la necesidad de saber “nadar” en un mundo de cifras y clasificaciones más inestables y ambiguas en su interpretación. Por ejemplo, actualmente es bien conocido que presentar beneficios con altibajos significativos a través de los años crea nerviosismo entre los inversores. En cambio el presentar beneficios moderados y constantes crea más confianza. En este caso normalmente el contable intenta hasta donde los principios y leyes contables lo permiten, aplicar el efecto window dressing para “quitar” o “agregar” algunas cifras en determinadas partidas claves durante el actual ejercicio económico para posteriormente llevar a cabo la operación inversa y obtener cifras más homogéneas a través del tiempo, eliminando significativas fluctuaciones a lo largo de los futuros años. 11 Normalmente los períodos que permiten observar la diferencia entre las empresas que obtienen el éxito respecto a las que caen en el fracaso, oscilan entre períodos de 3 a 10 años. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 132 Algunos sectores opinan que actualmente al contable se le ha “asignado” el papel de “encargado” para satisfacer a los diversos actores que están interrelacionados externamente con la marcha de la empresa, y que exigen comportamientos de crecimiento regular en lugar de rendimientos oscilantes. Un ejemplo de estos actores típicos son las casas de corretaje cuya actividad principal es el pronóstico de los beneficios en las grandes empresas. Aquí, lograr homogeneizar los beneficios para el cliente de la casa de corretaje, representa ni más ni menos que uno de los principales productos vendibles para convencer a posibles accionistas potenciales y dueños de empresas que quieran llevar a cabo operaciones de fusión, asociación, participación o venta de empresas con las mayores ventajas competitivas. 3.1.5. APLICACION DEL EFECTO WINDOW DRESSING. Las técnicas utilizadas en la contabilidad creativa comprenden desde aplicaciones muy sencillas hasta complejos métodos que son difíciles de detectar. Pero en ambos casos, el window dressing afecta siempre a las cifras, así como a los resultados económicos y financieros de las empresas, lo cual impide reflejar su realidad. A continuación se presentan algunos pasos que son muy conocidos por los contables y que se establecen previamente a la aplicación del window dressing. Posteriormente, se explican algunas técnicas del efecto window dressing utilizadas regularmente por las empresas, y en particular por aquellas de tamaño grande que son las que cuentan con personal altamente especializado en este campo. Entre los principales pasos previos para la aplicación del efecto window dressing que suelen implantarse en gran número de empresas están los siguientes: * Basar el sistema contable en el concepto de contabilidad del devengo y no en el concepto de contabilidad de cash flow, pues el primero es el elemento más importante para el “maquillaje” integral de los estados financieros. Lo anterior permite establecer la “doble política” para lo que es real y lo que es ficticio. Básicamente aquí se define con ambigüedad que son “ingresos devengados”. Este concepto basado en el principio del período contable y el criterio prudencial es considerado como el más importante para obtener el window dressing integral en los estados financieros ya que permite el aumento o disminución de los ingresos. * Aplicar con oportunidad el concepto de ingresos devengados. Esto significa saber la fecha, el importe y la combinación de cargos y abonos apropiados y utilizados para contabilizar cualquier transacción que origine ingresos ordinarios y extraordinarios. * Establecer una política sobre qué se considera ingreso ordinario e ingreso extraordinario. Comúnmente esta política va dirigida para la venta de los activos fijos obsoletos, activos fijos improductivos e inventarios defectuosos (de materias primas, producción en proceso y productos terminados). Estos ingresos se pueden contabilizar en las cuentas de resultados acreedoras denominadas otros ingresos o productos, o bien, se puede llevar a una cuenta del Balance dentro del rubro de Capital Contable denominada Superávit por Ventas de Activos fijos o activos no productivos. El contable al contar con ambas opciones, puede a través del efecto window dressing afectar tanto al balance general como al estado de resultados. * Elegir entre un actuario o tasador “optimista” o “pesimista”. Esto es sabido por todo director financiero a la hora de decidir sobre la estimación de la vida útil de los activos fijos tangibles. Normalmente la ley del impuesto sobre la renta marca el número de años para depreciar el bien. Sin embargo, permite al contribuyente elegir entre depreciaciones aceleradas, decrecientes o lineales. Cada uno de estos métodos afectan de forma diferente y significativa a los resultados de la empresa. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 133 * Llevar a cabo un extenso estudio sobre la naturaleza del tipo de transacciones que son más frecuentes en la empresa, para determinar el grado y alcance del “window dressing” que “soportan” cada una las cuentas y los ratios que se derivan de éstas. Es decir, se tiene que analizar hasta qué nivel cuantitativo es conveniente establecer máximos y mínimos en cuanto a pagos en efectivo, la política de crédito y cobranzas, los arrendamientos financieros, entre otros, para llegar a las mejores combinaciones en cuanto al tipo de ratios deseados. * Determinar y controlar la relación de las cifras verdaderas entre las ventas reales y el dinero recibido para obtener el beneficio real. * Establecer un calendario sobre las fechas importantes que afectan a la calidad de la información financiera, como es el caso de la auditoría externa anual (tanto la previa como la final) así como la elaboración de la declaración anual del impuesto sobre la renta y la entrega de las declaraciones complementarias (para que en caso de error se modifique la declaración anual del impuesto sobre la renta). Esto tiene el objetivo de planear la emisión de facturas con efecto “window dressing” que son controladas fuera de la contabilidad pues son “infladas” o “desinfladas” a través de notas de cargo o notas de crédito para obtener el nivel óptimo deseado en el estado de resultados y en determinados ratios financieros estratégicos. * Determinar el período económico real de la empresa con base a su natural ciclo de explotación. Esto se debe a que en muchos casos el ciclo de explotación no coincide con el período fiscal de doce meses, pues ciertos sectores evolucionan de forma más rápida o más lenta de acuerdo a la naturaleza de sus operaciones principales. Por ejemplo, el sector agrícola normalmente tiene un ciclo de explotación entre tres a seis meses; el sector de la construcción puede tener un ciclo de maduración de tres hasta cinco años; mientras el ciclo del sector servicios regularmente coincide con el período fiscal de un año. Esto es bien sabido por el contable antes de diseñar el efecto window dressing pues estudia previamente el ajuste más óptimo que permitan las leyes fiscales para cumplir con el principio del período contable (o periodificación) de los ingresos y gastos. * Establecer una política contable para establecer cifras e informes uniformes y la justificación de sus posibles cambios. Las empresas normalmente cuentan con los elementos claves para justificar ante los auditores externos, los cambios en las políticas contables en caso de tener que modificarlas. Los elementos más importantes a los que nos referimos son las leyes, normas, principios y reglamentos vigentes. * Estructurar y aplicar un sistema eficiente de cálculo basado en las matemáticas financieras que sirva de fundamento al sistema contable integral. Conseguir el efecto window dressing no es tarea sencilla y aquellas empresas que buscan evitar alguna salvedad u opinión negativa en la auditoría saben que es necesario diseñar una complicada estructura de mediciones, porcentajes, prorrateos y cálculos matemáticos complejos que estén fundamentados en las leyes gubernamentales. * Seleccionar un método contable que se enfoque a una política de saneamiento de los gastos diferidos, cargando el importe total a resultados en el mismo momento en que se producen, o bien, amortizando ese gasto a lo largo de la vida del proyecto de inversión para variar significativamente el beneficio. * Modificar de forma gradual y discreta de un ejercicio a otro, los criterios contables de ciertas partidas que sean difíciles de detectar por el auditor externo. Esto es posible dada la flexibilidad que dan los PCGA y basta sólo incluir algunos comentarios en la memoria de los estados financieros.12 Una vez establecidos el conjunto de criterios y políticas como las que ejemplificamos anteriormente, la empresa sabe que cuenta con una base sólida para aplicar eficientemente el efecto window dressing a los 12 Ver Norma de Valoración 21 del Plan General de Contabilidad de España. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 134 ingresos y a otras partidas relacionadas con éstos (como son los gastos, costes, inventarios, etc.). A partir de aquí, las estrategias son innumerables y éstas dependen sobre todo del estilo del contable, de la legislación vigente o de la naturaleza de la empresa para producir la contabilidad que por eso recibe el nombre de creativa. A continuación se expone en el Cuadro No. 3.4.1. las estrategias más comunes de la contabilidad creativa y posteriormente se explica brevemente algunas de éstas. Aumento, reducción y reclasificación de activos. Para estas partidas, que registran las inversiones financieras y productivas, existen diferentes criterios legales para las prácticas de valorización y clasificación, así como una flexibilidad respecto a los porcentajes de amortizaciones, depreciaciones y provisiones. Con esto se da la alternativa de aumentar el valor neto de aquellos activos relacionados que afectarán a cuentas, tales como deudores, inversiones financieras, existencias y principalmente los activos fijos tangibles e intangibles. Respecto a la clasificación de activos, existen cuentas que pueden ser contabilizadas como activos circulantes (existencias o almacén) o activos fijos. Esto afecta por supuesto a los ratios que se derivan de esas partidas tales como el índice de liquidez, el fondo de maniobra, etc. Aumento, disminución y reclasificación de pasivos. En estas partidas, que registran las financiaciones ajenas, la normativa contable permite diversos criterios para contabilizar un pasivo a corto o a largo plazo, y en casos como el fondo de pensiones existe la posibilidad de regularizar o diferir deudas en períodos que oscila de uno año hasta los 15 años. Así, si una empresa le interesa aumentar sus beneficios, entonces retrasa hasta donde esté permitido la regularización de la deuda que existe y en consecuencia se afectan los ratios de endeudamiento, liquidez, apalancamiento, independencia financiera, etc. Capital contable. Estas partidas registran el financiamiento propio y mediante la contabilidad creativa se puede aumentar o reducir los fondos propios a través de las modificaciones en los ingresos o en los gastos, y por tanto, se afectan los resultados del ejercicio y la cuenta de pérdidas y ganancias del ejercicio, así como las reservas voluntarias y estatutarias. Esto influye en los ratios que tienen como componentes a los fondos ajenos y a los fondos propios. Resultados. El estado de resultados, producto de la cuenta puente de pérdidas y ganancias, evalúa la actuación de la dirección y cuantifica la renta de la empresa. Desde el enfoque del analista financiero, este estado tiene dos tareas a resolver que son: 1. La necesidad fiscal: que se refiere a cómo se deben pagar o no los impuestos. En caso afirmativo, se tiene que saber el importe más económico que permita la legislación. 2. La necesidad financiera: que consiste en la retribución a los capitales de la empresa, calculando el excedente (beneficio) o la pérdida. El estado de resultados también tiene dos enfoques que son: 1. El enfoque económico o de valoración13: el resultado es la diferencia entre el patrimonio neto de la entidad en dos momentos diferentes del tiempo, excluyendo las aportaciones y los retiros de los accionistas. Este enfoque sobre todo trata de resolver cuestiones tan importantes como las siguientes: • ¿ Cómo valorar el patrimonio, es decir, se debe elegir si se toma como base a los costes históricos o a los costes actuales. 13 Algunos analistas consideran que desde un punto de vista práctico es inviable este enfoque. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 135 • ¿ Se deben computar sólo los activos y pasivos contabilizados o hay que incluir otros activos y pasivos no contabilizados? 2. El enfoque contable o transaccional: Basándose en los principios de contabilidad generalmente aceptados, este enfoque toma en consideración el resultado de un período con base a la diferencia entre los ingresos, gastos y costes necesarios para su obtención. Como sabemos, los ingresos son aumentos en los activos, disminución en los pasivos o una combinación de ambos factores durante un período, y se originan por la entrega de servicios, productos u otras actividades de la empresa que tienen fines lucrativos. Aumento o reducción de gastos. La manipulación de los gastos, a través de diferentes técnicas de window dressing, se relaciona con el activo fijo de la empresa. Al respecto, la mayoría de las normas contables establecen un margen de maniobra tanto en las tablas de amortización y depreciación que permiten establecer los porcentajes anuales entre un límite máximo y uno mínimo. Si se quiere obtener un mayor beneficio neto en el futuro, se puede aplicar una amortización acelerada, la cual reduce en los primeros años el beneficio neto y posteriormente lo aumenta (amortización decreciente) y viceversa en caso contrario. También aquí influye la asignación de los gastos en determinados periodos contables. En el caso del fondo de comercio, las provisiones por depreciaciones de existencias, las insolvencias, entre otras, la ley generalmente indica el plazo máximo en que tiene que ser amortizado su monto, aunque frecuentemente no se establecen máximos y mínimos. Aumento o reducción de ingresos. Este es uno de los puntos más delicados del el efecto window dressing. Para el aumento o reducción de ingresos es común que se retrase o anticipe su reconocimiento con base a la correlación existente con los gastos. Incluso para afectar los ratios del estado de resultados, los ingresos se pueden reclasificar como ordinarios o extraordinarios. Las combinaciones que se pueden llevar a cabo en este cuenta aplicando el efecto window dressing son las siguientes: CUADRO 3.4.1. EL EFECTO WINDOW DRESSING TRES FORMAS PARA AUMENTAR O INFLAR LOS INGRESOS TRES FORMAS PARA DISMINUIR O “DESINFLAR” LOS INGRESOS 1. 2. 3. “Inflar” los ingresos, sin afectar los gastos. Sin afectar los ingresos, “desinflar” gastos y/o costes. “Inflar” los ingresos, “desinflar” gastos y/o costes. 1. 2. 3. “Desinflar” ingresos, sin afectar los gastos y/o costes. Sin afectar los ingresos, “engordar” los gastos y/o costes. “Desinflar” los ingresos, “engordar” gastos y/o costes. Para analizar este tipo de efecto window dressing, primero es importante distinguir que un ingreso no es necesariamente sinónimo de dinero o cash inflow. Los ingresos nacen del concepto de ventas (que pueden ser al contado o a crédito). Cuando las ventas son al contado se afecta como contracuenta deudora a las cuentas de caja y bancos y entonces ahí es exactamente donde queda reflejada la entrada de dinero en la empresa (cash inflow). En este caso el ingreso es igual al cash inflow recibido. En cambio cuando la venta es a crédito, se presenta contablemente un ingreso de la misma naturaleza respecto al que se originó por la operación al contado, aunque no exista un cash inflow inmediato. En este caso, la contracuenta que se utiliza es “clientes” cuyo saldo siempre es deudor y refleja el derecho que tiene la empresa sobre la entrada diferida a futuro del cash inflow. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 136 Una vez entendido este sencillo fundamento se tiene que considerar que la disminución de la cifra de ingresos viene afectada por tres contracuentas de resultados de naturaleza deudora que son: devoluciones sobre ventas, rebajas sobre ventas y descuentos sobre ventas. Las dos primeras forman parte de los componentes para determinar el beneficio bruto y la tercera cuenta, descuentos sobre ventas, afecta al beneficio sobre ventas. En este último caso, los descuentos a los clientes frecuentemente se manipulan de un período a otro para aumentar ingresos El estabilizar u homogeneizar los ingresos a lo largo de los años para “motivar” estabilidad financiera, evitando dar la apariencia de beneficios volátiles, se logra a través de la creación de elevadas e innecesarias provisiones en el pasivo contra los valores de los activos en los años más exitosos de beneficios. De esta forma las provisiones pueden reducirse en los años en que haya pérdidas o bajos beneficios con el fin de mejorar y “estabilizar” el resultado del ejercicio. Esta estabilización puede ser más efectiva a medida que las provisiones son mayores. El efecto window dressing en la “estabilización de los ingresos” es una práctica común en países que aplican un criterio de sentido conservador. La justificación de los contables que utilizan este tipo de efecto window dressing es que el criterio aplicado representa una medida contra la visión a corto plazo sobre ciertas inversiones, pues consideran que existen operaciones cuyo rendimiento se obtienen posterior a cierto número de años, y contabilizar con base a esta situación hace más sólida a la empresa. Actualmente existen críticas negativas dirigidas a la “estabilización de los ingresos”, pues se dice que ocultan los cambios a largo plazo en la tendencia de los beneficios. Si las condiciones de la empresa o sector son volátiles, se argumenta que así deben reflejarse en los estados financieros, ya que el inversor tiene derecho a saber esa tendencia para poder comparar sus ratios con relación a los de otras empresas similares (análisis transversal), y no con relación al mismo ratio de otros periodos (análisis longitudinal). La solución a esta controversia no es fácil, y por el momento corresponde al auditor interno y externo cuantificar las provisiones adecuadas con relación al pasivo total, las reservas obligatorias, las reservas estatutarias y los beneficios retenidos para estar en condiciones de detectar los “excesos”. Para maximizar la pérdida actual, con el fin de estabilizar los ingresos de años posteriores, se aprovecha una pérdida significativa de algún ejercicio. Posteriormente, el contable que aplica el window dressing intenta maximizar la pérdida seleccionando la cifra de la pérdida como año base para el análisis longitudinal, de tal forma que al calcular los ratios de los años posteriores es más fácil obtener resultados mejores a través del análisis financiero tradicional. Respecto al reconocimiento de los ingresos, el criterio a seguir depende fundamentalmente de las necesidades que tenga cada empresa. En este caso si se tienen deficiencias de ingresos en el corto plazo se opta por reconocer inmediatamente el total de los ingresos para aumentar el beneficio bruto y neto. Aquellas empresas que tengan mayor incertidumbre en el mediano o largo plazo, o necesiten disminuir su base gravable, pueden optar por reconocer sus ingresos en forma gradual durante los próximos años o hasta el último año al acreditar a resultados el total de la venta efectuada en el primer año. Es importante señalar que si se tarda mucho tiempo en reconocer los ingresos a través de los años, el valor de las acciones tiende a disminuir, aunque sea conocido que se está aplicando una política prudente. Esta serie de estrategias que se conoce como “el último cajón”, es a juicio de Griffths: un concepto en donde se almacenan esos pequeños fragmentos de “brujería financiera” que pueden dar una mejor impresión sobre las cifras de una empresa, que de no aplicarse mostrarían una situación peor. Además agrega que, mientras no se incurra en excesos escandalosos, el mensaje parece ser: “contabilice lo que quiera y cuando quiera”. En cambio cuando se cae en esos excesos, se puede llegar a una insolvencia y se presenta la “fuerza limitadora sobre la creatividad de los ingresos” (op.cit., p.26, 30). ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 137 Cuando se da este caso, las ventas reales que se interpretaron y contabilizaron de modos distintos para ayudar a nivelar los altibajos anuales y presentar un proceso de crisis de forma más tenue o lenta, a lo real, llega a sus límites y entonces se pasa de esa frontera casi indetectable que separa a la contabilidad creativa de la contabilidad del fraude, pero eso sí, manteniendo el efecto window dressing. En general el “devengo” es uno de los principales fundamentos del efecto window dressing pues dota a las empresas de una flexibilidad amplia para declarar beneficios del modo que más le convenga al contable. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 138 CUADRO No. 3.5. CUENTAS Y CLASIFICACIONES EN DONDE SE APLICA LA CONTABILIDAD CREATIVA CONCEPTO EFECTO WINDOW DRESSING • • ACTIVO Aumento o Reducción de Activos Reclasificación de activos CUENTAS DONDE SE APLICA CIRCULANTE. • Tesorería. • Valuación de todo los tipos de inventarios • Inversiones (conversiones a moneda extranjera). • Deudores (retocar préstamos) FIJO MATERIAL. • Sobrevaluación de los activos fijos. FIJO INMATERIAL. • Gastos Amortizables • Fondos de Comercio. Arrendamientos Financieros. CIRCULANTE • Préstamos en efectivo. • Impuestos. • Leasing. • Contingencias: Fondo de Pensiones. • Provisiones para pensiones. Provisiones para insolvencias. • Capital Social. • Utilidad o Perdida del Ejercicio relacionada con la cuenta puente de Perdidas y Ganancias. • Cuenta de Perdidas y Ganancias sobre el tipo de cambio al cierre (p. 139). • Capitalización de Intereses. • Capitalización indebida de gastos Pago continuado de dividendos WINDOW DRESSING A LOS INGRESOS: • Contabilizar ingresos extraordinarios como ordinarios WINDOW DRESSING A LOS COSTES: • Costes relacionados con el activo fijo. Costes de I+D WINDOW DRESSING A LOS GASTOS: Contabilizar gastos ordinarios como extraordinarios. • Window dressing al Cash Inflow. • Window dressing al Cash Outflow. • PASIVO Aumento o Reducción de Pasivos Reclasificación de Pasivos • CAPITAL • ESTADO DE RESULTADOS Aumento o Reducción de Ingresos Aumento o Reducción de Costes Aumento o Reducción de Gastos • • • ESTADO DE FLUJOS DE TESORERÍA O CUADRO DE FINANCIACION PRESENTACION DE ESTADOS FINANCIEROS Aumento o Reducción en el Cash Flow • Financiación fuera de Balance Retrasos en la Publicación de Estados Financieros RESUMEN DE TÉCNICAS DE WINDOW DRESSING ILEGAL O CONTABILIDAD DE FRAUDE • • • • • • • Efectuar remesas sin factura. Falsificar el inventario o manipularlo totalmente. Emitir falsas declaraciones o certificaciones de cuentas colectivas a los auditores externos. Quiebras o suspención de pagos con estados financieros presentados como sólidos (solventes y líquidos) Distorsión de la posición financiera. Distorsión del estado de resultados. Proporcionar a los auditores sólo registros sin ninguna memoria o notas a los estados financieros. Fuente: Elaboración propia. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 139 3.1.6. ALTERNATIVAS ANTE LOS EFECTOS NEGATIVOS DEL EFECTO WINDOW DRESSING. Una primera propuesta para solucionar o disminuir el problema del efecto window dressing está en una nueva actitud y perfil sobre la actuación del auditor externo, tanto el gubernamental como el privado. Sin embargo, tanto Griffiths como Stevens aseguran que dada la intensa competencia en el mercado de las auditorías, los directivos empresariales tiene la capacidad real de presión para sugerir “sutilmente” que si no se acepta un punto de vista en determinada cuestión, la consecuencia puede ser buscar otros auditores. Esto es posible porque frecuentemente no existe una respuesta claramente definida como errónea o correcta. Así, el pragmatismo tal vez sea el factor decisivo y esta situación es probable que no vaya a mejorar. Además, aunque el auditor desplazado puede iniciar en la mayoría de países una demanda por recesión de contrato no justificado, en la práctica profesional esto no se lleva a cabo pues el propio auditor afectado normalmente no se arriesga a crearse una fama de “conflictivo” ante sus otros posibles clientes que lo mirarían tal vez como un serio problema para practicar la auditoría anual a sus cuentas. En 1982, el IASC hizo una revisión de las normas fijadas en 1973. Para esto se establecieron procesos para la fijación de normas que permitieran hacer declaraciones de dos tipos: * Declaraciones de Intención. * Declaraciones de Uso. En cuanto a las declaraciones de intención, el IASC ha mantenido su posición tradicional de no emitir interpretaciones sobre las normas contables. De esta forma continúa rechazando la oportunidad de asumir y desempeñar un papel más activo en este campo de la normativa. Sin embargo, actualmente existe la necesidad de reconsiderar su postura y a partir de este cambio es posible que numerosos modelos e investigaciones empíricas que se están desarrollando con bases de datos contables puedan tener una aplicación más efectiva en las empresas. Entre las proposiciones que hemos considerado importantes para aminorar el exceso de flexibilidad en los criterios contables están los siguientes: * El IASC debe dejar de rehuir a la intervención en la interpretación de las cuestiones contenciosas, pues se tiene que reconocer la limitación que tiene el auditor externo provocada por las presiones individuales ante sus clientes y competidores. Hay que considerar que la autorregulación de la profesión contable y de auditor no ha sido siempre la mejor alternativa o salida. Prueba de ello son las Directrices de la Unión Europea que comienzan a ser aplicadas y vigiladas de forma cada vez más estrictas por parte de sus estados miembros. * Crear un organismo contable dotado de hecho y derecho. Esto quiere decir que debe existir una institución técnicamente competente e independiente, con apoyo legal para cumplir con las normas contables. * Impedir que directores financieros y socios de las grandes firmas sean a su vez los dirigentes de los organismos reguladores, pues funcionan como juez y partes a la vez y eso representa una de las más estrictas violaciones a un sistema de control interno. * Reducir la elección de métodos contables especificando detalladamente las circunstancias en que se puede aplicar cada método y considerando variables tan importantes como el sector de la empresa, la inflación, la tecnología utilizada, la frecuencia en cierto tipo de operaciones como en el caso de la contabilización de productos derivados, etc.. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 140 * Limitar la ambigüedad de opiniones para clasificar ciertas operaciones, como el caso de las partidas extraordinarias que no figuran dentro del cálculo del beneficio operativo. Al respecto, algunas legislaciones como la del Reino Unido han abolido la categoría de “partidas extraordinarias”. * Dar más importancia al estado de origen y aplicación de recursos, fondos y cash flow, pues éstos proporcionan un análisis más real sobre las cifras de liquidez y solvencia. Además, estos estados también limitan la discrepancia entre los beneficios declarados y el cash flow, lo que permite conocer el grado de utilización en términos cuantitativos del efecto window dressing. * Comparar los formatos de los estados financieros de años anteriores con el actual, para aplicar consistentemente los mismos ratios a cifras reexpresadas o actualizadas en caso de que la inflación haya variado significativamente entre esos períodos. * Estar consciente el inversor que las cuentas siempre presentan márgenes de error que puede oscilar desde un 10 % en adelante, según lo demuestra los informes de auditoría externa que se practican anualmente en varios países como México. De ahí que afirmemos que un estado financiero, como documento autónomo de información, tienen un valor limitado. Esto permite eliminar esa confianza “absoluta” por parte de los usuarios. * Cuando el usuario quiere contrarrestar el desarrollo de la contabilidad creativa es importante que conozca los principios y normas de valoración y además tenga la información suficiente sobre las políticas contables adaptadas por el sector en que se ubica la empresa o empresas sujetas al análisis financiero. * Reconocer definitivamente la capacidad del auditor de cuentas para “certificar” los estados financieros, pues hasta la fecha su alcance se limita como máximo a “dar una opinión” sobre la razonabilidad de la información financiera a través del dictamen. En resumen, podemos decir que lo importante es resaltar que el “window dressing” o contabilidad creativa es otra de las causas más típicas del fracaso empresarial e incluso podemos afirmar que su aplicación es una de las medidas más peligrosas que utilizan las empresas que no alcanzan el éxito. Estas prácticas buscan en todo momento presentar en épocas de crisis resultados mejores a los reales, asumiendo un coste extra de fiscalidad (aunque si existe una legislación fiscal con múltiples “lagunas”, este coste puede ser incluso eliminado, aunque en detrimento de la calidad y utilidad de la información contable). Otra propuesta ante el efecto window dressing, es aminorar la relatividad y ambigüedad de las definiciones. Para esto es importante no dejar de trabajar en la homologación de los principales conceptos contables. Recordemos que la contabilidad debe tender siempre a ser una técnica -y no un arte- que de forma cronológica, sistemática y estructurada registre en términos monetarios todas las operaciones que lleva a cabo una empresa con la finalidad de elaborar estados financieros homologados y basados en la armonización internacional para una correcta toma de decisiones. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 141 3.2. EL PROBLEMA DE LA ESTRUCTURACION DE LA BASE DE DATOS ANTE LA PRESENTACION Y COMPARACION DE LOS ESTADOS FINANCIEROS. Con el objetivo de analizar los problemas a los que se enfrentan las empresas en los diferentes sectores de la economía y en los diversos países donde operan, para llegar a una presentación más homogénea de los estados financieros, la cual es una exigencia actual para la comparación de sus resultados y la toma de decisiones, dentro del contexto de globalización comercial que se vive en toda el mundo, en este inciso analizamos a dos de los más importantes procesos de armonización de modelos contables que se desarrollan en el mundo: la región del Tratado de Libre Comercio de América del Norte y la región del mercado común de la Unión Europea. La presentación de estados financieros no es un problema fácil de resolver. Ya en la Unión Europea les llevó diez años el sólo llegar a un acuerdo sobre las normas mínimas para presentar la información financiera (que comprendía al balance general, el estado de resultados y el anexo) dentro del desarrollo de su mercado común. En el caso del Tratado de Libre Comercio de Norteamérica entre Canadá, México y Estados Unidos (TLC), cuya zona de libre cambio es la más grande del mundo, los intentos de armonización para la presentación de la información financiera se han visto obstaculizados principalmente por las diferencias en las condiciones económicas y monetarias locales y por el alcance y estructura de los mercados de capitales que responden a objetivos diferentes (sobre todo entre los Estados Unidos y Canadá con respecto de México). Desde principios de siglo las empresas han venido elaborando diferentes modelos de información, tanto en el contenido como en la presentación financiera, considerando como elemento principal el tipo de usuario al que se dirige dicha información. Aún cuando algunas empresas multinacionales intentaron integrar de una sola forma su información financiera antes de la década de los setenta, al enfocar sus estados financieros hacia usuarios más polivalentes, estas empresas se encontraron con la gran dificultad de una falta de armonización de los principios contables de los diferentes países. La anterior situación repercutió directamente en la presentación de los estados financieros, además, en esa época no existía un organismo internacional formal capaz de intentar solucionar el anterior problema pues el “International Accounting Standars Committee” surgió hasta 1973. Fue sólo la hegemonía de las principales potencias industriales la que logró crear cierto tipo de modelos homogéneos que posteriormente fueron adoptados por aquellos países que se encontraban dentro de su órbita de influencia económica y financiera. Así, en el caso de Gran Bretaña, y posteriormente Estados Unidos, se desarrolló el Modelo Angloamericano. Por otra parte: Alemania, Francia, Japón y Suiza desarrollaron el Modelo Continental. En ambos casos estos modelos fueron los de mayor influencia y aplicación en todo el mundo. Actualmente, aunque no existen dos países con sistemas integrales de contabilidad idénticos, sí podemos decir que ya es posible caracterizar una serie más amplia de modelos contables armónicos en el mundo, los cuales ya no responden únicamente por la órbita de su influencia, sino también estos modelos se homogeneizan por una serie combinada de características estructurales que presentan las empresas con respecto a sus sistemas macroeconómicos (modelo angloamericano, continental, franco-sueco, latinoamericano). También el entorno macroeconómico condiciona a generar cierto tipo de información financiera muy concreta y dirigida siempre a las características típicas de sus principales usuarios (accionistas, acreedores, bancos, el gobierno, etc.). De esta forma nos damos cuenta que, importantes elementos ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 142 adicionales y combinados condicionan las diferentes formas de presentar la información financiera. Según el “Canadian Institute of Chartered Accountants”, el “Financial Accounting Standard Board of the United States” y el Instituto Mexicano de Contadores Públicos, estos elementos a los que se hace mención como condicionantes son principalmente cuatro: * El modelo contable a seguir responde de acuerdo a los principios contables que rigen en el país. * El mercado de influencia al que pertenece el país, y por consecuencia la empresa, condiciona la presentación de la información contable. * El tipo de modelo contable responde al método para revelar o reexpresar las cifras ante efectos inflacionarios, y por último, * La forma de organización y estructura del capital que tiene la empresa determina también al modelo contable. 3.2.1. MODELOS DE ARMONIZACION DE ACUERDO A LA INFLUENCIA DE SUS RESPECTIVOS MERCADOS. Actualmente existen dos importantes modelos que se están desarrollando a consecuencia de la eliminación de las barreras arancelarias y la conformación de mercados o zonas comunes. Estos son los correspondientes a las zonas de América del Norte y la de la Unión Europea. En el primer caso, el modelo de armonización norteamericano tiene como principal antecedente y componente al denominado modelo angloamericano. En este modelo el inversor es el principal usuario y su origen se ubica en la Gran Bretaña durante la revolución industrial. Durante esta etapa económica las empresas mostraron un comportamiento de crecimiento muy acelerado y sus necesidades de capital crecieron rápidamente. Dichas necesidades al no poderlas cubrir el sistema financiero, fueron cubiertas por la creciente clase media. Sin embargo ésta, estaba imposibilitada para “leer” los informes financieros y las auditorías que se caracterizaban por excesivo tecnicismo. Los contables y empresarios, al darse cuenta que el inversor tenía únicamente acceso a informes financieros de carácter público, que eran supervisados en cuanto a su veracidad y confiabilidad por parte del gobierno, les llevó a considerar que el principal usuario sería principalmente dicho inversor, el cual tenía como objetivo central el conocer la determinación del beneficio para llevar a cabo sus decisiones de inversión y desinversión. Aunque actualmente la orientación de este modelo también se ha dirigido hacia los proveedores y acreedores, éstos continúan ocupando un segundo plano. Los Estados Unidos, Gran Bretaña, Australia y Holanda, que son países que tienen un alto nivel de educación y experiencia en los sistemas contables, constituyen los principales ejemplos en la aplicación de este modelo. Entre otras cosas, esto también se debe a que tradicionalmente han contado con un gran número de empresas multinacionales que obtienen su financiamiento principal del capital propio. Esto también se observa en todas sus sucursales, filiales y asociadas con participación significativa. Otro modelo que también forma ya parte constitutiva del modelo norteamericano, es el modelo latinoamericano. Esto en parte se debe a la gran intervención económica que experimentan las economías latinoamericanas a través de las empresas de los Estados Unidos desde hace más de un siglo. En este modelo los principales usuarios son los inversionistas extranjeros y el gobierno. Desde principios de los ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 143 setenta este modelo se ha desarrollado a consecuencia de la desagradable experiencia inflacionaria que impacto al subcontinente y que vino a complicar aún más la técnica contable.14 Bajo este modelo, el gobierno tiene una intervención más directa en la regulación de las prácticas contables con el fin de alcanzar una mayor armonización entre los estados financieros de las empresas para determinar las tasas impositivas correspondientes, pues tanto el impuesto sobre la renta como el impuesto al valor agregado constituyen ambos uno de los componentes más importantes del sistema de ingresos del estado. Respecto al modelo de armonización contable que se desarrolla en los países de la Unión Europea, el modelo continental constituye su antecedente más directo. Aquí el usuario central es el acreedor y los grandes bancos que existen en este espacio económico, los cuales son en general los principales proveedores de capital de las grandes y medianas empresas. También en algunos países de la Unión Europea, el gobierno representa uno de los principales usuarios al utilizar la información financiera de las empresas como una fuente de datos básica para el diseño de sus políticas macroeconómicas. Aquí, los estados financieros no son tan detallados como en el modelo angloamericano, pues las empresas normalmente consultan las necesidades de información que requieren los bancos, y por tanto, el modelo se basa en un sistema contable orientado hacia el análisis crediticio que pone especial énfasis en las prácticas contables conservadoras. Por ejemplo, la creación de reservas y su correcta clasificación son muy importantes pues representan una garantía para el respaldo de los créditos concedidos a las empresas. Alemania, Austria, Bélgica y Suiza han sido los típicos representantes de este modelo. También Japón y otras naciones fuertemente vinculadas a su economía lo aplican. Por otra parte, es importante mencionar al modelo franco-sueco como antecedente directo de la armonización contable europea, en donde el principal usuario es el gobierno quien tiene una mayor libertad en el manejo de los recursos del país e intervención para poder asegurarles a las empresas el capital necesario para su desarrollo y expansión. Aquí, para cubrir las necesidades de capital de las empresas, el gobierno hace llegar los recursos financieros, vía préstamos o inversiones directas, a cambio de que las empresas orienten sus estrategias hacía las políticas macroeconómicas del país, cumpliendo al mismo tiempo, con la mayor posible uniformidad en las prácticas contables para llevar a cabo un efectivo análisis agregado de los diferentes sectores productivos. Tanto el modelo continental como el franco-sueco, están experimentando cambios importantes para sintetizarse en el nuevo modelo europeo. Esto obedece a la puesta en marcha de las Directrices de Derecho de Sociedades y de Bolsa de la Unión Europea en donde están implicados los quince estados miembros. Además, se espera que el modelo final surgido de este bloque comercial se extienda a los diez países de Europa del Este, conocidos como “Pecos”, que son aquellos que están a la espera de ser admitidos en la Unión Europea. Por el momento, dichos países están ajustando sus estructuras y comportamientos empresariales de acuerdo a lo que exigen las directrices comunitarias. Como sabemos, el primer grupo probable de adhesión esta constituido por Polonia, Hungría, República Checa, Eslovenia y Estonia. El segundo grupo lo representan Bulgaria, Rumania, República Eslovaca, Letonia y Lituania. De lograrse la total armonización contable en esta región, surgiría el mayor concepto de armonización contable a escala mundial en el mediano plazo. 14 Tres de los principales países en sufrir el efecto inflacionario de principios de los setenta, fueron. Argentina, Brasil y México. Estos registraron tasas inflacionarias de hasta tres dígitos y se llegaron a ubicar como los primeros países con mayores deudas externas a escala mundial. De ahí que su dependencia de inversión y financiación del exterior se convirtiera en fundamental. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 144 3.2.2. EL MODELO NORTEAMERICANO CON BASE AL TRATADO DE LIBRE COMERCIO. Como resultado de la globalización promovida principalmente por los Estados Unidos de Norteamérica, en 1988 se firmó un Tratado de Libre Comercio entre este país y Canadá. Posteriormente, ante la crisis de liquidez mexicana de 1990 y la reestructuración de su deuda externa, se llevó a cabo en este país un proceso vertiginoso de privatizaciones y la liberación de la economía, manifestándose esto en una apertura comercial extraordinaria que desembocó en 1993 en la firma del Tratado de Libre Comercio de América del Norte (TLC) entre tres países: Canadá, México y los Estado Unidos15. Esto originó que en la profesión contable de estos países, surgiera la necesidad de conocer mejor los principios de contabilidad de sus contrapartes, además de los sistemas contables de otras economías, ante la inminente conformación de grandes bloques económicos (como el caso de la Unión Europea, los “tigres asiáticos”, el Mercosur, etc.) que comenzaron a demandar una mayor armonización internacional para la comunicación de la información financiera, en un contexto en el que las fronteras técnicas iniciaron su tendencia a ir desapareciendo con mucho mayor velocidad respecto a las fronteras políticas. En 1973, los países del TLC ya habían participado en la fundación del Comité de Normas Internacionales de Contabilidad (IASC), y para 1992 formaron un colectivo de especialistas sobre temas contables denominado “ Grupo de Estudio”, el cual desarrolló un proyecto con la participaron de expertos en otras áreas como las de finanzas, regulación de valores, análisis financiero, entre otras. Entre los principales objetivos que se fijaron estuvieron los siguientes: 1. Analizar las similitudes y diferencias entre las normas de contabilidad de los tres países. 2. Identificar aquellas áreas que se debían actualizar para la armonización de las normas de contabilidad. 3. Proporcionar a los usuarios de los estados financieros, información más homogénea en su presentación para aumentar la capacidad de comparación entre las empresas de los tres países. En el año de 1993, el trabajo se finalizó, en medio de una rápida irrupción de las empresas mexicanas a los mercados de capitales internacionales. Aprovechando la experiencia norteamericana, en México se editaron una serie de boletines innovadores para el intento de armonización internacional como los boletines: A-7: “Consistencia”; A-8: “Aplicación Supletoria de las Normas Internacionales de Contabilidad”; B-3: “Estado de Resultados”, y B-14: “Utilidad (Beneficio) por Acción”. Además, también se editaron diez circulares en las que según el Grupo de Estudios, se comprobó desde el inicio que no existían muchas diferencias entre los tres modelos contables. Respecto a las diferencias que el estudio detectó, se concluyó que no eran tan significativas, pues eran más bien derivadas de los diferentes marcos jurídicos y no de las tradiciones o diferencias de criterios. Opinión no del todo cierta, pues también dichas diferencias derivadan de las diferentes estructuras socioeconómicas y políticas que diferencian a México con respecto de los Estados Unidos y el Canadá. La publicación de los resultados se realizó formalmente en agosto de 1996 y comprendió el examen y comparación de: los procesos para establecer y aplicar las normas de contabilidad; las estructuras conceptuales y las diferencias en los objetivos de los informes financieros; y, los conceptos en que se fundamentaba la elaboración de los estados financieros. También se presentaron los resultados sobre las normas de contabilidad y las prácticas reales para preparar y presentar los estados financieros, esto en un intento de identificar y estimar el impacto de las diferencias en la información financiera para posteriormente buscar soluciones hacia una mayor comparabilidad de la información financiera entre las empresas. 15 North America Trade Agreement: NAFTA. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 145 El estudio también incluyó conclusiones y recomendaciones sobre las posibles iniciativas que deberían ser interpretadas por los cuerpos reguladores de los tres países para llegar a la armonización en la presentación de la información financiera. Para esto se utilizó como punto de referencia a la estructura conceptual de las declaraciones del IASC. Sin embargo, algunos proyectos, como el de información por segmentos que son reconocidos por los tres institutos rectores de la contabilidad como una parte del “proceso de aprendizaje en un entorno contable dinámico, y cada vez más interdependiente”, no se logró ningún avance y a la fecha no se ha visto ninguna mejora pues las diferencias económicas, jurídicas y políticas entre México con respecto a Estados Unidos y Canadá continúan acrecentándose. Por otra parte, el grupo de estudio llevó a cabo una revisión de las estructuras conceptuales y las normas de contabilidad emitidas por el Comité de Normas Internacionales de Contabilidad (lo que es mejor conocido como NIC´s). Además, se expuso un breve informe sobre las estructuras de los mercados de capitales bajo las condiciones económicas de cada uno de los países, pues se consideró que es ahí donde se aprecia la utilidad de la información contable. Sin embargo, y como se mencionó líneas atrás, quedaron algunas tareas pendientes como el análisis detallado de las principales diferencias de los tres países sobre sus normas de contabilidad por industrias, pues ya en ese entonces el grupo de estudio valoró que era necesario considerar el sector y el tamaño de la empresa para llevar a cabo estudios comparativos verdaderamente eficientes.16 El objetivo principal del TLC fue reducir la mayoría de las barreras comerciales de bienes, liberar el flujo de servicios y de capitales, y abrir nuevas áreas de oportunidades en cada uno de los tres países para realizar mejores negociaciones entre ellos, es decir, con ventajas competitivas, a nivel internacional. Para cumplir con estos objetivos se consideró importante conocer con exactitud las diferencias y similitudes entre las normas de contabilidad que aplican las empresas orientadas a producir beneficios en los tres países, pues según el TLC, esto permitiría homologar aquellas áreas diferentes, para obtener una mayor comparabilidad exigida por los mercados financieros actuales. Para esto el estudio examinó las tres áreas siguientes: 1. Los procesos para establecer normas de contabilidad. 2. Los marcos conceptuales. 3. Las normas de contabilidad. Con respecto a las estructuras de los mercados de capital, en nuestra opinión, aunque el modelo mexicano ha intentado implementar lo más fiel posible su sistema financiero con respecto a las economías altamente desarrolladas, éste aún en día responde a intereses muy distintos que podríamos denominar “extra fronteras” (al contrario de los de sus vecinos del norte). Así, también lo reconoció el Grupo de Estudio del TLC al afirmar que: “las normas de contabilidad y de revelación de un país tienden a reflejar necesidades específicas y circunstancias provenientes de las condiciones económicas y monetarias locales incluyendo el alcance al cual el capital ha sido aplicado para la industrialización, la confianza otorgada a la inversión extranjera en la industria, las necesidades de capital y revelación de los proveedores de capital, las tasas de inflación locales, entre otros factores” (op. cit. p.5). Esto indica que existen serias dudas sobre la homologación e internacionalización de la técnica contable con estructuras macroeconómicas marcadamente diferentes, pues la armonización no se basa exclusivamente en factores comerciales. 16 El Grupo de Estudio tuvo el papel de consejero, pero la investigación y el análisis detallados fueron realizados principalmente por el Instituto Canadiense de Contadores, El Instituto Mexicano de Contadores Públicos y el Consejo de Normas de Contabilidad Financiera de los Estados Unidos, así como también por representantes de la firma KPMG Peat Marwick LLP. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 146 Con base a un análisis comparativo entre los tres países y en los sólidos resultados del grupo de estudio, encontramos tres factores diferenciados y determinantes, que al menos en el corto plazo, representan un obstáculo fuerte para la comparabilidad de los estados financieros entre las empresas mexicanas, canadienses y estadounidenses. Estos son: la distinta propiedad de las empresas, el financiamiento exterior y la diferente estructura de cada uno de los mercados de capitales. Cada uno de ellos refleja la difícil posibilidad de comparación, al menos que se desarrolle paralelamente la estructura macroeconómica. 3.2.3. MODELO DE LA UNION EUROPEA. A partir de 1968 la Unión Europea ha intentado armonizar formalmente sus sistemas contables para eliminar los distintos tipos de modelos que se dan entre sus quince estados miembros. Esta región, en la práctica, es la primera organización internacional que más lejos ha llegado en el intento armonizador, al tener una significativa autoridad jurídica en la elaboración de los estados financieros dentro de sus países miembros, tanto para sus empresas como para aquellas multinacionales que están ubicadas dentro del territorio comunitario. La Unión Europea considera que a diferencia de una zona de libre cambio, como el Tratado de Libre Comercio de Norteamérica, un mercado común se caracteriza por la desaparición de las barreras a la libre circulación de: personas, mercancías, servicios y capitales. Estas cuatro libertades o derechos fundamentales comunitarios que son los que caracterizan a la región, no son sólo aplicables a las personas sino también a las empresas, y su fuerte influencia está fundamentada y legislada en varias resoluciones o directrices de la Unión Europea. En cuanto a las modalidades del mercado europeo, la coordinación de los derechos fundamentales comunitarios se efectúa por medio de las directrices que son propuestas por la Comisión Europea que es el órgano de gobierno de la Unión que se encarga de aplicar las reglas de los tratados y administrar los créditos presupuestarios, además de que propone las leyes comunitarias o directrices, vela por el respeto de los tratados y gestiona las políticas comunes. La Comisión está formada por 19 comisarios y un presidente nombrados por los estados miembros. Esta comisión se caracteriza por su independencia respecto a los gobiernos y se integra de la siguiente forma: Alemania, España, Francia, Italia y Reino Unido pueden nombrar cada uno a dos comisarios, mientras el resto de los países sólo tienen derecho a nombrar un comisario. Con respecto a la elección del presidente, su nombramiento es sometido a la consulta y aprobación del Europarlamento, mientras la elección de los comisarios obedece a la noción de confianza de la Cámara o Parlamento Europeo que es el único órgano que puede censurar a la Comisión.17 Cuando las directrices son propuestas por la Comisión y finalmente aprobadas por el Consejo Europeo (previa consulta al Parlamento o Asamblea Europeo y al Comité Económico y Social), éstas por lo regular no son aplicables directamente a las empresas, pues deben ser transformadas en derecho nacional para el control de las transformaciones y la interpretación de los textos que están supeditados en última instancia a la Corte de Justicia Europea. Cada una de las directrices de la Unión Europea tiene un impacto positivo y concreto en las actividades contables, sin embargo, dichas directrices no pueden proteger totalmente la efectividad de la información financiera pues mucho depende de los principios contables y de las disposiciones legales que rigen la 17 El mandato de la Comisión es de cinco años y tiene su cede en Bruselas. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 147 preparación, presentación y disponibilidad de los estados financieros, así como, del informe del auditor ante los accionistas y el público en general. Para muchos países normalmente el factor determinante a la hora de imponer los requisitos sobre la presentación de informes financieros y el dictamen del auditor, se basa en la importancia relativa que tiene un sector concreto para su economía. Inicialmente esto se dio como respuesta a la enorme proliferación de quiebras empresariales que se produjo durante la década de los treinta. Sin embargo, actualmente existe otro factor fundamental que se debe a la importancia económica de un mercado público de valores, en donde las empresas tienen que funcionar eficientemente cuando cotizan y para esto se requiere una auditoría independiente que avale la calidad y utilidad de la información contable. Niessen (1985) opina que la contabilidad, y en particular el establecimiento de cuentas, se ha convertido por su complejidad en una verdadera rama del derecho que denomina: “derecho contable”. Para él, las normas promulgadas por el jurista se dirigen primero a aquellos que establecen las cuentas y su objetivo es proteger los intereses de los que toman las decisiones sobre la base de las cuentas. En cuanto al derecho contable de esta región, éste se empezó a desarrollar a partir del 9 de marzo de 1968, fecha en que se intentó establecer la primera directriz para regular las sociedades de capitales de los países miembros con el fin de proteger los intereses de los socios y de terceros en general. A pesar de que en aquel entonces todos los países comunitarios reconocieron la necesidad que exige de una mayor armonización contable, el camino hacia dicho objetivo no ha sido fácil, por ejemplo, durante 1968, cuando la Comisión intentó establecer la directriz que contenía el catálogo comunitario de las cuentas anuales, se encontró con una fuerte oposición de algunos países comunitarios (principalmente Alemania). Esto implicó que el primer intento de armonización contable para las cuentas de todas las sociedades de capitales, se retrasara diez años (hasta el 25 de junio de 1978), fecha en que se emitió la cuarta directriz que se refiere a la regulación de las cuentas anuales. Con esto se perdió una vez más un largo período para producir una contabilidad con confiabilidad, calidad y utilidad como base de datos, sobre las que se fundamentaran gran número de investigaciones empíricas. A la fecha la anterior situación ha cambiado radicalmente a través de la emisión de ocho directrices de derecho de sociedades y tres directrices que se aplican en las Bolsas de Valores. De todas estas directrices, aquellas que han tenido un mayor impacto sobre la práctica contable y la auditoría para producir información contable más útil, se encuentran tres directrices que pertenecen al derecho de sociedades y que son: la cuarta, séptima y octava. Las directrices cuarta y séptima tratan sobre los requisitos contables y de auditoría que se han introducido en los países miembros, mientras la octava directriz se refiere concretamente a las normas sobre educación, capacitación y cualificación de los auditores. Estas directrices de derecho societario en general representan un conjunto de normas que deben ser muy bien interpretadas para alcanzar su verdadera efectividad, pues como afirma Niessen (1985): “una cosa es la competencia en lo que se refiere a la coordinación en materia de derecho de sociedades dada a las instancias comunitarias, y otra cosa es el campo de aplicación de una directriz en general”. Como conclusión sobre este capítulo, recomendamos que al utilizar datos contables de empresas mexicanas es muy importante considerar tres matices que presenta actualmente la contabilidad en nuestro país: ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 148 a) El problema que existe para obtener las bases de datos ante la práctica del denominado efecto “window dressing” que afecta negativamente la utilidad del sistema contable. b) El problema que se presenta para la comparación de las bases de datos entre las diferentes empresas de la muestra seleccionada, considerando las diferentes tendencias que se dan en la presentación de los estados financieros, así como las limitaciones que presentan actualmente las propuestas para obtener nuevos modelos de homogeneización o armonización a escala mundial para la elaboración de los estados financieros básicos. c) El problema de la estructuración de las bases de datos ante los diferentes criterios de actualización de las cifras, bien sea mediante la revelación o a través de la reexpresión de los estados financieros. Como sabemos la actualización es necesaria para conservar la validez, confiabilidad y comparabilidad de la información contable a lo largo de los años. Sin embargo, a la fecha existe una controversia en cuanto al método para actualizar dichas cifras pues cada uno de estos da diferentes resultados. Este último aspecto pasaremos a analizarlo en el capítulo siguiente. Cuadro 3.6. DIRECTRICES DE DERECHO DE SOCIEDADES Y DE BOLSA DE LA UNION EUROPEA S I S T E M A C O N C U R S A L C O N T A B L E FECHA DE EMISION Y FECHA DE ENTRADA EN VIGOR Marzo 9, 1968 Septiembre 9,1969 Diciembre 13, 1976 Diciembre 13, 1978 Octubre 9, 1978 Octubre 9,1981 Julio 25, 1978 Julio 25, 1980 Agosto 1983* Diciembre 17, 1982 Enero 1, 1986 Junio 13, 1983 Enero 1, 1988 Abril 10, 1984 Enero 1, 1988 DIRECTRICES DE DERECHO DE SOCIEDADES CONTENIDO “Las garantías que se exigen a las sociedades de lose Estados Miembros a fin de proteger los intereses de los socios y de los terceros”. “Las garantías exigidas por los Estados Miembros a las sociedades en lo concerniente a la constitución de la Sociedad Anónima así como al mantenimiento y a las modificaciones de su capital”. “Fusiones entre Sociedades Anónimas”. “Las Cuentas Anuales”. “Propuesta de la estructura de las sociedades anónimas que cotizan en Bolsa y de los poderes y obligaciones de los órganos”. “Escisiones de las sociedades anónimas cotizadas en Bolsa”. “Las Cuentas Consolidadas”. “La habilitación de las personas encargadas de la auditoría legal de los estados contables”. PRIMERA DIRECTRIZ SEGUNDA DIRECTRIZ TERCERA DIRECTRIZ CUARTA DIRECTRIZ QUINTA DIRECTRIZ SEXTA DIRECTRIZ SEPTIMA DIRECTRIZ OCTAVA DIRECTRIZ FECHA DE EMISION DIRECTRICES DE BOLSA PRIMERA DIRECTRIZ SEGUNDA DIRECTRIZ CONTENIDO B U R S A T I L Marzo 5, 1979 Marzo 5, 1981 Marzo 17, 1980 Septiembre 5, 1982 Febrero 15, 1982 Junio 30, 1983 “Las condiciones de admisión de valores mobiliarios”. “Las condiciones de preparación, control y difusión del folleto a publicar para la admisión de valores mobiliarios. Información periódica a publicar por las sociedades cuyas acciones están admitidas a cotización oficial en Bolsa”. TERCERA DIRECTRIZ *La propuesta inicial se remonta al 13 de diciembre de 1972, pero por su importancia y el gran número de disposiciones polémicas que contenía la propuesta, a la fecha se continua revisando ésta. FUENTE: Elaboración propia basado en información del Instituto de Censores Jurados de Cuentas de España: “Directrices de Derecho de Sociedades y de Bolsa”. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 149 CUADRO No 3.7. EVENTOS DE IMPACTO EN LA ARMONIZACIÓN CONTABLE INTERNACIONAL AÑO DE ORIGEN 1904 ORGANISMO IMPACTO I CONGRESO INTERNACIONAL DE CONTABILIDAD (SANT LOUIS, ESTADOS UNIDOS) II CONGRESO INTERNACIONAL DE CONTABILIDAD (AMSTERDAM, HOLANDA) III CONGRESO INTERNACIONAL DE CONTABILIDAD (NUEVA YORK, ESTADOS UNIDOS) FEDERACION NORDICA DE CONTADORES (NFA) IV CONGRESO INTERNACIONAL DE CONTABILIDAD V CONGRESO INTERNACIONAL DE CONTABILIDAD Celebrado en Sant Louis auspiciado por la Federación de Sociedades de Contadores Públicos de los Estados Unidos Celebrado en Amsterdam. Aquí es cuando se comienza a celebrar con regularidad los congresos con participación internacional A partir de esta fecha los congresos se celebran con una regularidad, con intervalos normalmente de cinco años. Participaron 17 países. Fundada por Dinamarca, Finlandia, Islandia, Noruega y Suecia para tratar temas de control de calidad en los servicios profesionales, consultoría y educación continua. 1926 1927 1931 1932 1937 1948 GENERAL AGREEMENT ON TARIFFS AND TRADE (GATT) ASOCIACION INTERAMERICANA DE CONTABILIDAD (IAA) 1949 1951 UNION EUOPEA DE EXPERTOS CONTABLES Y FINANCIEROS Se establece, no como una organización internacional típica, sino como un marco para negociaciones entre sus países miembros para solución de controversias y conflictos comerciales. Surge la primera Conferencia Interamericana de Contabilidad que se inician en Puerto Rico y dan origen a la IAA en 1975, concentrando a las asociaciones del continente americano. Hoy transformada a Federación de Expertos Contables Europeos (F.E.E.) al fusionarse con el Grupo de Expertos de la Comunidad Económica Europea. La F.E.E. cuyo estatus es el de órgano consultor de la Comunidad Económica Europea, fue fundada por doce países. 1952 1957 VI CONGRESO INTERNACIONAL DE CONTABILIDAD CONFEDERACION DE CONTADORES DE ASIA Y DEL PACIFICO (CAPA) Consolidada hasta los setenta, la CAPA sentó sus bases en Manila a través de la Convención de Contabilidad de Asia y del Pacífico. El tema principal que se trata por primera vez es la idea de una necesaria homogeneización institucionalizada mediante una organización apoyada por el mayor número posible de países. Esta cuestión vuelve a aparecer en 1963 en el Octavo Congreso y posteriormente en el Noveno Congreso celebrado en París, en donde se hacen esfuerzos para la armonización de los principios contables. Al crearse, exige a sus miembros aumentar el grado de compatibilidad y homogeneización en los métodos contables para la inversión internacional con el objetivo de desarrollar la economía mundial por medio de la estabilidad financiera y del máximo grado sostenible de crecimiento y empleo en los países integrantes. 1957 VII CONGRESO INTERNACIONAL DE CONTABILIDAD 1960 ORGANIZACIÓN PARA LA COOPERACION Y DESARROLLO ECONÓMICO (OCDE) VIII CONGRESO INTERNACIONAL DE CONTABILIDAD 1963 1966 ACCOUNTANS INTERNATIONAL STUDY GROUP (A.I.S.G.) 1967 1968 IX CONGRESO INTERNACIONAL DE CONTABILIDAD (PARIS, FRANCIA) PRIMERA DIRECTRIZ DE LA UNION EUROPEA 1970 MERCADO ÚNICO EUROPEO Grupo de estudio creado por Canadá, Estados Unidos y Reino Unido para estudio y solución de problemas comunes. Su objeto no iba más allá de temas teóricos o prácticos que interesasen a los organismos participantes. Tuvo sólo 12 años de existencia. Antecedente del IASC. Congreso celebrado en París, en donde se hacen esfuerzos para la armonización de los principios contables y se establece el Comité para la Coordinación de la Profesión Contable (ICCAP), cuya propuesta es aprobada en 1972. Regula el modo de publicación de los estados financieros de las sociedades de capitales. Se crean las bases para un Mercado Único Europeo mediante los tratados de Roma. Se incluyen algunas directrices tendientes a homogeneizar los criterios contables. Nació en el X Congreso Internacional de Contabilidad de Sydney para tratar de coordinar la profesión contable a nivel mundial y elaborar normas contables de alcance internacional. Antecedente de la IASC y la IFAC. Nacimiento del Comité Internacional para la Coordinación de la Profesión Contable (ICCAP) Se forma esta organización para la elaboración de estados financieros combinados; reconocimiento de los efectos cambiarios de las monedas extranjeras; capitalización de costes por financiamiento y la revelación de transacciones entre partes relacionadas. Primera propuesta de creación de la IFAC Se creó por resolución del Consejo Económico y Social de las Naciones Unidas (ECOSOC) para estudiar el impacto de las multinacionales en el desarrollo de las relaciones internacionales, señalándose una falta de revelación y comparabilidad de la información financiera. 1972 1972 COMITÉ PARA LA COORDINACION DE LA PROFESIÓN CONTABLE (I.C.C.A.P.) X CONGRESO INTERNACIONAL DE CONTABILIDAD (SYDNEY AUSTRALIA) 1973 INTERNATIONAL ACCOUNTING STANDAR BOARD (IASC) 1973 GRUPO DE TRABAJO INTERGUBERNAMENTAL DE EXPERTOS EN NORMAS INTERNACIONALES DE CONTABILIDAD E INFORMACIÓN DE LA ONU. ____________________________________Capítulo 3: Las Bases de Datos y el Window Dressing 150 1975 ASOCIACION INTERAMERICANA DE CONTABILIDAD (IIA) COMISION DE CORPORACIONES TRANSNACIONALES (TNCs) 1976 1976 1977 SEGUNDA DIRECTRIZ DE LA UNION EUROPEA XI CONGRESO INTERNACIONAL DE CONTABILIDAD (MUNICH. ALEMANIA) INTERNATIONAL FEDERATION OF ACCOUNTATNS (I.F.A.C.) FEDERACION DE CONTADORES DE LAS NACIONES DEL SURESTE ASIATICO TERCERA Y CUARTA DIRECTRICES DE LA UNION EUROPEA GRUPO DE EXPERTOS CONTABLES SOBRE NORMAS CONTABLES INTERNACIONALES POR PARTE DE LA O.N.U. COMITÉ DE PRACTICAS INTERNACIONALES DE AUDITORÍA ASOCIACION DE MIEMBROS CONTABLES DEL OESTE DE AFRICA (ABWA) COMITÉ DE PRACTICAS INTERNACIONALES DE AUDITORÍA XII CONGRESO INTERNACIONAL DE CONTABILIDAD (ACAPULCO, MÉXICO) SEXTA DIRECTRIZ DE LA UNION EUROPEA QUINTA DIRECTRIZ DE LA UNION EUROPEA SEPTIMA DIRECTRIZ DE LA UNION EUROPEA OCTAVA DIRECTRIZ DE LA UNION EUROPEA COMITÉ DE PRACTICAS INTERNACIONALES DE AUDITORÍA XIII CONGRESO INTERNACIONAL DE CONTABILIDAD Comienza el inicio de las Conferencias Interamericanas de Contabilidad para intercambiar experiencias y unificar criterios. Por sugerencia de la ONU ha empezado a considerar un sistema internacional de principios contables y presentación de estados financieros, además de un codigo de conducta para compañias multinacionales. Hasta la fecha la propuesta sigue aplazada por objeciones de gobiernos y firmas internacionales. Trata sobre las garantías exigidas en los estados miembros a las sociedades sobre su constitución, mantenimiento y modificaciones de su capital. Se aprueba la creación del IFAC para transformar la estructura del ICCAP. El I.C.C.A.P. se convirtió en IFAC en el Congreso Internacional de Munich, por acuerdo de 50 organizaciones de profesionales contables. El IASC ya gozaba de dinámica propia, habiendo emitido varios NIC´s Se constituye en Bangkok Tailandia. 1977 1977 1978 Tratan de las fusiones entre sociedades anónimas y las cuentas anuales Se crea un grupo para analizar y proponer las normas internacionales de contabilidad y presentación de estados financieros. Elaboración de la Primera Norma Internacional de Auditoría: “Objetivo y Alcance de la Auditoría de los Estados Financieros. Ya en 1979 se había publicado el Prefacio a las Normas Internacionales y Declaraciones Complementarias de Auditoría de la IFAC. Se fundó por el Instituto de Contadores de Nigeria y el Instituto de Contadores de Ghana. Primera Guía Internacional sobre Etica Profesional: “Publicidad, Comunicación, y Ofrecimiento de Servicios”. Se establecen en México los compromisos mutuos entre la IASC y la IFAC. Segunda revisión de Acuerdo y de la Constitución. Trata sobre las escisiones de las sociedades anónimas. Esta directriz aún no aprobada y que se inició en 1972, trata sobre la estructura de las sociedades anónimas que cotizan en Bolsa. Trata sobre las cuentas consolidadas. Trata sobre la habilitación de las personas encargadas de las auditorías legales de los estados contables Primera Declaración Internacional de Auditoría: “Procedimientos de Confirmación Interbancaria” Modificación de la carta constitucional del IFAC para compromisos mutuos entre el IFAC y el IASC Modificación de la Carta Constitutiva de la IFAC y del “Prefacio a las Normas Internacionales y Declaraciones Complementarias de Auditoría de la IFAC”, especialmente para introducir los compromisos mutuos entre la IFAC y la IASC Primera Norma Internacional de Servicios Relacionados con la Auditoría: “Principios Básicos que rigen los Contratos de Auditoría Limitada” Se inició el intento de armonizar los principios contables entre los dos países para evitar el producir dos o más juegos de estados financieros, dada las relaciones estrechas entre esas dos economías. Modificación del “Prefacio a las Normas Internacionales y Declaraciones Complementarias de Auditoría de la IFAC”; Primera Guía Internacional del Comité del Sector Público; Primera declaración Internacional sobre la Contabilidad de Gestión. Sustituye al GATT Se tomaron como referencia las normas de la IASC para analizar los principios de contabilidad de los tres países a fin de armonizarlos dentro de la región y contribuir también a la aceleración del proceso de armonización a nivel internacional. Pendiente de reconocimiento. 1979 1980 1981 1981 1982 1982 1983 1983 1984 1984 1987 1987 1988 NUEVA CARTA COSNTITUTIVA ENTRE LA IFAC Y LA IASC COMITÉ DE PRACTICAS INTERNACIONALES DE AUDITORÍA ACUERDO DE LIBRE COMERCIO CANADA Y ESTADOS UNIDOS 1988 1989 COMITÉ DE PRACTICAS INTERNACIONALES DE AUDITORÍA ORGANIZACIÓN MUNDIAL DE COMERCIO XIV CONGRESO INTERNACIONAL DE CONTABILIDAD TRATADO TRILATERAL DE LIBRE COMERCIO CANADA-ESTADOS UNIDOS-MEXICO XV CONGRESO INTERNACIONAL DE CONTABILIDAD EASTERN, CENTRAL AND SOUTHERM AFRICAN FEDERATION OF ACCOUNTANS (ECSAFAS) XVI CONGRESO INTERNACIONAL DE CONTABILIDAD 1990 1992 1993 1997 1998 2002 FUENTE: Elaboración propia con base en las Normas Internacionales de Auditoría de la IFAC, Normas Internacionales de Contabilidad de la IASC, Contaduría Internacional del IMCP; Información Financiera en Norteamérica del IMCP, CICA y FASB. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 151 CAPITULO 4 LA ACTUALIZACION DE LAS BASES DE DATOS 4.1. PROBLEMA DE ESTRUCTURACION DE LAS BASES DE DATOS Y LA ACTUALIZACION DE LAS CIFRAS A TRAVES DE LA REVELACION Y REEXPRESION. Uno de los objetivos principales que busca el análisis financiero tradicional y moderno es llegar a un indicador o índice resumen a través de una serie de mediciones, que nos permita predecir, pronosticar y evaluar, para llegar finalmente a la toma de decisiones. El sistema contable como producto del pensamiento económico, también busca dicha cifra o indicador resumen para medir el desarrollo y la vida de la empresa. Sin embargo, la estructura contable es un sistema de medición defectuoso que se complica con la inestabilidad de la unidad de medida y las variaciones de los precios, originados principalmente por cambios más acelerados que se dan cada día en la tecnología y en la calidad del producto. A través de los siglos, esta serie de mediciones contables dentro de las diferentes estructuras económicas y políticas, se habían venido aplicando y desarrollando mediante mediciones cronológicas e históricas, en donde el sistema contable se había fundamentando sobre todo en dos principios muy importantes que eran: a) el principio de coste histórico, y b) el principio de medición en la unidad monetaria. En ambos casos no importaba el poder adquisitivo de la moneda. Sin embargo, actualmente el problema de la comparabilidad de las mediciones contables a través del tiempo, se ha visto cada vez más complicado por la alteración del poder adquisitivo general de las distintas monedas, ya que sus cambios son continuos entre los diferentes períodos del análisis financiero. Esto es debido fundamentalmente al fenómeno inflacionario que se volvió a desarrollar en todo el mundo a partir de la década de los setenta, pero que ya había tenido también sus consecuencias negativas después de la primera guerra mundial. En períodos inflacionarios la unidad monetaria se distorsiona significativamente como parámetro de las dimensiones reales o físicas de las transacciones empresariales. El efecto distorsionador, que se produce a través de los cambios en el nivel general de precios sobre las mediciones contables, ya había comenzado a ser reconocido a comienzos de la década de los sesenta cuando en muchos países se inició un declive del poder adquisitivo de su moneda (inflación)1. Generalmente la inflación actúa en todas las empresas como un impuesto sobre los saldos de tesorería y provoca fenómenos tan importantes como: las pérdidas y ganancias derivadas de los activos y pasivos monetarios, los cambios en los flujos y demanda de fondos, los cálculos erróneos en los beneficios que se vuelven ficticios, etc.. Por otra parte, las altas tasas de interés provocadas por el efecto de los cambios en el nivel general de precios afectan también aunque de distinta forma a cada empresa, pues depende de la magnitud del cambio y de la composición de sus activos, pasivos y capitales invertidos. Según los estudios empíricos realizados en los Estados Unidos por Norby (1981) entre 1970 y 1980, para ver las revelaciones del SFAS 33 (“Información Financiera y Cambios de Precios”), indican que la inflación puede originar cambios muy significativos en los resultados de explotación y financieros. Dichos estudios demuestran que los ajustes por inflación reducen los beneficios globales de 1 Sabemos que los cambios específicos de precios no indica necesariamente que exista inflación, pues dichos cambios en los precios de bienes y servicios, que responden a cambios de productividad, calidad, etc., no afectan al poder adquisitivo general de la moneda. En esos casos la información contable no presenta significativos efectos distorsionadores, pero cuando el poder adquisitivo general de la moneda se ve alterado, entonces se convierte en el principal causante en los cambios generales en el nivel de precios, y este a su vez es el elemento central que produce el fenómeno inflacionario. Esta afirmación es desde el punto de vista monetarista que explica las causas de la inflación. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 152 operaciones continuadas entre un 53 % en moneda constantes y un 60 % al coste actual. 2 Por otra parte, Pérez (1995: p.58) apunta que la inflación además de obligar a cambiar los sistemas de contabilidad, también provoca que se revisen las técnicas financieras tradicionales y se implementen nuevas técnicas de análisis financiero como las siguientes: a) Analizar la administración del cash flow para conocer con más exactitud el beneficio en efectivo que se genera. Esto permite saber cuales son las inversiones y desinversiones que pueden llevarse a cabo y de forma oportuna en la administración del capital de trabajo y en los activos fijos, pues la liquidez es todavía más vital en contextos inflacionarios. b) Diseñar los estados de cambios, expresándolos en una misma unidad de medida para obtener el poder de compra equivalente. c) Estudiar el punto de equilibrio y contribución marginal que incluyan los efectos inflacionarios. d) Agregar nuevos indicadores financieros y analizar los efectos que producen en los ratios tradicionales. e) Implementar nuevas reglas de consolidación. Al ser detectada la anterior situación por gran número de analistas y contables, en 1963 se publicó en los Estados Unidos de Norteamérica por parte de la SEC del “Accounting Research Study” (ASR) 6. Este documento de ámbito internacional reconoció por primera vez que la inflación continua tenía efectos negativos sobre la presentación, interpretación y comparación de los estados financieros. Para 1969, el “Accounting Principle Board” (APB)3, del “American Institute of Certified Public Accounting” (AICPA), emitió el Statement No. 3: “Información Financiera y Cambios de Precios”. Aquí también por vez primera se trataban las etapas concretas a seguir para la actualización o reexpresión de los estados financieros con relación a los cambios en el nivel general de precios. De 1969 a 1974, el Statement No. 3, que tuvo al inicio el objetivo de ser un documento de carácter consultivo, dio como resultado para 1974 un borrador sobre el pronunciamiento que reconocía que la presentación de la información financiera convencional debía modificarse parcialmente para producir cierta información financiera específica, expresando ésta en unidades monetarias de poder adquisitivo. Para 1976, la “Security Exchange Commission” (SEC), que pasó de una etapa de debate a una etapa real de experimentación, exigía por primera vez a las grandes empresas: la revelación de los costes actuales de reposición de existencias, los costes de ventas y los activos amortizables con sus provisiones. En México este problema también se percibió aunque de manera más dramática. En 1973, la Comisión de Principios de Contabilidad del Instituto Mexicano de Contadores Públicos emitió el boletín B-5: “Registro de Transacciones en Moneda Extranjera”. Esto fue una tentativa de solución para no perder razonabilidad en la información contable por las altas devaluaciones que sufrió el peso mexicano, que después de 22 años de paridad estable: de los 12.50 pesos por dólar hasta agosto de 1976, inició un drástico declive situando la paridad a 26.16 por dólar en diciembre de 1981, a 47.30 en junio de 1982 y a 3074 pesos en diciembre de 1991. 2 W.C. Norby (1981): “Financial Analysis Journal”; November-December; USA.; citado en la obra de Bernstein. 3 Este comité fue sustituido posteriormente por el Financial Accounting Standars Board (FASB). _____________________________________________Capítulo 4: Actualización de las Bases de Datos 153 En aquellos momentos en que ya la devaluación había sido tan significativa, la unidad de medida se sustituyó por otra denominada,“nuevos pesos”. Esta nueva unidad entró en vigor el 1 de enero de 1993. Sin embargo, la devaluación continuó hasta llegar a diciembre de 1994 a 3914 pesos (39.14 nuevos pesos por dólar). Posteriormente, la paridad se estabilizó en 3.91 nuevos pesos, para posteriormente reiniciar su devaluación hasta llegar a una segunda estabilización que a marzo del 2000 es de 9.80 pesos por dólar aproximadamente. Este mismo problema que experimento México, también se presentó en otras muchas economías emergentes. Por eso en 1979, el FASB a través del SFAS 33 intentó implementar una mejor estructura para la elaboración y presentación de los estados financieros mediante diversas pruebas experimentales que se caracterizaron por la gran cantidad de debates y desacuerdos entre las empresas y las autoridades responsables. El SFAS 33 consistió básicamente en un experimento de 5 años que obligó a 1300 grandes empresas norteamericanas a informar sobre los efectos de la inflación general y otros cambios de precios en la información financiera. Para esto el FASB utilizó dos estructuras contables que fueron el Modelo Coste Histórico/Moneda Constante y el Modelo de Coste Actual/Moneda Nominal. Pero en 1984, cuando la tasa inflacionaria que se mantuvo en porcentajes altos durante esos cinco años descendió en los años posteriores en los Estados Unidos, la SEC optó por no obligar más a las empresas a la revelación del efecto inflacionario en los informes financieros. Esta decisión llevó a otros países con grandes avances en este campo como Inglaterra, a dejar de aplicar totalmente la contabilidad de la inflación. En México, posterior a la emisión del Boletín B-5, se emitió la Circular 14 del IMCP, que estableció que las fluctuaciones cambiarias debían afectar los resultados del período. A finales de 1979, la Comisión de Principios de Contabilidad emitió el Boletín B-7: “Revelación de los Efectos de la Inflación en la Información Financiera”. Este documento tuvo como objetivo principal ofrecer un enfoque práctico al problema complejo de la inflación en la información financiera, sin pretender con esto obtener una solución definitiva, sino únicamente establecer los lineamientos generales para incrementar el grado de significación de los estados financieros. El Boletín B-7 fue considerado como el inicio de un proceso evolutivo experimental para cubrir el vacío conceptual y técnico que existía en México sobre la contabilidad de la inflación. Así, durante 1980 se llevó a cabo una amplia actividad de difusión en todo el país acerca del contenido y aplicación de este boletín. Para 1981 se aplicó una encuesta entre las personas involucradas en la preparación, presentación y uso de la información financiera, con el fin de captar sus experiencias en cuanto a los siguientes aspectos: * Impacto de la actualización en las cifras históricas. * Grado de cumplimiento de las normas establecidas en el boletín. * Preferencia en los métodos de actualización. * Dificultad encontrada en la aplicación del método de costes específicos (Modelo de Capital Físico). * Problemas observados en la preparación y presentación de la información complementaria relativa al capital contable. * Grado de interés de los usuarios de la información. Las conclusiones y recomendaciones obtenidas fueron que el Boletín B-7 debía establecer un único método para reexpresar las cifras y mantener la utilidad de la información contable. También se concluyó que se debía integrar y reconocer el coste financiero real, es decir, incorporar el efecto por _____________________________________________Capítulo 4: Actualización de las Bases de Datos 154 posición monetaria en el estado de resultados (repomo). Por último, se acordó que dado que en México la inflación se prolongaría en el tiempo y su intensidad se incrementaría, existía la urgente necesidad de reconocer la información relativa a los efectos de la inflación dentro de los estados financieros. Después de más de una década de inflación, para noviembre de 1981 el IASC aprobó el NIC No. 15: “Información que Refleja los Precios Cambiantes”4. Con esto, por fin, se reconoció el efecto inflacionario en la información financiera a escala internacional y se permitió a las empresas actualizar las cifras de sus estados financieros a través de los dos métodos alternativos. Posteriormente, en julio de 1983 fue aprobado el NIC No. 21: “Efecto de las Variaciones en Tipos de Cambio de Moneda Extranjera”. Su objetivo principal fue el seleccionar el método de cálculo de la tasa de cambio aplicable a las operaciones y transacciones en moneda extranjera, así como reconocer el impacto financiero que esta tasa tiene en los resultados de la empresa. De esta forma se reconoció también la importancia del coste financiero en moneda extranjera ante la creciente globalización de las economías. Además, se indicó y reguló la mecánica para la traducción de estados financieros. Con relación al resultado cambiario, se estableció a través del Nic. 21 que las partidas monetarias deben mostrarse utilizando el tipo de cierre. Para las partidas no monetarias, que se contabilizan a su coste histórico y están denominadas en moneda extranjera, se concluyó que deben mostrarse utilizando la tasa de cambio a la fecha de la transacción. Para junio de 1983, el IMCP emitió el Boletín B-10: “Reconocimiento de los efectos de la inflación en la información financiera”. Los pronunciamientos emitidos en este boletín fueron complejos porque el problema a tratar de resolver era complejo, y por eso, de junio de 1984 a marzo de 1995 se publicaron cinco documentos de adecuaciones (que tienen el carácter de normatividad) y ocho circulares con criterios que han intentado uniformar la aplicación del documento original a través de la incorporación de algunos puntos en el boletín con el objetivo de hacerlo más eficaz. A partir de diciembre de 1994, las normas que se establecieron como obligatorias fueron de carácter evolutivo pues se consideró que la actualización de la información financiera es un tema sujeto a un permanente proceso de investigación para mejorar el contenido y presentación, así como para simplificar la aplicación de los métodos de actualización y llegar a una comparación mejor de los estados financieros. Actualmente en México, el Boletín B-10 representa una de las técnicas de aplicación obligatoria más avanzadas en el mundo, de ahí que esta técnica sea compleja y requiera un estudio profundo y evolutivo para erradicar la distorsión en las cifras de los estados financieros que provoca la inflación, la cual ha demostrado no ser fácil de manejar. Este documento técnico tiene como objetivo central ayudar al contable a cuantificar el efecto inflacionario, y como apunta Pérez (1995),5 esto es necesario “para estar conscientes que la utilidad de la información financiera no se aprecia al conocer “cómo” está hecha, sino al saber “qué” nos dice, ya que la información siempre cobra mayor fuerza cuando es analizada e interpretada” (p.18). 4.2. DIFERENCIA SIGNIFICATIVA ENTRE EL BOLETIN B-7 Y EL B-10. La diferencia entre el Boletín B-7 y el Boletín B-10 consistió básicamente en que el primero cuantificaba y presentaba el efecto de la inflación en notas complementarias a los estados financieros, 4 El NIC No. 15 fue modificado en octubre de 1989. 5 Pérez Reguera Alfonso (1995): “Aplicación Práctica del Boletín B-10”; Instituto Mexicano de Contadores Públicos; México; pp. 795. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 155 es decir, sólo se revelaba en una nota al final de los estados, expresándose la información básica en valores históricos y el efecto inflacionario en las notas. En cambio, en el B-10 se reconocía e incorporaba el efecto inflacionario en los estados financieros, es decir, se actualizaban o como se dice en México “se reexpresaban las cifras”, mientras los datos históricos sólo quedaban como referencia. Esto proporcionó a las empresas mexicanas un método simplificado para la reexpresión integral de los estados financieros y una técnica ágil para la reexpresión mensual. Además, el B-10 incorporó el manejo de la paridad de equilibrio para la valuación de los pasivos en moneda extranjera y dio la posibilidad para que las empresas llevaran a cabo sus propios avalúos. Pero lo más importante del B-10 es que incorporó por primera vez el concepto de “Coste Integral de Financiamiento” (CIF). Para muchos analistas y contables hasta la fecha el CIF es la parte medular de la técnica de reexpresión contenida en el B-10 y su objetivo principal es reconocer que la carga financiera de la empresa está integrada por tres conceptos claves que son: El Coste Financiero en moneda nacional (los intereses financieros). Son los intereses y sus equivalentes en moneda nacional que tradicionalmente se han clasificado como costes financieros. El Coste Financiero en Moneda Extranjera (la paridad técnica o de equilibrio): Son las diferencias y resultados cambiarios, es decir, el coste de financiamiento en moneda extranjera. El Resultado por Posición Monetaria (repomo): Es la cuantificación del resultado de la inflación en las partidas monetarias, es decir, es el efecto y resultado por la posición monetaria que puede ser “larga”, “corta” o “neutra”. Durante 1984, los Estados Unidos, ante el abandono de la contabilidad inflacionaria por parte de la SEC, el FASB emitió el SFAS 82: “Financial Reporting and Changing Prices: Elimination of Certain Disclosures” (An amendment of FASB Statement No. 33). Esto lo llevó a cabo para continuar la evaluación de su experimento sobre el área de contabilidad de la inflación. Este documento consistió en eliminar el método contable de revelación al Coste Histórico/Moneda Constante, pues se observó que al exigirse dos métodos de revelación o actualización de los estados financieros, en la práctica se perdía la utilidad de la información contable por las fuertes discrepancias que existían entre los agentes participantes. En 1986, el FASB suspendió definitivamente el experimento de la contabilidad inflacionaria que había iniciado con el SFAS 33 y el SFAS 82. Entonces emitió el SFAS 89: “Financial Reporting and ChangingPrices”, el cual recomendó a las empresas que de forma voluntaria incluyeran la revelación complementaria sobre los efectos de la inflación en la información a través del Modelo de Coste Actual/Moneda Constante. A la fecha este documento contiene las principales propuestas para la medición de transacciones en ambientes inflacionarios. Aquí la presentación de la información financiera es de carácter complementario para un mejor intento de comparación longitudinal e intersectorial entre las empresas. Es importante resaltar que el SFAS 89 se emitió como voluntario sólo por una diferencia de un voto, pues existía una fuerte oposición de quienes defendían que la revelación voluntaria de las empresas, al aplicar sus propios métodos de ajuste, reduce las fuentes de información fiable a disposición de los analistas. Bernstein (1999: p. 449) defendiendo esta posición opinaba que en realidad hubo un “juego de fuerzas considerable”, pues a las grandes compañías no les beneficiaba la obligatoriedad por el significativo trabajo extra que debía realizarse, y sobre todo, por la afectación que la reexpresión tenía sobre los resultados anuales de las empresas.6 6 Al respecto este mismo autor nos cita los casos de la ATT y la Exxon. La primera empresa declaró en 1982 unos beneficios de 7 mil millones de dólares y la Exxon por 4 mil 200 millones de dólares. En ambos casos el cálculo inicial se realizó bajo el modelo de coste histórico. Al ser reexpresadas esas cifras al modelo de coste actual, los beneficios disminuyeron drásticamente. En el caso de la ATT se llegó _____________________________________________Capítulo 4: Actualización de las Bases de Datos 156 Aunque las cifras eran más realistas a través de la actualización, pues está comprobado que la imprecisión descubierta en las mediciones contables, son mayores bajo el modelo coste histórico/moneda nominal, lo anterior en definitiva afectaba al precio de las acciones. Sin embargo, los detractores de la reexpresión argumentaron que existía un problema real en los métodos diseñados para medir los beneficios y el mantenimiento del capital financiero y físico, pues éstos presentaban serios defectos y desacuerdos. Para julio de 1989 fue aprobado la Norma Internacional de Contabilidad (NIC) No. 29: “La información Financiera en Economías Hiperinflacionarias”7. Esta norma obligó nuevamente a las empresas a reexpresar sus cifras por cualquier método, para presentar sus estados financieros en términos de la unidad de medida monetaria de poder adquisitivo a la fecha del balance general. Según el NIC 29 (fracción 7), esto debía ser así, porque en una economía hiperinflacionaria, para obtener la utilidad en la información financiera, no es suficiente los cálculos al coste histórico o al coste actual, sino que la utilidad realmente se logrará si se expresan en términos de la unidad de medida monetaria de poder adquisitivo a la fecha del balance general. El NIC 29 agrega además en su fracción 3 que: “es un asunto de juicio calificar si se está o no en un ambiente de economía hiperinflacionaria”. Sin embargo, se reconoce que este juicio debe tomar en cuenta que cuando la tasa de inflación acumulable en tres años sea cercana o mayor al 100 %, estaremos entonces hablando de una situación hiperinflacionaria. En cambio, cuando la economía sea considerada como no hiperinflacionaria, la empresa aunque abandone la reexpresión debe “considerar las cantidades expresadas en la unidad de medida monetaria de poder adquisitivo al final del período anterior informado, como la base para presentar los valores en libros en sus estados financieros posteriores”. Martínez (1995),8 recomienda que es importante considerar la fracción 36 del NIC No. 29 como una guía para aquellos países que logran controlar su inflación y abandonan la aplicación de la actualización de su información financiera. En 1994, la Comisión de Principios de Contabilidad del Instituto Mexicano de Contadores Públicos emitió el Boletín A-8: “Normas Supletorias de Contabilidad”. Este documento autorizó la aplicación de normas internacionales de contabilidad (NICS) como supletorias de los principios contables en México cuando éstos dejen un vacío normativo. Su aplicación obligatoria en México se estableció a partir del 1 de enero de 1995. Finalmente así se incorporó de manera formal la legislación internacional a los principios contables nacionales. 4.3. ACTUALIZACION DE CIFRAS: TECNICAS DE REVELACION Y REEXPRESION. La revelación y la actualización (o reexpresión) de los estados financieros son los dos únicos caminos que se utilizan para disminuir la distorsión de la unidad monetaria cuando hay inflación. En el caso de la revelación del efecto inflacionario, como medio de información para trasmitir los efectos de este fenómeno hacia el usuario de los estados financieros, se utiliza cuando la tasa inflacionaria es moderada, y consiste en incluir sólo notas en el anexo de los estados financieros. Aquí se “revela” pero no se reconoce ni se incorpora dicho efecto en los estados financieros básicos. a la cifra de beneficios de mil 200 millones de dólares y en la Exxon se pasó de los beneficios declarados a una pérdida en los resultados del ejercicio. 7 El IMCP considera al NIC No. 29 como el documento más importante a nivel internacional en el tema de reexpresión. Además este boletín contiene temas tan importantes como la consolidación, el método de participación y los impuestos diferidos. 8 Pérez Reguera Alfonso (1995): “Aplicación Práctica del Boletín B-10”; Instituto Mexicano de Contadores Públicos; México; pp. 795. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 157 En cambio, cuando las tasas inflacionarias son altas y variables entre los períodos contables se opta por la actualización o reexpresión de las cifras. Esto último consiste en un planteamiento más formalizado y sistemático, que sí reconoce e incorpora las distorsiones originadas por los cambios en el nivel general de precios, principalmente en las partidas no monetarias del activo fijo (con sus respectivas amortizaciones y depreciaciones); el capital social; los beneficios acumulados; los inventarios y el coste de ventas. La razón de actualizar o reexpresar las cifras de las anteriores cuentas, se debe a que cuando la empresa desarrolla sus actividades en un ambiente macroeconómico inflacionario, las amortizaciones y depreciaciones que se prorratean con base en el coste histórico, se llevan a resultados para afectar al beneficio neto que no considera el efecto inflacionario. Lo anterior no representa la cifra o importe necesario que permita la reposición del capital productivo que se utilizó en el proceso de fabricación. Este hecho afecta negativa y directamente al sistema de costes y a la fijación del precio final de los bienes y servicios producidos, que como ya dijimos, se basa en el principio de coste histórico. Al calcularse erróneamente los beneficios, se provoca una descapitalización en la empresa, vía reparto de “dividendos ficticios” y pago de impuestos mayores. La reexpresión de los estados financieros precisamente busca evitar esto y obtener una valuación, depreciación y amortización ajustada, para reflejar la realidad de la empresa en épocas inflacionarias, evitando la afectación negativa en el cálculo de los costes y fijación de precios. Los sistemas para reexpresar se pueden desarrollar bajo dos tipos de pensamiento o principios, que a su vez producen dos modelos principales de contabilidad que son: El principio de mantenimiento del capital financiero (contabilidad en moneda constante o al nivel general de precios)9: Este modelo busca mantener el poder adquisitivo general del capital que han invertido los accionistas. La contabilidad que se produce bajo este principio está diseñada para evitar la distribución del poder adquisitivo que reside en el capital financiero, centrándose en los efectos del declive de dicho poder adquisitivo. Es decir, se centra en la unidad de medida para modificarla o cambiarla por monedas de poder de compra y así eliminar el concepto de la moneda como unidad fiduciaria. El principio de mantenimiento del capital físico (contabilidad al coste actual): Los fundamentos de la contabilidad que se produce bajo este principio, sostienen que una empresa no puede declarar beneficios si antes no se ha cubierto el mantenimiento de su capacidad de explotación existente. Este modelo se centra en los cambios de precios específicos que afectan a la empresa. Es decir, se centra en el atributo medido, “buscando reemplazar los valores en que están valuadas las inversiones no monetarias por sus valores de reemplazo o actuales, tomando en cuenta para ello el uso y la capacidad de servicio del bien” (Perez: 1995, p. 25). Los anteriores modelos en realidad no son alternativos, ya que ambos tienen como fundamento principal al modelo de contabilidad histórica. Sin embargo, el modelo en moneda constante, aunque mantiene la contabilidad histórica, cambia la unidad de medida por una moneda constante. En cambio el modelo al coste actual sustituye al modelo de coste histórico, pues este último es ineficiente para hacer frente al problema de los cambios de precios a través de los distintos períodos contables. Bernstein opina que es común que los puntos más fuertes del modelo en moneda constante se citen como los puntos débiles del modelo de costes actuales, y viceversa. Además nos explica que con base en las dos anteriores escuelas de pensamiento y modelos contables, se produce cuatro posibles estructuras de elaboración de estados financieros que son: 9 En México se le denomina también “Método de Ajustes por el Nivel General de Precios” y a la contabilidad al coste actual se le conoce como “Contabilidad por Valores de Reemplazo o Costes de Reposición”. En ambos métodos se hicieron importantes modificaciones a la teoría que los sustentan para darles una aplicación práctica y específica de acuerdo a la situación del país, como por ejemplo la aplicación del CIF que se verá más adelante. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 158 Estructura con Coste Histórico no Actualizado: Coste Histórico / Moneda Nominal (CH/MN). Es la típica estructura convencional que prevalece para los estados financieros primarios. Estructura con Coste Financiero: Coste Histórico / Moneda Constante (CH/MC). En esta estructura se actualizan los estados financieros de acuerdo a los cambios en el nivel general de precios y se expresan en una moneda constante a una fecha determinada. Estructura con Coste Físico: Coste Actual / Moneda Nominal (CA/MN). Esta estructura actualiza los estados financieros de acuerdo a los cambios específicos de precios. Estructura con Coste Físico y Financiero: Coste Actual / Moneda Constante (CA/MC). Esta estructura actualiza los estados financieros, tanto en su unidad de medida como en el atributo medido, es decir, en base a los cambios en el nivel general y en el nivel específico de precios. El IMCP recomienda no mezclar los dos métodos de actualización en los activos fijos e inventarios. Sin embargo, si se lleva a cabo tal tarea por razones prácticas, nunca se debe efectuar en el mismo rublo. También se señala que se deben revelar los datos sobre el método seguido, y los criterios de cuantificación, significación e implicación de ciertos conceptos. Como es lógico, al producirse las anteriores estructuras se han originado una serie de mediciones más específicas que son las que caracterizan la mayor exactitud de los modelos de reexpresión con respecto al modelo histórico. Entre las mediciones más importantes están las siguientes: 1. La ganancia realizada por tenencia: resulta de la diferencia entre el coste actual del activo fijo y la amortización acumulada del activo. El coste actual del activo fijo es a la fecha en que se enajenan o actualizan las cifras de acuerdo al B-10, tomando como criterio el coste de reposición (CR) y no el indice nacional de precios al consumidor (INPC). 2. La ganancia por venta antes de la realización de la ganancia por tenencia: es la diferencia entre el precio de venta y el coste ajustado calculado por cualquiera de las cuatro estructuras de elaboración de informes financieros (Bersntein, 1993, pp.502-508). 3.El coste ajustado: en el caso de la estructura de CH/PN es igual al coste de ventas. Sin embargo, en el caso de las tres estructuras restantes (CH/PC, CA/PN y CA/PC) su determinación o cálculo difiere en cada una de esas estructuras. En el primer caso se calcula multiplicando el coste de ventas histórico por el factor resultante de la división entre el INPC a la fecha de venta y el INPC a la fecha de adquisición del activo fijo. En el segundo caso (CA/PN) se obtiene simplemente del coste actual que tenga el activo fijo en el mercado. Si el precio fluctúa significativamente se determinará con base a su media aritmética cuidando de que no exista una dispersión considerable entre los precios. En el tercer caso (CA/PC) se calcula multiplicando el coste actualizado (estructura CA/PN) por el factor resultante entre el INPC a la fecha de cierre del ejercicio o mes y el INPC a la fecha de adquisición del activo fijo. La ganancia realizada por tenencia: se determina únicamente en las estructuras CA/PN y CA/PC. En la primera estructura llegamos a la cifra a partir de la diferencia entre el coste actual según los datos de la cuenta y el valor neto contable a la fecha de la venta (CH/PN), que no es otra cosa más que el valor de adquisición histórico menos la depreciación acumulada histórica. En la última estructura, la ganancia realizada por tenencia, se obtiene de la siguiente forma: Primero se multiplica el coste ajustado (determinado según la estructura de CA/PN) por el factor resultante de la división entre el INPC a la fecha de venta y el INPC a la fecha de adquisición del _____________________________________________Capítulo 4: Actualización de las Bases de Datos 159 activo fijo. Se multiplica el valor neto contable a la fecha de venta (CH/PN) por el factor resultante entre el INPC al cierre del ejercicio de la venta y el INPC a la fecha de adquisición del activo fijo. Restamos la cifra obtenida en el inciso a de la cifra obtenida en el inciso b y el resultado será la ganancia realizada por tenencia según la estructura de costes actuales/ pesos constantes. 5. La ganancia total: se determina sumando a la ganancia por venta (antes de la realización de ganancia por tenencia) la ganancia realizada por tenencia. En el caso de la estructura CH/PN y la estructura CH/PC la ganancia total es igual a la ganancia por venta antes de realización y sólo variará en las estructuras CA/PN y CA/PC. De la anterior matriz de cinco conceptos por cuatro estructuras se determinan 18 cifras o magnitudes diferentes (y no veinte cifras ya que en el cuarto concepto sólo obtenemos dos cifras) para un modelo integral que reexprese los activos fijos mediante tres adicionales estructuras al coste histórico, para la elaboración de informes contables más completos que sirvan para contrastar o llevar un análisis financiero más efectivo. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 160 CUADRO No. 4.1. METODOS ALTERNATIVOS DE ACTUALIZACION O REEXPRESION TIPO DE CONTABILIDAD I. CONTABILIDAD EN MONEDA CONSTANTE (Su base sigue siendo el Coste Histórico) TIPO DE MÉTODO MÉTODO DE AJUSTE POR CAMBIOS EN EL NIVEL GENERAL DE PRECIOS TIPOS DE RESULTADOS POR POSICION MONETARIA Y NO MONETARIA. II. CONTABILIDAD AL COSTE ACTUAL (elimina la base de coste histórico) MÉTODO DE PARTIDAS MONETARIAS: REPOMO ACTUALIZACION DE REPOMO OPERACIONAL COSTES ESPECÍFICOS O REPOMO PATRIMONIAL VALORES DE REPOSICION PARTIDAS NO MONETARIAS: RETANM * El REPOMO sólo se utiliza con el Modelo de Capital Físico (Costes Específicos). **El REPOMO se lleva a resultados pues se premia o castiga al director financiero por su actuación en la administración del capital de trabajo. ***El RETANM se lleva al Balance General pues los resultados no dependen del director financiero, sino son ocasionados por el sistema macroeconómico. MODELOS CONTABLES Y ESTRUCTURAS DE ELABORACION DE ESTADOS FINANCIEROS MODELO CONTABLE BASE DE COSTES OBJETIVO EN QUE SE CENTRA ESTRUCTURA DE ELABORACION DE INFORMES FINANCIEROS CONTABILIDAD HISTORICA O EN MONEDA NOMINAL COSTES HISTÓRICOS UNIDAD DE MEDIDA COSTE HISTÓRICO / MONEDA NOMINAL CONTABILIDAD EN MONEDA CONSTANTE COSTES HISTÓRICOS UNIDAD DE MEDIDA COSTE HISTÓRICO / MONEDA CONSTANTE COSTES DE REPOSICION CONTABILIDAD A COSTES ACTUALES O COSTES ESPECÍFICOS VALOR DE SALIDA VALOR ACTUAL DE FUTUROS FLUJOS DE TESORERIA CONTABILIDAD EN MONEDA COSNTANTE Y COSTES ACTUALES COSTES HISTÓRICOS Y LOS TRES TIPOS DE COSTES ACTUALES UNIDAD DE MEDIDA Y ATRIBUTO MEDIDO COSTE ACTUAL / MONEDA CONSTANTE ATRIBUTO MEDIDO COSTE ACTUAL / MONEDA NOMINAL Fuente: Elaboración Propia. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 161 4.4. CONTABILIDAD EN MONEDA CONSTANTE. El mayor problema del modelo basado en costes históricos / moneda nominal es que incluye partidas que representan una diversidad de unidades de poder adquisitivo a través de los diferentes períodos contables y no cuenta en su estructura con cuentas que reconozcan o contabilicen esas diferencias, pues sólo se suman o restan homogéneamente los importes nominales sin considerar si están o no expresados en una unidad común de medida. La contabilidad en moneda constante, que se empezó a desarrollar desde la década de los veinte y que no se aparta del principio de coste histórico, actualiza la unidad de medida utilizada y reconoce los resultados por pérdidas o ganancias de poder adquisitivo de la moneda (repomo). El modelo considera que el dinero sin importar en la moneda en que se exprese, tiene únicamente el valor de lo que se compre con él y dicho valor sólo cambiará si cambia también el nivel general o el nivel específico de precios. Esto trae como consecuencia que un dinero obtenido o gastado en un período, no pueda ser comparado con otro dinero obtenido o gastado en un período diferente si varía el nivel de precios, siendo la distorsión proporcional al cambio acumulado en el nivel general de precios. Esto afecta a medidas sumamente importantes del balance general y el estado de resultados. Por ejemplo, respecto a la información que refleja los efectos distorsionadores en la información del balance general, algunas empresas consideran que el efecto inflacionario sobre el activo fijo es inseparable de su efecto sobre la deuda empleada para financiar esos activos. Así, la ganancia de poder adquisitivo sobre la deuda representa un beneficio económico para la empresa ya que con la inflación, la deuda se reembolsa con dinero más barato y por tanto la ganancia debe aplicarse como un ajuste a los intereses, para posteriormente llegar a un beneficio neto en dinero constante. De llevarse a cabo el anterior procedimiento, el beneficio neto calculado con la estructura coste histórico / moneda constante, será significativamente mayor al calculado bajo la estructura coste histórico / moneda nominal. Otro aspecto importante a la hora de aplicar este modelo es que para la valuación de las pérdidas y ganancias de poder adquisitivo, es fundamental conocer la relación de esa cifra con respecto a los gastos financieros, pues los tipos de intereses establecidos por el prestamista reflejan sus expectativas de inflación futura. Con relación a los gastos financieros (intereses), éstos se deben compensar con las ganancias obtenidas en el repomo cuando hay una posición corta. Esto se verá con más detalle al desarrollar el concepto de coste integral de financiamiento. La contabilidad en moneda constante se obtiene a través del denominado método de niveles generales de precios que primero clasifica las cuentas en monetarias y no monetarias. Las partidas monetarias indican la forma en que la estructura financiera se puede ver afectada en función de la inflación, ya que son inversiones y obligaciones que representan valores monetarios, y por lo tanto, el valor de la moneda no se modifica con el tiempo ni con los niveles generales de precios, sin embargo, al permanecer con un valor igual pierden poder adquisitivo o de compra en épocas inflacionarias pues son créditos a favor o en contra, expresados en importes nominales fijos y representan el poder adquisitivo general de una moneda en un punto determinado del tiempo, y no una cantidad dada de poder adquisitivo. Por lo tanto, estas cuentas no requieren actualización y su posición da lugar a ganancias o pérdidas de poder adquisitivo. En estos casos los pasivos son los que absorben el efecto inflacionario y se pueden presentar dos situaciones: a) El primer caso es el de las ganancias que se presentan cuando la tenencia de los activos _____________________________________________Capítulo 4: Actualización de las Bases de Datos 162 monetarios es superior a la tenencia de pasivos monetarios. Aquí la empresa obtiene un resultado favorable pues liquidará sus pasivos en unidades de menor poder de compra con respecto a las que tenían dichos pasivos al momento de ser contratados. b) El segundo caso es el de las pérdidas y todo es a la inversa. Las partidas no monetarias son inversiones y obligaciones que representan bienes y su valor monetario se modifica de acuerdo a los cambios en las tasas inflacionarias. Normalmente no pierden poder adquisitivo sino que lo mantienen. Estas cuentas son activos productivos cuyos importes nominales no son fijos y cuando la inflación es significativa se tienen que actualizar en una unidad monetaria del mismo poder adquisitivo a través de un índice general del nivel de precios. Es importante señalar que en el caso del capital contable, su poder de compra se puede mantener o perder en función a como éste esté invertido entre las partidas monetarias y las partidas no monetarias. De ahí que los analistas determinen primero si se ha logrado mantener el poder de compra del capital, y después determinen si hubo beneficios o pérdidas en los resultados de la empresa. Al analizar las posiciones monetarias y no monetarias de cada empresa se puede concluir, según Pérez (1995: p. 34), que cada una de ellas presenta de alguna forma su propia tasa interna de inflación dependiendo de cómo estén estructuradas las partidas. De ahí, que en el caso de las economías emergentes con inflación permanente, se reconoce, que las tasas de intereses nominales tienen dos componentes principales que son: El Inflares: es aquella parte de la tasa de interés que únicamente busca cubrir a través de la misma, la pérdida de poder adquisitivo del dinero que se presta en un ambiente inflacionario. Es decir, esta parte del interés sólo cubre el efecto inflacionario para mantener el poder de compra del principal. La tasa real de interés: es aquella parte que se cobra o paga en la tasa de interés por arriba del inflares, es decir, es la diferencia entre la tasa nominal y el inflares. Si esta tasa es menor que la suma de la tasa de inflación entonces se obtiene una tasa negativa. A los anteriores dos componentes es necesario reconocerlos en los estados financieros pues en períodos inflacionarios, la tasa de interés siempre se eleva. En el caso de no reconocerse esta situación, la influencia que tienen estos gastos financieros es muy peligrosa y puede desembocar en una quiebra. Además, en economías con períodos prolongados de inestabilidad financiera, el interés real suele incrementarse más con respecto a la tasa de inflación pues el inversor exige una tasa adicional por el riesgo que asume (prima por el riesgo de la inflación inesperada más prima por el riesgo de desestabilización de la economía). Esta situación a su vez lleva a que el crecimiento del cash flow sea normalmente inferior respecto del crecimiento de la tasa de interés nominal, fenómeno que es influenciado principalmente por la tasa de inflación, el aumento del riesgo de insolvencia y el déficit de oferta monetaria. Sin embargo, el sólo hecho de ajustar las tasas nominales al efecto inflacionario no constituye la suficiente garantía para mantener la capitalización de la empresa. Es necesario también abandonar la contabilidad histórica, ya que en su esquema de cuentas los importes generados por las tasas de interés, que recuperan el efecto inflacionario y proporcionan los beneficios a la empresa (intereses ganados), son llevados íntegramente al estado de resultados dentro de la cuenta denominada productos financieros. Este procedimiento no considera que en realidad el resultado financiero está integrado por la suma algebraica de: el interés a favor o ganado, y el repomo negativo. En el caso de los gastos financieros, la contabilidad histórica considera esta cifra como el total de intereses a pagar y no toma en cuenta el beneficio o pérdida en el poder de compra de los pasivos. En cambio, la contabilidad en moneda constante sí analiza en forma conjunta los anteriores elementos, _____________________________________________Capítulo 4: Actualización de las Bases de Datos 163 pues toma en cuenta la relación que se da entre los intereses en moneda nacional, los pasivos en moneda extranjera y el repomo. 4.5. CONTABILIDAD AL COSTE ACTUAL. Este modelo se basa en la hipótesis de que los costes históricos, aunque se actualicen a través de los cambios en el nivel general de precios, no son suficientemente confiables para la toma de decisiones, ya que el índice general o nacional de precios al consumidor (INPC) 10 es un factor que toma en cuenta artículos muy diversos para su “cesta de precios”. En contraposición, la mayoría de las empresas están más bien afectadas de forma directa por los cambios específicos de precios de los bienes y servicios que se utilizan en su proceso productivo. Por lo tanto, los defensores de este método consideran que los cambios de precios específicos (es decir el atributo medido) es más útil para la preparación de los estados financieros. Sin embargo, existe el problema si en el país en donde se aplica la contabilidad al coste actual, cuenta con un sistema de información eficiente que revele el precio justo o más exacto de los activos y pasivos que se requerirían actualizar para aplicar este modelo. Es decir, se debe evaluar si hay un índice específico de precios y un acuerdo generalizado sobre el método para determinar los costes específicos, ya que existen diversos caminos para la valoración de los activos y pasivos, siendo los más importantes estos: El Coste Actual de Reposición11: también conocido como coste de reemplazo, representa el potencial actual del servicio de los activos específicos que hay en la empresa. Esto en términos financieros significa el importe que debe ser incluido en la reposición de los activos tangibles, ya sea mediante la compra o la reproducción de bienes similares, o bien, tratándose de maquinaria y equipo, de su capacidad equivalente con base en los últimos adelantos tecnológicos (Ortega: 1997).12 El Valor de Salida o Valor Neto Realizable: es el precio actual en que pueden venderse los activos.13 El Valor Actual de los Futuros Flujos de Tesorería: es el valor actual de los flujos netos de tesorería que se espera que gene el activo.14 Como puede verse, al buscar sustituir los valores históricos por valores de reposición, valores de salida o valores en base a flujos de tesorería, existe una diversidad de métodos que son la base principal para actualizar las cifras. 10 En el caso de México, para la reexpresión se utiliza el Índice Nacional de Precios al Consumidor (INPC). Para el caso de los Estados Unidos de Norteamérica se utiliza el Consumer Price Index for all Urban Consumers (CPI-U). 11 En México, hasta el Cuarto Documento de Adecuaciones al B-10, se reconocía sólo al Coste Actual de Reposición, al igual que el SFAS 33 de los Estados Unidos. Sin embargo, a partir de la aplicación del Quinto Documento de Adecuaciones al B-10, se abandonó el Modelo de Costes Actuales en general y sólo está autorizado para efectos de reexpresión aplicar el Modelo de Moneda Constante a través de la estructura del nivel general de precios. En cambio en los Estados Unidos, el FASB se decidió por la contabilidad al coste actual como modelo único después de suprimir los requisitos sobre la revelación de la contabilidad en moneda constante. 12 Ortega Pérez de León (1997): “La inflación: Estudio económico, financiero y contable”; Instituto Politécnico Nacional e Instituto Mexicano de Ejecutivos de Finanzas; México. 13 La contabilidad convencional o histórica puede ofrecer tres cifras diferentes del beneficio a través de los métodos de valuación de inventarios que son: El método LIFO: Primeras entradas primeras salidas; el método FIFO: Ultimas entradas primeras salidas; el método de Costes Promedios. El método FIFO es el que más se aproxima al modelo de contabilidad de costes actuales, aunque no necesariamente son iguales sus resultados pues en ocasiones sus cifras no coinciden. Es importante apuntar que la tasa de rotación de existencias tiene una influencia sobre los efectos del nivel de precios. Cuando la rotación de existencias es menor, la tendencia de sobrevaloración de los beneficios es mayor, a menos que se aplique el método LIFO. 14 Para su cálculo se puede consultar la técnica del VAN que se incluye en el tema sobre la definición de la variable dependiente (inciso 9). _____________________________________________Capítulo 4: Actualización de las Bases de Datos 164 Otro problema del modelo de costes actuales radica en el hecho de que cuando se reexpresan algunas partidas no monetarias, se presentan valores actuales a fechas diferentes a las de su adquisición o al del balance ya que sólo han sido revaluadas dichas partidas a una fecha posterior. En estos casos el NIC 21 (párrafo 16) indica que los valores en libros se deben reexpresar desde la fecha de revaluación. Sin embargo, cuando se sigue el anterior procedimiento surge la interrogante de cómo se revaluaron esos activos, más aún cuando existe la posibilidad de que no se tengan disponibles registros detallados con las fechas de adquisición de las partidas de activos fijos tangibles o que tampoco sea factible estimar dichas fechas. En estos casos se puede proceder a un avalúo profesional independiente del valor de las partidas como base para su reexpresión. En este caso consideramos que se complica aún más este método, dada la diversidad de criterios que existen para los avalúos aplicados, los cuales analizamos a continuación. El NIC 21 dice que cuando los activos se devalúan por una grave devaluación de la moneda, se pueden presentar diferencias en cambio y no existen medios factibles de cobertura. Esto afecta principalmente a los pasivos que no puedan ser liquidados y cuyo origen directo es por la reciente adquisición de activos facturados en moneda extranjera. En este caso, gran número de contables basados en normas internacionales de contabilidad, recomiendan que las diferencias en cambio se lleven al valor en libros del activo relacionado, siempre y cuando ese valor en libros ajustado no exceda al valor más bajo que resulte entre el coste de reposición y el valor recuperable de la venta o uso del activo. Sin embargo, en México las partidas no monetarias tienen que registrarse obligatoriamente a su valor histórico o de adquisición, y posteriormente reexpresarse por cualquier método. Por lo tanto, el criterio anterior no es aplicable en el país. Al respecto, algunos contables consideran que los criterios del NIC 21 junto con algunos párrafos del NIC 29, se tienden a complicar en la práctica contable al presentar una heterogeneidad de nuevos criterios. Por ejemplo, en el párrafo 17 que se refiere al valor de uso de activos no monetarios, se indica que el importe reexpresado de estas cuentas se reduce cuando excede al importe recuperable de su uso futuro (incluyendo la venta). En estos casos se reducen los importes reexpresados de diferentes activos a tres valores que son: 1) el valor de recuperación (activos fijos, crédito mercantil y patentes y marcas); 2) el valor neto de realización (inventarios); y 3) el valor de mercado (inversiones a corto plazo). Respecto al valor de uso la circular 21 del IMCP lo define como el monto de los ingresos potenciales que se espera razonablemente obtener como consecuencia del uso de activos fijos tangibles e intangibles. Entendiendo por ingresos potenciales aquellos que representan el efectivo que se espera recibir por el uso de los activos durante su vida útil remanente y disminuidos por los costes y gastos de operación atribuibles a dichos ingresos. Todas estas magnitudes deben medirse en unidades monetarias del mismo poder adquisitivo a la fecha del balance general anual. El valor de uso se aplica a grupos de activos que estén en operación y no se tenga la intención de enajenarlos a corto plazo en el uso normal de las operaciones de la entidad, así como a los activos individuales cuando éstos sólo sean utilizados en forma independiente de un grupo. Como se observa, el método de costes actuales es sumamente complejo en sus conceptos básicos. Esto fue el elemento central que alertó principalmente a los contables sobre la necesidad de contar con una información más confiable sobre el valor actual de los activos y pasivos en un entorno inflacionario. En 1991, el FASB emitió el SFAS 107 que trata sobre “Las revelaciones en relación con el valor justo de los instrumentos financieros”. Este documento exige que las firmas revelen información sobre un valor apropiado con relación a los activos y pasivos en el mercado. Pero lo más importante de este documento es que su momento representó una importante continuación sobre la búsqueda de alternativas con respecto del antiquísimo modelo de costes históricos. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 165 En el caso de México, ante el problema de establecer valores más justos sobre los activos y pasivos, la profesión recurrió a una definición emitida por el máximo órgano de vigilancia del mercado de capitales, que es la Comisión Nacional Bancaria y de Valores (CNBV),15 para tratar de desarrollar los fundamentos del método de costes actuales. Aunque por el momento este modelo ya no está reconocido, la definición conceptual representa un paso importante hacia un mejor diseño del modelo. Esta definición la podemos considerar como la más próxima a la definición de valor de salida o valor neto realizable que se aplica en la normativa internacional. Según la CNBV en su circular 1343, el Valor de mercado es: “El valor o precio de un bien o instrumento indicado por las cotizaciones de mercado. Los valores de mercado son referencias apropiadas de valuación, cuando éstas se derivan de mercados lo suficientemente profundos como para concluir que el bien sujeto a valuación puede ser intercambiado entre partes igualmente informadas y dispuestas a realizar la transacción al precio determinado. Para los efectos del presente criterio, el valor de mercado de un título cotizado en el mercado mexicano será aquel que sea publicado por la Bolsa Mexicana de Valores. En el caso de valores cotizados en bolsas internacionales, el valor de mercado será aquel que se dé a conocer por dichos organismos mediante publicaciones”. Pérez (1995, p.47) apunta que las causas que originan las diferencias entre las cifras a su valor histórico y las cifras a su valor de reemplazo son principalmente: * La inflación (pérdida en el poder adquisitivo de la moneda). * La oferta y la demanda. * La plusvalía de los bienes. * La estimación defectuosa en la vida probable de los activos. Todos estos factores son tomados en cuenta por el método de costes actuales o específicos, a diferencia del método de niveles generales de precios que sólo toma en cuenta al primer factor. La contabilidad al coste actual se aparta del modelo de contabilidad de coste histórico y del principio de realización, ya que se basa en la hipótesis de que las ventas netas debe asignárseles un coste de ventas igual al precio de reposición del inventario vendido. Es decir, las ventas se producen en las fechas de compra de los inventarios. Por otra parte, el beneficio que se obtiene debe representar el verdadero cash flow que puede repartirse vía dividendos, sin peligro de descapitalización o afectación sobre el potencial de la empresa, es decir, para mantener el nivel de inventarios que demanda la capacidad productiva. Recordemos que el beneficio, según la contabilidad histórica, es la diferencia entre los ingresos respecto a los costes y gastos realizados y/o devengados. Pero desde el concepto de la contabilidad a costes actuales, al beneficio se le considera como “la cantidad máxima de riqueza que puede distribuir una empresa durante un período de tiempo sin reducir la riqueza remanente a un nivel inferior al que tenía al principio del período” (Pérez y Martínez, 1995: p. 48). Para el cálculo del importe por concepto del beneficio declarado como percibido, previamente debe provisionarse dos conceptos fundamentales que son: a) el coste de reposición del inventario (que representa la capacidad comercializadora), y b) los activos fijos (que representan la capacidad productiva). 15 Estos pronunciamientos únicamente están dirigidos a las empresas que cotizan en Bolsa. Posteriormente el Quinto documento de Adecuaciones al B-10 a señalado que la reexpresión sólo debe llevarse a cabo a través del método de ajuste por cambios en el nivel general de precios. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 166 La capacidad comercializadora y la capacidad productiva se deben considerar como dos pilares esenciales para mantener la competitividad operacional y financiera de la empresa. Respecto al inventario vendido y al no vendido (y que permanece en los stocks de la empresa), también tiene que reconocerse la variación de su valoración, pues si su precio de mercado aumenta, entonces se obtiene una ganancia total por tenencia. Este concepto a su vez se compone de la suma de otros dos conceptos que son: a) la ganancia por tenencia realizada, y b) la ganancia por tenencia no realizada. La ganancia por tenencia realizada es lo que denominó Edwards y Bell (1961)16 como el ahorro de costes, y resulta de la compra de inventarios que posteriormente se venden, pero que se contabilizan a su precio histórico y no a su precio actual con cargo al coste de ventas y abono al almacén. Al diferencial entre el coste histórico y el coste actual se le denomina la ganancia por tenencia realizada. Respecto a la ganancia por tenencia no realizada, es el incremento en el coste actual de los inventarios originales todavía en existencia (que no se han vendido). Algunos contables consideran que la ganancia por tenencia no realizada no debe afectar al beneficio, sino reflejarse directamente en los fondos propios o en el capital contable abriendo una cuenta especial denominada superávit por revaluación. Este tema se presta a una amplia polémica pues en la práctica no se ha llegado a un acuerdo generalizado sobre si dicha ganancia se debe a la actuación del director financiero o es producto de las variaciones del mercado. En el primer caso se considera que se tiene que premiar o castigar al director financiero, sin embargo, la cuestión en contra es que en mercados muy cambiantes no es fácil determinar el coste de oportunidad para los márgenes extraordinarios que presentan ciertas empresas en sus inventarios. Por otro lado, al incluir la ganancia total por tenencia en el estado de resultados, se obtienen otras tres importantes magnitudes para la toma de decisiones que no existen en un estado de resultados tradicional o basado sólo en costes históricos, y según Bersntein17 son: El Resultado Sostenible: Es el beneficio bruto pero con la particularidad de que su cálculo se obtiene de la diferencia entre las ventas netas (precio de venta) y el coste de ventas (coste actual). Este concepto o resultado indica lo que permitiría a la empresa mantener el nivel actual de operaciones aunque no hubiera más cambios de precios. El Resultado Realizado: Se obtiene al sumar al resultado sostenible, las ganancias por tenencias realizadas e indica el resultado realizado o realmente obtenido con terceros. Es decir, es lo que conocemos como el beneficio neto tradicional (basado sólo en costes históricos). El Beneficio Neto: Este resultado es el “plus” del modelo a costes actuales y se obtiene de la suma del resultado realizado más las ganancias por tenencias no realizadas. 16 Edwars y Bell (1961): “The theory and measurement of business income”; Berkeley, University of California Press. Bernstein considera este trabajo como fundamental en el tema de la reexpresión. 17 Este autor cita que estos tres conceptos fueron introducidos por Davison y R. L. Weil (1976): “Inflation Accounting”; Financial Analysis Journal”; March-april; p. 57-66. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 167 CUADRO 4.2. MODELO DE GANANCIA TOTAL POR TENENCIA INCLUIDOEN EL ESTADO DE RESULTADOS Ventas (precio de venta) Menos Coste de Ventas (coste actual) Resultado Sostenible Más Ganancia por Tenencia Realizada Resultado Realizado (igual al beneficio neto convencional) Más Ganancia por Tenencia no Realizada Beneficio Neto 100% 30% 70% 10% 60% 20% 40% MÉTODOS PARA OBTENER COSTES ACTUALES EN CADA UNA DE LAS PARTIDAS CUENTAS ACTIVOS DE TESORERÍA ACTIVOS FINANCIEROS CIRCULANTES INVENTARIOS COSTE DE VENTAS (RESULTADOS) ACTIVOS FIJOS PASIVOS CIRCULANTES PROVISION PARA IMPUESTOS EN EFECTIVO CAPITAL CONTABLE CAPITAL SOCIAL ACCIONES ORDINARIAS BENEFICIOS ACUMULADOS COSTE DE VENTAS AMORTIZACIONES Y DEPRECIACIONE GASTOS FINANCIEROS METODOS Su valor es en efectivo y sólo se obtiene REPOMO y ganancia o pérdida cambiaria. Cotizaciones en el mercado o valor en efectivo. Cifras a su coste específico actualizado al cierre del ejercicio. LIFO Cifras a su coste específico actualizado al cierre del ejercicio. Su valor es en efectivo y existe REPOMO Se calcula sobre el beneficio a coste actual antes de impuestos. Aunque el SFAS exige se calcule y registre al coste histórico de acuerdo con el beneficio antes de impuestos. Cifras en unidades de poder adquisitivo general al cierre del ejercicio. FIFO TARIFAS DE PRECIOS PRECIOS DE FACTURA Amortizaciones y depreciaciones aceleradas Método del CIF 4.6. EL COSTE INTEGRAL DE FINANCIAMIENTO Y SUS COMPONENTES: COSTE FINANCIERO EN MONEDA NACIONAL, LA PARIDAD TECNICA, EL REPOMO Y EL RETANM. El coste integral de financiamiento (CIC), que es una tasa con tres componentes, intenta cubrir la erosión del poder de compra del dinero prestado más el interés real (inflares más tasa real). Los tres componentes del CIF repercuten sobre el monto a pagar por el uso de la deuda y son: el coste financiero en moneda nacional, el coste financiero en moneda extranjera y los resultados por posición monetaria. En los pasivos en moneda extranjera su coste está determinado por los intereses tradicionales más las fluctuaciones cambiarias, así como la disminución en el poder adquisitivo de la moneda. Estos tres componentes que tienen una estrecha relación, exigen una congruencia en su tratamiento contable. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 168 a) Coste Financiero en Moneda Nacional. Los costes financieros en moneda nacional se presentan dentro del estado de resultados en la cuenta de gastos financieros. Estos costes se calculan con base al interés simple, interés compuesto o las anualidades. Por ser de sobra conocido su cálculo, se omite una mayor explicación. b) Coste Financiero en Moneda Extranjera o Paridad Técnica. A partir de 1991, el cálculo de la paridad técnica o de equilibrio quedó derogada a través del cuarto documento de adecuaciones al B-10 (circular 34). Sin embargo, este concepto es muy importante pues continúa siendo un instrumento eficaz para pronosticar el valor de una moneda nacional con relación a otra divisa que se le compare. Esta técnica es muy popular entre los economistas que trabajan en los mercados de futuros como el de Chicago, que es el de mayor movimiento en dólares. El B-10 define a la paridad técnica como: la estimación de la capacidad adquisitiva (poder de compra) de la moneda nacional respecto de la que posee en su país de origen una divisa en una fecha determinada. Esta paridad representa una magnitud que tiende a constituir el precio natural de una divisa extranjera en unidades monetarias del país con el que se relaciona, siempre y cuando las condiciones sean similares. Los principales valores que influyen en la fijación del valor de las divisas extranjeras, fijando una paridad superior o inferior a la que debe ser en el corto y mediano plazo, son básicamente: la dinámica de precios, el crecimiento económico (PIB), las tasas de interés, la magnitud de la producción, las expectativas inflacionarias y las reservas en divisas. En el largo plazo la relación entre los niveles de precios y los tipos de cambio es muy estrecha y tiende a ajustarse. El objetivo central de la paridad de equilibrio “es lograr que las empresas que se endeuden en divisas extranjeras, provisionen sistemáticamente su posición monetaria corta, respecto del conjunto de las divisas en que la sustente en función de la paridad técnica o de equilibrio cuando ésta sea superior a la del mercado a la que está sujeta la empresa” (Pérez, p. 68). Para esto la fórmula compara los índices de inflación entre el país de la moneda nacional y los del país de la moneda extranjera a partir de un año base, y se multiplica por la tasa de cambio en ese momento. Respecto a los criterios para el cálculo correcto de la paridad técnica tenemos a los siguientes: Los activos y pasivos en moneda extranjera tienen que presentarse a la paridad del mercado. Debe existir una posición monetaria corta en moneda extranjera. La paridad de equilibrio tiene que ser superior a la de mercado, y por lo tanto puede ser probable que se produzca una devaluación. No se aplica la paridad técnica si al final del período los activos en moneda extranjera son superiores a los pasivos en moneda extranjera (posición larga). En las notas a los estados financieros tiene que indicarse si la posición en moneda extranjera es corta, larga o nivelada. También debe incluirse las bases de registro y el tipo de cambio utilizado. La paridad de equilibrio se compara con la paridad de mercado (valor de mercado) del año actual. Si la primera paridad es superior, la diferencia indica una sobrevaluación, y si es menor, indica una subvaluación y la posible devaluación de la moneda nacional. Por otra parte, cuando la paridad de equilibrio es superior a la de mercado, y la empresa tiene una posición corta en moneda extranjera, entonces se procede a un ajuste por la diferencia y la estimación tiene que presentarse dentro del pasivo a corto plazo en una cuenta especial. También debe indicarse cualquier restricción cambiaria o de otro tipo en relación con las monedas extranjeras incluidas en los estados financieros. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 169 c) Resultado por Posición Monetaria (Repomo). El resultado por posición monetaria (también conocido como efecto monetario o efecto por posición monetaria) se produce cuando los activos y pasivos monetarios ven disminuido su poder adquisitivo en ambientes inflacionarios. Los activos monetarios originan pérdida ya que al utilizarse en el presente, se dispone de una cantidad igual al valor nominal de éstos pero con un poder adquisitivo menor. En cambio, en los pasivos monetarios el efecto es el contrario pues la empresa liquida sus deudas con valores nominales iguales pero con poder adquisitivo mayor. Para Bernstein la ganancia monetaria es “la reducción de significación económica de los reembolsos de obligaciones en una moneda que se deprecia”. En cambio la pérdida monetaria es “la pérdida de tenencia de partidas que suponen créditos a una moneda que se deprecia”(op. Cit., p. 511). El repomo es originado por eventos económicos externos, pues el efecto monetario es producto del efecto de cambios en el nivel general de precios sobre las partidas monetarias durante un período de tiempo, y por lo tanto, este efecto debe reconocerse dentro de su período de vigencia para integrarse como un elemento determinante en los resultados de dicho período. Sin embargo, es importante considerar que la magnitud de la posición monetaria la elige la empresa pues es producto de decisiones típicamente financieras tomadas por cada una de ellas, aunque una parte del repomo se recomienda reconocerse dentro del cálculo del CIF y presentarse dicha parte en el balance general. La otra parte debe reconocerse dentro del estado de resultados. En México antes de octubre de 1987, si el resultado del repomo era negativo, todo el efecto se incluía dentro del cálculo del CIF, pero si el repomo era positivo y el beneficio excedía a la suma algebraica del saldo deudor de los intereses y resultados cambiarios, el remanente se presentaba en el capital contable recibiendo el nombre de repomo patrimonial. En cambio, cuando el repomo era positivo pero no excedía a la suma algebraica de los otros dos componentes del CIF, la totalidad se computaba también en el CIF. d) Resultados por Tenencia de Activos no Monetarios. El resultado por tenencia de activos no monetarios (también conocido como: retan, retanom o retanm) se determina únicamente cuando se utiliza el método de costes específicos. Este concepto significa el incremento o decremento entre el valor actualizado, por encima o por debajo de los valores equivalentes, que deben tener los activos no monetarios por causas de la inflación. Para obtener el valor actualizado, el IMCP da dos alternativas para su cálculo que son: 1. La valuación ideal: el retan se obtiene al comparar el incremento real del valor de los activos actualizados (valor de reposición) contra el valor obtenido, aplicando los factores del índice nacional de precios al consumidor que son los valores equivalentes. 2. La valuación práctica: se cuantifica por exclusión después de la actualización del capital y del cálculo del repomo. Para esto el retan debe presentarse en el capital contable, dividiendo cada una de sus cifras por conceptos (inventarios, activos fijos, coste de ventas, etc.). Para realizarse esta presentación se deben actualizar previamente las cuentas no monetarias por el método de niveles generales de precios, para poder observar la magnitud en que la actualización exceda o no entre cada uno de los métodos. El valor que prevalecerá entre los activos no monetarios será el de reposición y la diferencia entre los dos métodos será el retan. 4.7. LAS VENTAJAS Y DESVENTAJAS ENTRE LOS DIFERENTES TIPOS DE ESTRUCTURAS CONTABLES. Las ventajas que tiene la contabilidad histórica son: a) su fácil aplicación, b) es la más económica, c) respeta todos los principios contables, y d) en épocas de poca inflación es tan efectivo su método como los otros dos métodos de actualización. Sin embargo, presenta las siguientes desventajas: a) incluye partidas que representan una diversidad de unidades de poder adquisitivo a través de los diferentes _____________________________________________Capítulo 4: Actualización de las Bases de Datos 170 períodos contables, b) no conserva la utilidad de la información contable cuando hay inflación significativa, y c) no sirve para la toma de decisiones en épocas de inestabilidad financiera. Respecto a la contabilidad en moneda constante, tiene como ventajas a las siguientes: a) respeta todos los principios contables, b) su método es objetivo y comparable, c) tiene un coste bajo, d) su aplicación es sencilla en los cálculos pero compleja en la oportunidad, y d) al aplicar el modelo de moneda constante se obtienen unidades monetarias uniformes de poder adquisitivo que evitan en gran medida la distorsión en las comparaciones intertemporales e interempresas. En cuanto a las desventajas de la contabilidad en moneda extranjera constante, podemos citar las siguientes: 1. En la mayoría de los casos el índice no coincide con el de la partida específica pues se centra en los cambios en el nivel general de precios y no en los cambios específicos de precios de los bienes y servicios de un sector determinado. Así, el ajuste a través del índice general de precios en ocasiones no refleja con exactitud la variación en sectores productivos que son muy singulares y puede llevar a otro tipo de distorsión sobre los efectos y tendencias reales de sus cifras. En cuanto a las desventajas más importantes que se le adjudican a este método de reexpresión, están las siguientes: 2. Se critica la naturaleza “abstracta” de la unidad de medida ya que las transacciones se realizan con dinero y no con cantidades de poder adquisitivo. 3. Se considera que los estados reexpresados con este modelo, en la práctica tienen serias limitaciones reales para la correcta predicción de flujos de tesorería, que es uno de los objetivos centrales del análisis de estados financieros. 4. Los resultados por posición monetaria (ganancias o pérdidas) no producen paralelamente entradas o salidas de tesorería, ni se produce tampoco ningún cambio identificable en las cuentas como consecuencia de una modificación en el poder adquisitivo de activos y pasivos, además, estos resultados se calculan principalmente de forma retrospectiva. 5. El modelo no considera las diferentes ventajas del endeudamiento que se da entre las empresas, ya que dichas ventajas se determinan con base a lo rentable que sea el uso al que destinan los activos adquiridos con deuda. Normalmente las mayores ganancias monetarias las obtienen las empresas insolventes que están muy apalancadas. Para erradicar esta desventaja se recomienda llevar en paralelo un análisis con el flujo de fondos. 6. Con respecto al estado de resultados, su composición se modifica al menos en dos elementos que son: a) los resultados de transacciones expresados en unidades monetarias de similar poder adquisitivo, y b) los resultados por cambios derivados de modificaciones en el nivel de precios. La contabilidad a costes actuales tiene como principales ventajas a las siguientes: 1. Da una imagen más fiel de la empresa en lo relativo a la valuación de sus inversiones no monetarias. 2. El núcleo de este sistema permite el mantenimiento del capital físico y por eso, sólo se declaran beneficios cuando el precio de venta excede al coste de ventas (a su coste actual). En el caso del reparto de dividendos, el coste actual es una base más firme para calcular los beneficios distribuibles, evitándose con esto que los dividendos a repartir excedan a los beneficios reales (descapitalización o tasa de desinversión). Es importante saber que para evitar un reconocimiento de beneficios con anterioridad a su realización, en ocasiones es fundamental no considerar a las ganancias por tenencia no realizadas como beneficios, sino como ajustes por mantenimiento de capital. 3. El exceso del coste actual sobre el coste histórico se considera una ganancia por tenencia. Tanto la ganancia por tenencia realizada como la ganancia no realizada, forman parte del beneficio neto con _____________________________________________Capítulo 4: Actualización de las Bases de Datos 171 base al coste actual. Según sus seguidores, este tipo de beneficio representa una base más sólida para: la toma de decisiones, las mediciones de los resultados de la dirección y la evaluación de acciones, pues entre más se incrementa la inflación se hace más necesaria la separación entre el beneficio de explotación y las ganancias por tenencia con el objetivo de mantener el capital físico. 4. El modelo de costes actuales desconoce que la unidad de medida empleada para el cálculo de costes actuales no es uniforme. Tampoco analiza la pérdida adquisitiva de los activos monetarios, ni el declive de significación económica de los pasivos. Esto origina que la comparabilidad entre las partidas de diferentes períodos contables se vea distorsionada. Pero para solucionar este problema, este método sí reconoce los efectos de la inflación sobre las partidas monetarias como pérdidas o ganancias por posición monetaria (repomo). 5. Las cuentas de activo y pasivo del balance general, representan valores económicos actuales más realistas con respecto al modelo de costes históricos o de capital financiero. Aquí, Bernstein indica que bajo el método de costes actuales, los beneficios más bajos junto con los fondos propios más altos, reducen generalmente la rentabilidad de los recursos propios. Sin embargo, la inclusión en los resultados de la empresa de las ganancias por partidas no realizadas da lugar a una rentabilidad más alta de los recursos propios respecto a la obtenida por el modelo de costes históricos (p. 509). En cuanto a las desventajas del método de costes actuales, sobresalen las siguientes: 1. Rompe con algunos de los principios contables más sólidos que se han reconocido hasta ahora. 2. El método es costoso pues su aplicación al ser compleja requiere de personal más especializado. 3. Cuando la mayor parte de los activos están en partidas monetarias, la contabilidad al coste actual o el valor de reposición da resultados similares a los obtenidos bajo el modelo convencional de contabilidad. 4. Existe dificultad para obtener el valor actual de algunos activos. 5. Su operación es costosa pues requiere avalúos independientes. En el caso de México, cuando se dispone de índices específicos por ramas industriales, publicados por el Banco de México, la actualización puede realizarla la propia empresa. 6. Existen dificultades serias en su interpretación y algunos analistas cuestionan su objetividad ya que en gran medida depende del criterio del valuador. En resumen podemos decir que lo ideal sería que la contabilidad presentase en todo momento dos características fundamentales para el usuario: utilidad y confiabilidad. Sin embargo, hay que considerar que su naturaleza es provisional y en la práctica este sistema no refleja con exactitud la situación real de una empresa, ni tampoco el resultado contable constituye una buena medida de creación de valor dada la alta probabilidad de manipulación que puede aceptar la técnica contable. Esto se debe al hecho de que su estructura de medición es de partida defectuosa, y se distorsiona aún más por la inestabilidad de la unidad monetaria. Ante esta evidente situación, la revelación y la reexpresión son los dos únicos caminos que actualmente se han desarrollado sistemáticamente para mantener la utilidad de la información financiera. En el caso de la reexpresión, que es el método más eficaz para erradicar los efectos de distorsión del sistema de información empresarial, éste se fundamenta en dos principios en constante evolución que son: el mantenimiento del capital financiero y el mantenimiento del capital físico. _____________________________________________Capítulo 4: Actualización de las Bases de Datos 172 CUADRO No. 4.3. EL BOLETIN B-10: SUS ADECUACIONES Y CIRCULARES (Criterios ------à Circulares------àBoletín) FECHA DE EMISIÓN DOCUMENTO O CIRCULAR EMITIDAS Boletín B-5 SFAS 33 CONCEPTO CONTENIDO PRINCIPAL 1973 1979 Registro de transacciones en Moneda Extranjera Determinar la pérdida cambiaría (coste financiero en moneda extranjera. Información Financiera y Cambios de Precios Mejora de la contabilidad inflacionaria Revelación de los efectos de la inflación en la Información Financiera Información que refleja los precios cambiantes Efecto de las Variaciones en tipo de Cambio 1979 1981, noviembre 1983, junio 1983 1984 1984, junio Boletín B-7 NIC 15 NIC 21 B-10 SFAS 82 Mejora de la contabilidad inflacionaria Mejora de la contabilidad inflacionaria Actualización de la contabilidad a través de la reexpresión Circular 25 Reportes financieros y cambios de precios: “limination of certain disclosures” Criterios generales para la aplicación del Boletín B-10 Incluye el criterio a seguir para obtener el repomo y considerarlo en el estado de resultados. Posteriormente se incorporó como una norma contable en el 2º documento del B-10 1984,diciembre 1985, octubre Circular 26 1er. Documento de Adecuaciones 1986 1987, enero 1987, octubre 1988, enero 1988, agosto 1988, diciembre 1989, julio 1989, julio 1991, enero Preguntas y respuestas relacionadas con el B-10 Disposiciones Normativas en el contexto del B- Contienen reglas para: las partidas que deben 10 actualizarse; la metodología de actualización; el efecto monetario; el retanm; el edo de resultados; consolidaciones y la revelación, SFAS 89 Reportes financieros y cambios de precios Mejora de la contabilidad inflacionaria Recomendaciones para fines de comparabilidad Es el principal antecedente del 3º Documento de Circular 28 en un entorno inflacionario. Adecuaciones para que los estados financieros revelen en sus notas información fácil. 2º Documento Su objetivo fue adecuar algunos aspectos de las de Adecuaciones Sin título normas contables sobre la forma de reflejar el efecto de la inflación para incrementar su significado y calidad de la información. Interpretación de algunos conceptos Orienta sobre cómo debe entenderse el valor de uso Circular 29 relacionados con el B-10 de los activos depreciables; la posible capitalización del CIF en la fase preoperacional; los criterios sobre las partidas monetarias y no monetarias y sobre la definición de los ingresos potenciales. Interpretación de las disposiciones transitorias Contiene reglas para la restructuración de los Circular 31 del 2º Documento (ya no es aplicable). estados financieros del ejercicio anterior. Hace referencia a la presentación del efecto monetario en los estados financieros comparativos. Sólo se aplicó durante 1987 y 1988. Criterios sobre el valor de uso y el tratamiento Contiene una definición amplia del valor de uso y el Circular 32 de las ventas y bajas del activo fijo. procedimiento para su cálculo. Establece que las bajas y ventas de activos fijos se deben llevar a resultados su valor neto actualizado a la fecha de baja o venta compensando el ingreso correspondiente por enajenación. Información financiera en economías Necesidad de mejorar el sistema contable para evitar NIC 29 hiperinflacionarias la pérdida de su utilidad. Uniforma la presentación de los edos. financieros a una misma unidad de medida: pesos poder de 3er Documento Sin título compra del cierre del ejercicio, incluyendo al edo. de Adecuaciones de variaciones en el capital contable y al edo. de cambios en la situación financiera. Obliga a reexpresar los edos. financieros de períodos anteriores cuando tienen fines de comparabilidad a pesos poder de compra del período sobre el cual se informa. Recomendaciones para la aplicación del Unicamente tuvo vigencia durante 10 meses pues en Circular 34 concepto de Paridad Técnica. octubre de 1989 se derogó la obligación del _____________________________________________Capítulo 4: Actualización de las Bases de Datos 173 1991, octubre 4º Documento de Adecuaciones Sin título 1992, octubre Circular 37 Tratamiento de la nueva unidad monetaria. concepto de paridad técnica o de equilibrio a través del 4º Documento de Adecuaciones. Deja sin efecto el concepto de paridad técnica pues se consideró que no existe método que cuantifique razonablemente la contingencia por el riesgo cambiario de una manera general para todas las empresas. Dio lineamientos para convertir los estados financieros a nuevos pesos, los cuales operaron como nueva unidad de medida del 1 de enero de 1993 al ¿¿ 1984 1995, marzo Simplificó el B-10 al suprimir la aplicación del método de costes específicos a partir del 1 de enero de 1996 a raíz del Tratado de Libre Comercio para homologar los estados contables en los tres países. FUENTE: Elaboración propia con base al documento original B-10 del IMCP y otras normativas. Sin título Boletín A-8 5º Documento de Adecuaciones Normas Supletorias de Contabilidad _______________________________________________Capítulo 5: La Variable Dependiente 174 CAPITULO 5 LA VARIABLE DEPENDIENTE 5.1. LOS PROBLEMAS CONCEPTUALES Y TECNICOS PARA DETERMINAR EL FRACASO EMPRESARIAL. El desarrollo de la mayoría de los modelos para realizar predicciones sobre quiebras en las empresas, se ha representado tradicionalmente a través de una función lineal con una variable dependiente, la cual generalmente se le puede definir de dos formas: a) como éxito empresarial, o b) como fracaso empresarial. Además, Argenti apunta que puede incluirse un tercer término muy interesante (aunque no es frecuente en la mayoría de las investigaciones) y es el de “colapso empresarial”, el cual se utiliza como sinónimo de fracaso1. Como veremos más adelante, en los modelos predictivos cualquier término que sea seleccionado como variable dependiente representará siempre una serie de dificultades jurídicas, técnicas, conceptuales y de criterios financieros, entre otros, que impiden llegar a una definición satisfactoria y de aceptación generalizada que sirva como variable dependiente al modelo predictivo. Este problema, aunque conocido por diversos analistas e investigadores, se ha optado generalmente por no considerarlo como de suma importancia en los trabajos académicos. Tal vez ello obedece a la debilidad de darle una mayor ponderación a la aplicación de las diversas técnicas estadísticas que son tan habituales en los actuales trabajos de investigación, los cuales relegan a un segundo plano el estudio conceptual para determinar u obtener elementos tan importantes tales como la variable dependiente, algunas de las variables independientes así como las bases de datos contables. La determinación de estos elementos son temas de múltiples divergencias y contradicciones que existen en los diversos trabajos sobre los modelos predictivos. Por ejemplo, es común encontrar que el término fracaso empresarial es el más utilizado como variable dependiente, sin embargo, su definición presenta serios problemas de ambigüedad al englobar diversos criterios que son tratados en ocasiones con un exceso doctrinal al inicio de las investigaciones, pero conforme se avanza en los trabajos se olvida su conceptualización que es sustituida por un excesivo trabajo estadístico que poco tiene que ver con la búsqueda de la exactitud predictiva del modelo (García-Ayuso: 1996). Si analizamos primero al término éxito empresarial, podemos darnos cuenta que éste no presenta tantos problemas como el término fracaso empresarial (siempre y cuando su definición se fundamente en el concepto moderno de las finanzas empresariales). El éxito de una empresa ha sido denominado en los modelos predictivos como “empresa sana” y “empresa no fracasada”. En el primer caso se considera al término sano como sinónimo de éxito, por lo tanto, deberá cumplir con los objetivos que caracterizan al éxito empresarial dentro de la teoría del valor que es el fundamento central de las modernas finanzas corporativas. En el segundo caso el enfoque es distinto, pues aunque el término “no fracaso” no cumpla con las características del éxito empresarial, bastará que no se incurra en cualquiera de los supuestos que definen al fracaso empresarial para que la empresa se le clasifique como “exitosa”, “sana” o “no fracasada”. Para llegar al concepto de éxito empresarial se puede comenzar por considerar su unidad temporal a largo plazo, es decir, existe un acuerdo generalizado sobre lo que se entiende sobre el éxito empresarial a corto plazo y a largo plazo. Cuando hablamos de éxito empresarial a corto plazo es porque principalmente se ha alcanzado obtener una óptima liquidez. Pero cuando hablamos del éxito empresarial a largo plazo es porque la dirección de la empresa ha logrado maximizar sus beneficios o maximizar el valor de la empresa, o bien, llegó a la mejor combinación entre ambos casos. 1 , Citado por Lizarraga (1996: p. 7), Argenti considera a éste último término en el sentido, por ejemplo, de que una empresa colapsa sólo cuando habiendo tenido éxito empresarial lo haya perdido y sea posible su recuperación. _______________________________________________Capítulo 5: La Variable Dependiente 175 En los estudios empíricos sobre los modelos predictivos, lo que interesa al analista son los períodos largos que oscilan entre los cinco y diez años, ya que éstos determinan la continuidad de la empresa. Por esta razón, consideramos que los objetivos a largo plazo son los que se tienen que tener en cuenta para definir al éxito empresarial. Sin embargo, antes es importante definir el método y las variables que se considerarán para el cálculo de la rentabilidad pues en este tema existen también cierta diversidad de criterios.2 Por otra parte, al revisar la gran variedad de literatura especializada y algunas de las principales ideas de las leyes concursales sobre el fracaso empresarial, se puede constatar que existen varios criterios para definir este término como variable dependiente. En varios de estos trabajos y documentos, los criterios utilizados están bastante bien fundamentados y en ocasiones sólo difieren sobre el grado de avance que presenta la “enfermedad financiera” de la empresa para considerarla como fracasada. Algunos de los ejemplos más interesantes del fracaso empresarial que hemos encontrado a lo largo del análisis del término son: * No alcanzar los objetivos a largo plazo que caracterizan al éxito empresarial. * Entrar en la Insolvencia Financiera (falta de capacidad de pago de pasivos vencidos). * Entrar en la Insolvencia Económica (falta de capacidad para generar beneficios). * Entrar en la Cesación de Pagos dentro de la fase de Suspensión de Pagos. * Entrar en la Cesación de Pagos dentro de la fase de Quiebra. * Entrar en el Colapso o caída (cuando la empresa habiendo tenido éxito, lo pierde al tener nuevas posibilidades de éxito). * La quiebra definitiva (cuando la empresa se liquida definitivamente y finaliza actividades). Como podemos ver, la diferencia de opiniones radica básicamente en el grado de avance de la crisis que experimenta la empresa. Esto influye de forma determinante sobre la diversidad de criterios que adoptan los diversos analistas para que consideren un hecho el estado de fracaso empresarial y seleccionen la submuestra de empresas fracasadas. Entre los conceptos más utilizados para afirmar que ya se ha dado un estado de fracaso empresarial tenemos los que se presentan en el Cuadro No. 5.1. Aquí se muestra desde el caso menos grave hasta el caso más extremo que es la desaparición de la empresa. Con respecto al último término, éste podría utilizarse en aquellos trabajos que pretenden desarrollar modelos con un rigor más conceptual y cuyo objetivo puede estar dirigido a desarrollar más la teoría de la solvencia. En cambio, los términos que representan los síntomas menos agudos pueden servir para aquellos casos que buscan resultados más pragmáticos o que tienen serias limitaciones para acceder a una información financiera y económica más analítica que impide realizar clasificaciones más detalladas o precisas. 2 La variable rentabilidad es considerada por algunos investigadores y analistas como el primer indicador del éxito empresarial. _______________________________________________Capítulo 5: La Variable Dependiente 176 CUADRO 5.1 ¿EN DONDE INICIA EL FRACASO EMPRESARIAL? EL AUTOR NO ALCANZAR LOS OBJETIVOS DEL ÉXITO EMPRESARIAL NO MAXIMIZAR EL VALOR DE LA EMPRESA RENTABILIDAD MENOR AL COSTE DE OPORTUNIDAD OTROS AUTORES NO MAXIMIZAR LA RENTABILIDAD INSOLVENCIA ECONOMICA NO CONTINUA: PERDIDAS DEL EJERCICIO EN EL PRESENTE AÑO IMPAGO DE DIVIDENDOS PREFERENTES INSOLVENCIA ECONOMICA CONTINUA: PERDIDAS DEL EJERCICIO DURANTE VARIOS AÑOS PATRIMONIO NETO CONTABLE NEGATIVO ENTRAR EN INSOLVENCIA FINANCIERA: FALTA DE PAGO DE PASIVOS VENCIDOS • • • IMPAGO A PROVEEDORES: FALTA DE LIQUIDEZ IMPAGOS TECNICOS DESCUBIERTOS BANCARIOS CESACION DE PAGOS IMPAGOS GENERALIZADOS SOLICITUD DE SUSPENSIÓN DE PAGOS DECLARACION DE SUSPENSIÓN DE PAGOS ENTRADAL PROCEDIMIENTO CONCURSAL TRANSITORIO: INSOLVENCIA PROVISIONAL PROCEDIMIENTO DE REESTRUCTURACION • • • • EMPRESAS CON PRESTAMOS DEL GOBIERNO POR EMERGENCIA ACUERDOS DE ACREEDORES PARA DISMINUIR LA DEUDA Y TOMAR EL CONTROL REESTRUCTURACION DE DEUDAS FUSIONES SOLICITUD O DEMANDA DE QUIEBRA DECLARACION DE QUIEBRA ENTRADA A PROCEDIMIENTO CONCURSAL DEFINITIVO: INSOLVENCIA DEFINITIVA O QUIEBRA PROCEDIMIENTO LIQUIDATORIO 5.2. EL FRACASO EMPRESARIAL COMO VARIABLE DEPENDIENTE. A continuación desarrollaremos con detalle algunos de los conceptos y problemas sobre los criterios que se siguen cuando se utiliza al fracaso empresarial como variable dependiente. También definiremos para efectos de este trabajo lo que consideraremos como una variable dependiente ideal, otra variable dependiente posible de establecer, y por último, la que se sugiere que se adopte dentro del contexto mexicano y del sector hotelero que cotiza en bolsa, tratando de evitar la ambigüedad que ha sido observada en otros trabajos. El fracaso empresarial recibe varios nombres y definiciones que originan desacuerdos en cuanto al momento y a los indicadores para declarar dicho estado. Lo anterior se debe a que hasta la fecha se ha estudiado más las causas del éxito empresarial que las causas del fracaso. En repetidas ocasiones esto ha representado un grave error, pues un factor determinante para llegar precisamente al correcto criterio de éxito es cuando se logra definir con claridad el concepto del fracaso, el cual puede ser determinado principalmente por cuatro actores que son: los directivos de la empresa, los principales acreedores, las autoridades responsables de las auditorías y las legislaciones concursales. _______________________________________________Capítulo 5: La Variable Dependiente 177 Evitar la quiebra constituye en sí mismo una condición necesaria para el éxito empresarial, aunque esto sólo sea a corto plazo para cumplir con el principio contable de continuidad o período contable3. Por otra parte, ciertos empresarios consideran que aunque una empresa no logre obtener rentabilidad, si continúa operando en cierto mercado durante determinado tiempo, eso ya representa un éxito empresarial de acuerdo a ciertos objetivos previamente establecidos, como por ejemplo: tratar de llegar a una fusión con otra empresa, introducir un producto vía “dumping”, conocer las posibilidades potenciales de un mercado nuevo, etc. Estos aspectos se presentan sobre todo en sectores muy específicos como el de las nuevas tecnologías. Normalmente las empresas que se definen en crisis o fracasadas no suspenden sus actividades comerciales como podría pensarse, ya que tienden a seguir varios caminos alternativos voluntarios y negociados para tratar de reestablecer el éxito empresarial. Un caso típico es un arreglo directo con los principales acreedores a través de la reestructuración del calendario de pagos y el monto de sus créditos o quitas. Esto se presenta continuamente cuando las variables macroeconómicas son negativas o existe una variable anormal que origina la insolvencia temporal4. Sin embargo, si la crisis es prolongada existen grandes posibilidades de un fracaso final y los accionistas tienden a buscar nuevas formas de organización como la fusión, el “reingenerin” o el “turnover”5, por ejemplo. En la práctica el procedimiento concursal no es el único camino a seguir por parte de la empresa en crisis, y hasta podríamos afirmar que actualmente es una de las opciones menos populares. Esto quizá se debe al peligro de entrar en un procedimiento que tiene como característica el ser lento en su desarrollo y tener un significativo coste de oportunidad a cargo del acreedor. Hasta aquí ya podríamos decir que el fracaso empresarial no obedece únicamente a un estado financiero determinado ya que intervienen otros criterios de tipo jurídico, político o estratégico Por ejemplo, una empresa endeudada que tenga todos los síntomas de un fracaso empresarial definitivo, pero que a su vez tenga también menos presión por parte de sus acreedores, es más factible que acepte nuevos instrumentos o productos en su estructura financiera y con esto garantice no sólo su salvación del fracaso empresarial, sino también salvaguarde los intereses de terceros (como los acreedores o sindicatos). Won y Young (1995) han destacado como en Japón se mantiene un rol tradicional para apoyar a las empresas fracasadas a través del Ministerio de Finanzas al permitir que éstas presenten "activos artificialmente". Además, apuntan que esta misma situación se ha dado en Corea a través del Banco Central cuando sin considerar la quiebra técnica de ciertas empresas han apoyado su continuidad. En los trabajos de Argenti (op. cit. por Lizarraga) se expone el caso del Reino Unido en donde el número de empresas que se liquidan cada año es reducido, aunque una de cada diez de éstas se encuentren prácticamente en una situación de fracaso dada su baja rentabilidad, la cual provoca posteriormente insolvencias en lapsos inferiores a 2.5 años. Esto indica que en la práctica estas empresas han optado por cualquiera de las otras alternativas competidoras del procedimiento concursal. 3 Este principio indica que “la necesidad de conocer los resultados de operación y la situación financiera de la entidad, que tiene una existencia continua, obliga a dividir su vida en períodos convencionales. Las operaciones y eventos así como sus eventos derivados, susceptibles de ser cuantificados, se identifican con el período en que ocurren; por tanto cualquier información contable debe indicar claramente el período a que se refiere. En términos generales, los costes y gastos deben identificarse con el ingreso que originaron, independientemente de la fecha en que se paguen”. Instituto Mexicano de Contadores Públicos. 4 Para llegar a una aproximación sobre los diversos grados y tipos de criterios que se han desarrollado para estudiar la evolución del fracaso empresarial, se han tomado algunas ideas expuestas por Lizarraga en su trabajo de investigación doctoral (1997). 5Cuando una fusión no es factible o a los accionistas no les interesa ésta, normalmente se tiende a una reestructuración en la empresa y el deudor tiene el privilegio o ventaja de acogerse a una protección jurídica que se conoce como procedimiento concursal el cual exige se tomen medidas de reflotación denominadas “turnover”. _______________________________________________Capítulo 5: La Variable Dependiente 178 En el caso de los acreedores, se ha popularizado el uso de los “warrants” que son obligaciones que tienen la alternativa de capitalizarse y formar parte del capital social a través de la emisión de nuevas acciones. Este camino es común que lo adopten gran número de acreedores que en lugar de perder los créditos pendientes de cobro, prefieren asumir un riesgo como futuros accionistas de la empresa en proceso de quiebra. Un gran número de analistas considera que el fracaso se da en realidad cuando una empresa no cumple sus objetivos propuestos, y no necesariamente cuando desaparece en el momento del fracaso, pues generalmente tiende a vivir un proceso denominado crisis que se compone de dos importantes etapas que son: el fracaso económico y el fracaso financiero. El fracaso económico consiste en obtener una rentabilidad inferior al coste de oportunidad. Si esta etapa es prolongada los ingresos tienden a ser inferiores a los gastos y de no corregirse tal estado se llega a la insolvencia técnica que es la primera etapa del fracaso financiero. Por otra parte, el término de insolvencia técnica se presenta en el momento en que no se tiene liquidez para cumplir con los pasivos vencidos. Si no se supera este estado, los pasivos exigibles tienden a ser superiores a los activos totales, y por consecuencia el capital contable será negativo poniendo en peligro la continuidad de la empresa. Este es el principal criterio que actualmente sigue la Bolsa Mexicana de Valores para suspender las operaciones de estas empresas ante el público inversionista. También la insolvencia técnica es considerada como el momento y la frontera entre el fracaso económico y el fracaso financiero. En esta fase es donde se produce la cesación de pagos y de no erradicarse se llega a la última etapa de la crisis denominada insolvencia definitiva. Para Altman (1993, p.4) el fracaso financiero viene determinado por el fracaso económico y en ocasiones aunque se conozca su existencia durante años, por la falta de jurisprudencia efectiva y oportuna no se determina la insolvencia técnica, entonces las empresas continúan su actividad aunque sin ninguna posibilidad de éxito empresarial. La insolvencia técnica puede llegar a presentarse bajo dos condiciones que son: a) con deterioro económico previo (fracaso económico), o bien, b) sin deterioro económico previo (éxito empresarial). El segundo caso se da cuando existe una dificultad transitoria, por ejemplo, un acelerado crecimiento no contemplado, el cual aunque logre la maximización de los beneficios, puede también presentar simultáneamente un problema de liquidez por el crédito otorgado a los clientes cuyo vencimiento es menos dinámico con respecto a los cash outflows. Esto impide completar un ciclo sano de explotación y entonces afecta directamente a los ratios de rotación (cuentas por cobrar, inventarios, liquidez, etc.) que son mediciones importantes que definen al éxito empresarial. Es importante señalar que no siempre la disminución de la rentabilidad necesariamente implica una perdida neta del ejercicio o un ratio de liquidez negativo. Sin embargo, también es cierto que no siempre mayores ventas son indicadores de un mayor éxito empresarial pues puede haber un overtrading. Actualmente el overtrading es considerado como una de las principales causas internas del fracaso empresarial y se da cuando la empresa tiene un volumen de ventas en exceso que impide que su capital propio pueda cubrir el capital financiero necesario. Esto origina un déficit de tesorería que obliga a buscar la captación de capital ajeno. Con respecto a la obtención del financiamiento ajeno, éste puede ser sano en algunos casos, siempre y cuando se planee bien dentro del ciclo de explotación, o bien, se estructure un buen plan de financiación cuyo coste sea apropiado a través de obligaciones o bonos que impidan perder el control de la empresa o puedan ser capitalizables en un momento determinado, como es el caso de los “warrants”. _______________________________________________Capítulo 5: La Variable Dependiente 179 La recuperación de la cartera de clientes también juega un papel determinante, pues en muchos casos cuando la cartera vencida excede ciertos porcentajes con relación a las ventas totales, se presenta primero una descapitalización a corto plazo y posteriormente aparece el “overtrading”. Aunque al principio el fenómeno del “overtrading” se comporta como el apalancamiento financiero, posteriormente este fenómeno se torna diferente y su anomalía se ve reflejada sobre todo en el ratio ventas netas / capital contable. La dimensión del “overtrading” se caracteriza por una estructura irracional si se compara con otras empresas de tamaño y actividad económica similar. Esta deformación financiera obedece sobre todo a la búsqueda errónea de mayor cuota de mercado que lleva a la empresa a un riesgo crediticio excesivo y a una falta de liquidez peligrosa que origina la cesación de pagos a proveedores y hace insostenible la dimensión de expansión. El siguiente cuadro nos da una idea más completa de lo difícil que es determinar el fracaso empresarial, pues como se menciono anteriormente no existe un único indicador que sea sinónimo exacto del éxito o fracaso empresarial. CUADRO 5.2. COMBINACIONES ENTRE LOS FENOMENOS ECONOMICOS Y FINANCIEROS Y EL EXITO O FRACASO EMPRESARIAL FENOMENO ECONÓMICO-FINANCIERO 1. 2. 3. Puede haber beneficio y óptima liquidez. Puede haber beneficio y falta de liquidez Puede haber pérdidas sin cesación de pagos. • • • • SITUACION QUE SE PRESENTA Éxito empresarial Puede ser éxito o fracaso empresarial Fracaso empresarial temporal 4. Puede haber pérdidas con cesación de pagos Fracaso empresarial temporal o definitivo Bathory (1984)6 considera que el fracaso empresarial se presenta básicamente con la insolvencia que tiene tres momentos o etapas que son: 1. La Insolvencia Aguda: Es la falta de liquidez a corto plazo para pasivos vencidos. 2. La Insolvencia Crónica: Es la falta de liquidez para pagos de pasivos que comprenden dos o más ejercicios económicos. 3. La Insolvencia Terminal: Es la falta de capacidad para financiar cambios permanentes en el estado de situación financiera. Otro enfoque que resulta muy interesante es el de Argenti (1976) que propone la diferenciación entre “causas” y “síntomas” del fracaso empresarial. Para él, esto es una cuestión fundamental, pues dice que las causas se detectan únicamente a través del descubrimiento de los síntomas. Según este autor las causas se pueden clasificar en dos grandes grupos que son: a) las de tipo macroeconómico o externas; y b) las de tipo microeconómico o internas. Ambos tipos de causas provocan síntomas internos en la empresa. Sin embargo, las causas de tipo microeconómico son consideradas como las principales causantes del fracaso empresarial, pues se entiende que las causas externas afectan por igual a todas las empresas. Por otro lado, existe una corriente que afirma que no todos los sectores resienten similares impactos ante ciertas crisis macroeconómicas, aunque las empresas pertenezcan al mismo sector industrial y tengan las mismas dimensiones en cuanto a tamaño o activos. 6 Citado en la Tesis de Lizarraga (1997) _______________________________________________Capítulo 5: La Variable Dependiente 180 Para analizar una empresa compleja basándonos en una estructura administrativa por áreas de responsabilidad, consideramos que la mayoría de las causas las podríamos clasificar dentro de grupos que pueden ser evaluados a través de la auditorías bajo los procedimientos y sistemas de control interno. Este tipo de administración por objetivos nos permitiría dividir las causas básicamente en los grupos que se presentan en el siguiente cuadro: CUADRO 5.3. ALGUNAS CAUSAS INTERNAS DEL FRACASO EMPRESARIAL CAUSAS INTERNAS GENERALES CAUSAS INTERNAS ESPECIFICAS Defectos y problemas de dirección o gestión (causa principal). 1. MALA GESTION O DIRECCION • INADECUADO EQUIPO DIRECTIVO Defectos y problemas financieros 2. DEFICIENTE ADMINISTRACION FINANCIERA • • • ELEVADOS COSTES FIJOS OVERTRADING APALANCAMIENTO A CORTO PLAZO EN EXCESO Defectos y problemas de los sistemas de información. 3. DEFICIENTES SISTEMAS DE INFORMACIÓN • • • WINDOW DRESSING SALVEDADES U OPINION NEGATIVA DEL AUDITOR EXTERNO APLICACIÓN INCORRECTA DE LAS POLITICAS CONTABLES Defectos y problemas técnicos (adaptación al cambio). 4. PROBLEMAS TÉCNICOS • FALTA DE COMPETITIVIDAD DE PRODUCTOS Y PRECIOS Defectos y problemas comerciales. 5. COMERCIALES • • • INCAPACIDAD DE RESPONDER A LOS CAMBIOS DEL MERCADO LANZAMIENTOS DE PROYECTOS CON UNA MALA PLANIFICACION FINANCIERA DEFICIENTE INVESTIGACION DE MERCADOS Platt (1985, p.25) por su parte opina que existen tres fuentes muy importantes para detectar los síntomas del fracaso empresarial y son: el sentido común que únicamente lo da la experiencia; el análisis de estados financieros; y las herramientas estadísticas (ver cuadro No. 5.4.). Además de los anteriores conceptos también existen otros que normalmente se usan como sinónimo de fracaso empresarial como por ejemplo: la cesación de pagos, la insolvencia económica, la insolvencia financiera, la suspensión de pagos y la quiebra. Todos estos aspectos los comentamos a continuación en el contexto del sistema concursal mexicano. CUADRO 5.4. INDICADORES DEL SENTIDO COMUN INDICADORES DE UN POSIBLE ESTADO DE CRISIS • • • • • • • Cambio de auditor. Relación con un nuevo banco. Los miembros del consejo presentan su renuncia repentinamente. Las líneas de crédito son reducidas o anuladas. Los directivos de la empresa venden sus acciones. Se dan de baja activos fijos para mejorar el estado de resultados. Existe un exceso o déficit de inventarios. • • • • • • • • • • • • • • INDICADORES DE UNA CRISIS Dificultades de pago a acreedores y proveedores. Prolongación de vencimientos y renovación de efectos. Protesto de letras. Factoring en exceso. Cancelación de pedidos. Cambio de bancos y proveedores. Aumento inusual de las compras. Ventas por debajo de su coste. Embargos y reclamaciones judiciales. Falta de presentación trimestral de estados financieros. Cambios constantes de directivos y consejo de administración. Cambio de denominación social. Reducción de personal estratégico y altamente calificado. Constitución de hipotecas. FUENTE: Lizarraga 1977 _______________________________________________Capítulo 5: La Variable Dependiente 181 5.2.1. DEFINICION DEL CONCEPTO DE CESACION DE PAGOS La cesación de pagos se da tanto en un sistema paraconcursal (suspensión de pagos) como en un sistema concursal (quiebra), y se considera que existe en los siguientes casos: * Cuando el deudor solicita la declaración de quiebra. * Cuando el deudor solicita la suspensión de pagos y no procede, o bien, si se concede dicha suspensión ésta no se concreta en un convenio con los acreedores. * Cuando el deudor no cumple las obligaciones adquiridas en un convenio hecho en la declaración de suspensión de pagos. Podemos ver que este término es más amplio con respecto a los otros utilizados para definir al fracaso empresarial, pues fundamentalmente la cesación de pagos es el hecho de no poder atender los compromisos vencidos con la tesorería disponible en un momento dado. Sin embargo, actualmente existe una imposibilidad práctica para demostrar cuando la empresa efectivamente carece de capital financiero para atender a sus pasivos vencidos (sobre todo los de corto plazo). Además, aparte de esta imposibilidad para la determinación de la quiebra, desde el concepto actual de las finanzas empresariales no puede establecerse un concepto de quiebra únicamente sobre el concepto financiero de insolvencia. Por otra parte, la Ley de Quiebras y Suspensión de Pagos de México (LQSPM) define en su artículo primero que una empresa puede ser declarada en estado de quiebra cuando cesa el pago de sus obligaciones. Esto indica que la naturaleza de la quiebra es más complicada de lo que en principio se piensa, pues desde el punto de vista jurídico se estipula que es un estado de derecho que como tal no existe o no se da por la simple producción de las circunstancias técnicas, económicas y/o financieras que puedan determinarla o puedan clasificar en específico a alguna empresa. Además, la ley también señala que el estado de quiebra se da únicamente hasta que el organismo judicial responsable y competente declara, con base en tales circunstancias, la existencia de la quiebra. Es decir, la quiebra es un fenómeno económico que aunque toma en cuenta el factor de la solvencia, principalmente tiene relevancia jurídica cuando se declara su existencia, pues el empresario al cesar sus pagos no se encuentra aun en estado de quiebra sino hasta que el juez procede a declararlo. La LQSPM al referirse a la declaración del estado de quiebra ha confirmado que la quiebra es un estado jurídico que tiene una trascendencia tanto económica como administrativa. En el caso de México, si los acreedores o el comerciante solicitan el estado de quiebra y prueban los supuestos de la misma, el juez tiene que declararla. Pero si éste último tiene serías dudas, aunque se presente la insolvencia puede negar dicho estado jurídico. Con respecto a la definición de quiebra, se ha llegado primero a este concepto a través de los supuestos contemplados en el Código de Comercio Mexicano que presenta dos elementos jurídicos fundamentales de necesaria comprobación para que el juez pueda declarar la existencia del estado de quiebra y que son: 1. Que la persona Moral o física a quien se le va a declarar el estado de quiebra sea comerciante. Esto no presenta mayor problema pues el Código de Comercio Mexicano (art. 3º y 4º), señala al empresario como aquel que puede constituirse individual o socialmente para realizar actividades de comercio. La constitución social comprende a todas las sociedades con forma mercantil que están reguladas en su figura jurídica por la Ley General de Sociedades Mercantiles. 2. Que dicha persona haya cesado sus pagos. Este concepto nos lleva al contenido del artículo 2º de la LQSPM, que indica que: “...se presumirá, salvo prueba en contrario, que el comerciante cesó en sus pagos, en los siguientes casos7 y en cualesquiera otros de naturaleza análoga: incumplimiento general 7 Unicamente se incluyeron los principales casos que se relacionan con el objeto de esta investigación. _______________________________________________Capítulo 5: La Variable Dependiente 182 en el pago de sus obligaciones líquidas y vencidas; inexistencia o insuficiencia de bienes en que trabar ejecución al practicarse un embargo por incumplimiento de una obligación o al ejecutarse una sentencia en autoridad de cosa juzgada; la cesión de sus bienes a favor de acreedores; por acudir a expedientes ruinosos, fraudulentos o ficticios para dejar de cumplir con sus obligaciones8...” En los estudios de Mora (1992), la variable respuesta o dependiente es un indicador dicotómico de quiebra y nos señala que normalmente se selecciona a la “quiebra” como subrogado de fracaso empresarial en lugar de otras variables (como el nivel de beneficios o la posición de liquidez, entre otros). Esto se hace normalmente para evitar problemas tautológicos que podrían presentarse si tanto la variable dependiente como las variables independientes estuvieran basadas en los mismos estados financieros. Pina (1988) define a la variable dependiente en términos de situación de “quiebra” y “no quiebra”, es decir “empresa sana” o “empresa en crisis”, variable dicotomía por consecuencia, y que toma el valor “1” si es sana y “0” si está en crisis. Siguiendo con Mora, en su trabajo nos señala que la primera dificultad en la selección de las variables en los modelos de predicción de quiebras corresponde a la determinación de la variable dependiente, es decir, al propio concepto de fracaso, pues existen diferentes interpretaciones sobre cuando una empresa fracasa o entra en crisis. Además, opina que utilizar la quiebra como variable respuesta en trabajos empíricos puede originar que el tamaño de las muestras tiendan a ser muy pequeños debido a que el porcentaje de quiebras en una población es muy reducido, así como el hecho de que se requieren datos de varios años previos a la quiebra. Para evitar este problema Mora propone utilizar mejor como variable dependiente al éxito empresarial en lugar del concepto de quiebra, pues considera que puede haber usuarios que estén más interesados en valorar la probabilidad de éxito con respecto a la probabilidad del fracaso. Sin embargo, aquí también se puede presentar el inconveniente para obtener una definición de éxito suficientemente objetiva, pues mientras algunos autores lo interpretan como sinónimo de un elevado ratio de beneficio por acción otros lo asocian al incremento en el valor de la empresa. Pero de cualquier forma, desde este enfoque no se presenta tanta polémica. En el estudio de Bukovinsky (1993), la variable dependiente es un indicador dicotómico de quiebra, es decir, la empresa es considerada en quiebra si ha sido registrada para su protección bajo él capitulo XI del Código de Quiebras de los Estados Unidos. Caso contrario, la empresa se considerara sin quiebra si no se incluye en dicho capítulo. Este último criterio es muy popular en las investigaciones empíricas llevadas a cabo en numerosos países, y tal vez se deba a su simplicidad. El problema es que no se lleva a cabo ninguna evaluación o análisis sobre el estado actual del sistema concursal del país al que corresponde. Van Hemmen (1997: p.17) en su estudio sobre el procedimiento concursal en España, aborda el anterior problema al indicarnos que existen varias señales del fracaso empresarial que son: patrimonio neto contable negativo (insolvencia económica); impago a proveedores (insolvencia financiera); descubiertos bancarios (insolvencia financiera) y entrada en el procedimiento concursal (cesación de pagos).. Este mismo autor considera que la predicción para la entrada en el sistema concursal puede ser más importante que la predicción del fracaso empresarial, y nos cita los dos procedimientos para entrar a dicho sistema concursal: El procedimiento de reestructuración: que es cuando negociada. existe una crisis transitoria y una salida El procedimiento liquidatorio: que se da cuando el valor separado de los activos es mayor que el valor de la empresa en marcha. 8 Este señalamiento está dirigido al grave problema de la contabilidad creativa que los norteamericanos denominan "window dressing". _______________________________________________Capítulo 5: La Variable Dependiente 183 Otro aspecto interesante antes de entrar a analizar un procedimiento concursal y determinar si una empresa se clasificará como fracasada o no, es saber distinguir si la crisis es transitoria o crónica para poder afirmar que una empresa a tenido fracaso empresarial definitivo. Al respecto, consideramos que sería interesante en posteriores estudios comparar algunas de las variables más importantes que marcan las diferentes legislaciones de países con economías abiertas para declarar a una empresa en suspensión de pagos y quiebra. Por ejemplo, actualmente existen algunas opiniones que consideran que no se debe tener en cuenta para la selección de la muestra, a las empresas quebradas como parte de la submuestra de empresas con fracaso empresarial, pues en la etapa previa a la suspensión de pagos ya existe el fracaso empresarial. Otro factor importante a considerar es que el fracaso empresarial ni siquiera es definido en los mismos términos temporales en las investigaciones que tratan el tema. Algunos autores consideran el fracaso empresarial cuando la entidad está previa a la suspensión de pagos. Otros analistas opinan que se da cuando se solicita la suspensión de pagos ante el registro mercantil, o bien, únicamente en el momento en que se emite el dictamen del registro mercantil. Por último, también existe una aceptación generalizada del termino fracaso empresarial cuando se declara técnica y legalmente la quiebra, de ahí, que en ocasiones ambos términos se tomen erróneamente como sinónimos de fracaso en gran número de investigaciones para evitar complicaciones dentro del análisis financiero, el cual exigiría ir más haya de la simple consulta de un registro concursal que puede tener más contenido jurídico que económico y financiero. Lo anterior vuelve a recordarnos la importancia de llevar a cabo una definición bien fundamentada sobre la variable dependiente antes de llevar a cabo las estimaciones empíricas para tratar de obtener indicadores globales predictivos, pues de lo contrario no sabremos que estamos midiendo. También para nosotros resulta muy interesante que futuras investigaciones tomarán en cuenta observar dos situaciones o enfoques nuevos que pudieran ser válidos en el momento de definir a la variable dependiente y que son9: a) Se puede considerar como fracaso empresarial una rentabilidad baja obtenida por la entidad a lo largo de varios períodos. El problema que se daría aquí sería como determinar el lapso de tiempo en que se presentaría la señal. Como sabemos existen ciertos sectores económicos en que el período de maduración y maximización de beneficios es más lento respecto a otros sectores, es decir, puede haber fracaso empresarial transitorio y fracaso empresarial definitivo10. Al referirnos a una rentabilidad baja queremos decir que si el beneficio en términos relativos está por debajo de la rentabilidad ofrecida por el sistema financiero en instrumentos con un riesgo inferior a la de la empresa, entonces estaremos obteniendo menos o las mismas unidades monetarias pero con mayor riesgo. Es decir, la tasa de descuento a la que renunciamos sería mayor que nuestro porcentaje de beneficios y esto por consecuencia nos daría un VAN negativo. Por otra parte, si se define una rentabilidad baja como variable dependiente, el principio contable de negocio en marcha o continuidad de la empresa adquiere un nuevo alcance positivo pues no se da el problema sobre las diferencias para valorar una empresa en continuidad y valorar una empresa en liquidación11. 9 En el modelo Altman, expresado como una función lineal, la variable dependiente se expresa con la “Z-Score” que es un indicador o ratio global para discriminar entre empresas fracasadas y empresas no fracasadas o con exito empresarial. 10 Puede ser que se presente la suspensión de pagos como crisis temporal y en la investigación se clasifique a la empresa como fracasada sin considerar posteriormente si tuvo un éxito empresarial. De suceder está situación cometeríamos el error de clasificación tipo II. Si sucede lo contrario, clasificar una empresa con éxito empresarial y posteriormente ésta fracasa, cometeríamos el error tipo I. 11 Al valorar una empresa en continuidad, conceptos como: el credito mercantil, las amortizaciones y depreciaciones, la valuación de los inventarios por cualquiera de sus tres métodos, etc representan información financiera que se traduce en valores cuantificables (unidades monetarias) dentro de un período de tiempo y a una fecha determinada. En cambio cuando se inicia la valuación de una empresa en liquidación, parte de la información financiera ya no es posible traducirla a través de los instrumentos contables y financieros a valores cuantificables (unidades monetarias). _______________________________________________Capítulo 5: La Variable Dependiente 184 b) La otra opción para definir la variable dependiente se basa en seleccionar al éxito empresarial en lugar del fracaso empresarial. Esta idea ha sido abordada ya por varios autores como Blum (1974). En este caso se tiene que indicar que se entiende por éxito empresarial. Brealey y Myers (1999) nos dicen que el éxito de una empresa consiste en maximizar los beneficios, maximizar el valor de la empresa o una combinación de ambos. 5.2.2. SUSPENSION DE PAGOS Y EL CONVENIO PREVENTIVO. El termino de suspensión de pagos es menos frecuente que se considere para clasificar a las empresas dentro de la submuestra de fracasadas en los modelos predictivos. Lo anterior se debe a que toda empresa antes de que se le declare en quiebra pude solicitar entrar en una suspensión de pagos y convocar a sus acreedores para la celebración de un convenio general preventivo del estado de quiebra con el fin de intentar rehabilitarse económicamente, y sobre todo evitar desaparecer como unidad empresarial (LQSPM, art. 394). Esto obedece a que cualquiera que sea la regulación de la quiebra, siempre supondrá ésta una serie de efectos perjudiciales para la empresa, el estado y la sociedad. Sin embargo, con el propósito de contar con un sistema organizado y efectivo para prevenir la quiebra, la institución de la suspensión de pagos se ha ampliado más a partir de 1987 dentro de nuestro sistema concursal mexicano. La suspensión de pagos en algunos aspectos jurídicos, no es una situación distinta con respecto a la quiebra, sino que es igual a ésta, difiriendo únicamente en que la primera es una situación provisional que sólo tiene dos caminos a seguir: el convenio preventivo o la declaración de quiebra. Actualmente esta institución es considerada como un procedimiento más favorable para el deudor y esto origina que en aquellos países con sistemas concursales más estrictos, la situación de suspensión de pagos sólo se conceda a aquellos deudores que tuvieron problemas de insolvencia por causas fortuitas. En el caso de México, la ley considera que la suspensión de pagos no es sólo benéfica para el deudor, sino también para el acreedor. Por eso da amplias facilidades para la declaración de suspensión de pagos en lugar de la declaración del estado de quiebra12. La suspensión de pagos en general tiene los mismos términos, aunque también difiere en su concepto de acuerdo al sector productivo en donde se le considere. Por ejemplo, para que una institución de crédito pueda ser declarada en suspensión de pagos de acuerdo a la Ley de Instituciones de Crédito (art. 172) es preciso que su activo sea mayor que su pasivo, sin que esto indique que la entidad está en quiebra. En cambio en el Código de Comercio (art. 1026) se establece que la quiebra y la suspensión de pagos son estados jurídicos análogos. La suspensión de pagos como institución paraconcursal y que permite al suspenso recobrar su capacidad económica para continuar con sus actividades empresariales tiene las siguientes características: * Evitar la declaración de quiebra. * El suspenso pierde la administración de sus bienes. * El procedimiento de suspensión concluye si el comerciante puede pagar. A partir de la sentencia de declaración hasta la celebración del convenio, el suspenso se beneficia de una moratoria forzosa con respecto a sus acreedores. Aquí el suspenso no queda privado del derecho 12 Dicha concesión se prohibe sólo a aquellas personas que han actuado de forma fraudulenta (alteración de la contabilidad, evasión de impuestos, etc). _______________________________________________Capítulo 5: La Variable Dependiente 185 de la administración y disposición de sus activos actuales, más todos aquellos que adquiera hasta finalizar el proceso. Además, el suspenso puede desempeñar cargos comprendidos en el derecho civil y su situación no tiene efectos civiles ni penales de arraigo, pudiéndose por tanto separar del lugar del juicio sin necesidad de la autorización del juez . En México, la suspensión de pagos se prohibe después de tres días de haberse producido la cesación de pagos, por tanto la suspensión debe solicitarse antes de la cesación para estar en posibilidades de presentar un convenio preventivo. Cumplido esto, toda demanda de suspensión de pagos debe ir acompañada de la proposición de convenio preventivo que el comerciante hace a sus acreedores, así como también de una manifestación de la cámara de comercio o industria en la que se encuentre afiliado el comerciante. Si no existen estos elementos no puede procederse en ningún caso al trámite de suspensión de pagos. Pero de proceder, y una vez admitidas las demandas de suspensión de pagos, se detiene cualquier tramitación de demanda que previamente exista para la declaración de quiebra. La proposición de un convenio preventivo tiene como objetivo fundamental la quita, espera o ambas combinaciones, para salir del problema de quiebra. El porcentaje que el suspenso tiene que ofrecer para pagar a los acreedores en cada caso debe ser superior a un 5% respecto a los porcentajes mínimos que podrían proponerse en el convenio de quiebra. Este porcentaje debe interpretarse en el sentido de que los dividendos mínimos se aumentarán en un 5% (caso del convenio remisorio) y la quita no puede ser superior al 60% del importe de cada crédito en vez del 65% que dicho artículo autoriza como mínimo en el caso del convenio concursal. Del análisis del contenido del art. 318 de la LQSPM, se deduce que el plazo máximo de la espera y los porcentajes mínimos del dividendo, estarán en la siguiente relación: del 45% al 75% de dividendo si la espera no es superior a 6 meses; del 60% al 75% del dividendo si la espera es hasta de 1 año; y del 70% en adelante si la espera es hasta de 2 años. Para una suspensión de pagos también se establecen las proporciones de referencia en donde a una espera de 6 meses corresponde una quita máxima del 45% al 55% del importe del crédito; a una espera de hasta 12 meses corresponde una quita máxima del 30% al 40%, y por último, para una espera de 13 a 24 meses corresponde una quita del 30% del valor del crédito. En los casos en que se solicite una espera superior a los dos años, ofreciendo un dividendo en proporción mayor por la espera adicional, bastará como mayoría de capital para la admisión de la proposición del convenio. Esto significa que la extinción de la quiebra puede ser prolongada si se mejora el dividendo o se acorta la espera previa aprobación de la mayoría del capital. Respecto a aquellos convenios que sólo impliquen espera sin quita, éstos pueden ser admitidos si lo aprueban las mayorías antes ya señaladas, pudiéndose prolongar la espera hasta tres años. Estos convenios tienen la característica de ser convenios moratorios, y cuando el plazo es de tres años se le denomina convenio moratorio puro. Por otra parte, la empresa quebrada también puede optar por ofrecer el abandono de sus activos a los acreedores quienes para aceptar deben representar al menos 75% del pasivo. Se dice que este convenio es un “datio in solutum”, ya que el pago se hace en especie y no en dinero. El Título V de la LQSPM que trata sobre la extinción de la quiebra y de la rehabilitación, aporta elementos adicionales a nuestra tesis sobre la insuficiencia del fundamento meramente económico financiero. Otro problema importante que presenta la institución de suspensión de pagos para considerarse como un fundamento sólido para clasificar como fracasada a una empresa es el que se refiere a la sentencia del juez, pues éste debe el mismo día o más tardar al día siguiente de la presentación de la demanda, dictar sentencia declarando suspensión de pagos una vez comprobada la correcta presentación de la demanda y proposición de convenio. _______________________________________________Capítulo 5: La Variable Dependiente 186 Es importante mencionar que desde un criterio práctico, el plazo que tiene el juez para dictar sentencia es insuficiente, pues tiene que comprobar los elementos antes citados a través de averiguaciones que pueda ordenar y también tiene que hacer una correcta y completa redacción de la sentencia. Con respecto a la suspensión de pagos y el reconocimiento de los créditos, podemos decir que los primeros efectos que surte una declaración de suspensión de pagos mientras dura el procedimiento, es que ningún crédito adquirido con anterioridad puede ser exigido al deudor ni éste debe pagarlo. En la suspensión de pagos los acreedores se clasifican en dos grandes grupos: el primer grupo está constituido por aquellos acreedores anteriores a la fecha de la suspensión de pagos y no pueden ser éstos liquidados en función del principio “par condicio” (además el curso de los intereses moratorios se suspende). El segundo grupo está integrado por aquellos acreedores posteriores a la suspensión de pagos a los cuales se les debe pagar y dar las garantías contractuales para poder continuar la empresa en marcha. Durante el procedimiento paraconcursal el deudor conserva la administración de los activos y continúa dirigiendo las transacciones ordinarias de la empresa aunque bajo la vigilancia del sindico. El principio orientador de esta acción es el de encontrar un punto medio entre la privación de los derechos de la administración (característica de la quiebra) y la plena libertad del comerciante en forma normal. Esto evita el conflicto de personal ajeno a la empresa y el peligro de reincidir en equivocaciones. Con respecto al concepto de operaciones ordinarias se tiene que profundizar más en él pues es un elemento clave para la correcta aplicación del modelo de predicción. La LQSPM menciona de forma genérica que las operaciones ordinarias son aquellas actividades llevadas a cabo de acuerdo a la naturaleza y calidad del giro del negocio. Aquí el suspenso no puede efectuar hipotecas, actos de carácter gratuito como donaciones, ocultar parte del activo, omitir a algún acreedor, presentar listados de créditos inexistentes o incurrir en cualquier acto fraudulento en perjuicio de los acreedores. En caso de realizarlos, el juez declarara inmediatamente el estado de quiebra. 5.2.3. LA EXTINCION DE LA QUIEBRA Y LA REHABILITACION. El concepto de extinción de la quiebra no presenta tantos problemas como el del nacimiento de la quiebra. El art. 274 de la LQSPM indica que el juez debe dictar resolución declarando concluida la quiebra cuando el comerciante efectúe el pago integro o el pago concursal de sus obligaciones vencidas13. Extinguida la quiebra, aquellos acreedores que no obtengan el pago íntegro conservarán individualmente sus acciones contra la empresa quebrada, a no ser que la quiebra concluya a través del convenio. Esto significa que finalizado el proceso de quiebra, a través de pago concursal, los acreedores pueden proceder contra el quebrado por el saldo crediticio pendiente de cubrir. Lo anterior se debe a que en varios casos se han descubierto activos del quebrado que se ocultaron deliberadamente o se ignoraron. Así, el límite temporal para disponer y distribuir dichos activos es indefinido y da derecho a que los acreedores puedan solicitar la reapertura de la quiebra si no han transcurrido dos años desde su cierre, esto mediante previa confirmación y pruebas de que existen dichos activos. La extinción de la quiebra por falta de activos es un principio económico y se presenta cuando se certifica que el activo es insuficiente para cubrir los gastos que origina la quiebra. Para esto el juez debe consultar al síndico y al quebrado, y de estar ambos en común acuerdo se concluye el proceso. Esta forma es reconocida en diversas legislaciones concursales extranjeras orgánicamente similares a la ley mexicana. En México era desconocido este principio pragmático pero se incorporaron sus 13 El procedimiento de quiebra termina regularmente con la liquidación del activo para el pago a los acreedores. Dicho pago puede cubrir el importe total de cada uno de los créditos o también ser insuficiente, y por tanto, cubrir parcialmente esos créditos. En el primer caso se habla del concepto de pasivo integro; en el segundo caso, se habla de pago concursal o en moneda de quiebra. _______________________________________________Capítulo 5: La Variable Dependiente 187 elementos con base a la experiencia positiva registrada en Francia (“inssuffisance d´ active”) e Italia (“mancanza di activo”).14 La extinción de la quiebra se puede presentar por un acuerdo unánime entre los acreedores principales a través de un convenio presentado por el quebrado que contenga además de la quita una propuesta de espera que no sea mayor a dos años y la quita no exceda un 55 %. Una vez analizados algunos supuestos del fracaso de una empresa observamos que de acuerdo a los convenios entre deudores y acreedores es factible que se pueda dar o no la quiebra, pues mucho depende no sólo de la situación financiera, sino también de la habilidad y capacidad negociadora de las partes para declarar una quiebra independientemente del estado económico y financiero de la empresa. Lo anterior en parte refuerza la idea de que no es suficiente el tomar una muestra de empresas en quiebra, sino ver qué criterios financieros y de negociación se consideraron para declarar tal estado. De no tomarse en cuenta estos criterios, seguramente en las muestras existirán empresas que presentando menos salud financiera con respecto a otras empresas ya declaradas quebradas, siguen funcionando y se clasifican como empresas sanas, no importando si posteriormente se rehabilitan o no los acuerdos entre las partes. Aquellas investigaciones que no se detienen a analizar estas particularidades tan importantes para integrar su submuestra de empresas fracasadas o en quiebra, y consideran a dicha submuestra como representativa del fracaso empresarial, están tomando fundamentos débiles para sus investigaciones ya que sus inferencias estadísticas seguramente no serán lo suficientemente sólidas para obtener la capacidad predictiva. Esto nos lleva a considerar que es de suma importancia el seleccionar una base de datos de empresas fracasadas o quebradas, no sólo a través de la simple consulta de un listado expedido por un órgano estatal, cámara de comercio o cámara industrial. Antes de iniciar la aplicación del modelo predictivo se debe llevar a cabo un serio análisis sobre el procedimiento y elementos que se consideraron para llegar a clasificar como quebradas o fracasadas a las empresas. Como hemos visto, una empresa puede quebrar después de la suspensión de pagos o también quebrar sin pasar por la cesación, suspensión de pagos o insolvencia. Durante más de un siglo, en el análisis de la información contable se ha utilizado como técnica preferida a los ratios. Esta técnica surgió a finales del siglo pasado dadas las necesidades de los banqueros norteamericanos para tomar sus decisiones sobre el otorgamiento del crédito. Hasta la fecha continúa la firme creencia que conforme una empresa entra en crisis, sus ratios experimentan deterioro si se comparan con los de otras empresas o con los suyos propios de años anteriores. Sin embargo, estos ratios no siempre siguen un deterioro paralelo a la crisis pues se pueden manipular a través de los diferentes años con una contabilidad creativa. Por otra parte, la esencia jurídica de la suspensión de pagos y de la quiebra, con sus correspondientes sentencias, no incluye únicamente un criterio económico - financiero, ni mucho menos uno estadístico. Por eso es necesario insistir en un nuevo enfoque para determinar de forma más precisa a la variable dependiente. En el caso de México, a lo largo de las últimas tres décadas se han adoptado criterios pragmáticos originados por las continuas crisis. Actualmente la legislación a suprimido las presunciones a base de sólo ciertos porcentajes de desequilibrio entre el activo, el pasivo y el capital de la empresa. En la práctica empresarial, sobre todo de las instituciones de crédito, existe la necesidad de observar también 14 Rodríguez (op. cit.) _______________________________________________Capítulo 5: La Variable Dependiente 188 las manifestaciones externas de la empresa para que proporcionen un fundamento más sólido sobre el verdadero estado patrimonial de la empresa. Sabemos que junto a los conceptos de solvencia económica y solvencia financiera de la empresa, pueden existir otros indicadores internos y externos que determinen la presunción de la cesación de pagos. Esta serie o lista de casos queda abierta actualmente para el arbitrio judicial con el fin de recuperar el valor y la vigencia de la ley de quiebras que opera en México, la cual está por modificarse para dar entrada a un nuevo proyecto concursal que resuelva mejor la definición del fracaso empresarial. También sabemos que existe una importante relación entre la contabilidad creativa y el fenómeno de la quiebra, pues en muchas ocasiones dicha relación es determinante para declarar o no a una empresa como fracasada. Reconociendo esta relación la LQSPM estipula que la empresa que solicite la declaración de quiebra o suspensión de pagos debe presentar su demanda ante un juez competente con documentos, datos y requisitos que se exigen, excepto en aquellos en que las empresas hayan sido condenadas por falsedad o delitos contra la propiedad; hayan incumplido las obligaciones constituidas en un convenio preventivo anterior, o bien, no presenten los documentos o informes financieros exigidos por la ley (art.395, 396). Por último, es importante señalar que en México como en otros muchos países, al no existir un registro central de antecedentes penales y un registro central de quiebras y suspenciones de pagos, el juez actualmente no puede en realidad comprobar las anteriores situaciones y tampoco puede exigir al demandante que presente dichas comprobaciones por sí mismo, pues no existen certificaciones a los estados financieros de alcance federal. Para erradicar esta laguna tan importante que existe en la práctica comercial, es necesario que se creen dichos órganos, pues además actualmente su constitución no presenta mayores problemas de tipo económico o tecnológico, ya que se cuenta con la infraestructura y los sistemas informáticos para establecerlos. 5.3. EL PROBLEMA DOCTRINAL DEL SISTEMA CONCURSAL MEXICANO PARA DEFINIR A LA VARIABLE DEPENDIENTE. La Ley de Quiebras y Suspensión de Pagos que rige actualmente en México se publicó el 31 de diciembre de 1942 y sólo ha tenido una reforma que fue introducida el 13 de julio de 1987. El principal objetivo de esta ley en ese entonces era buscar una mejor comprensión del fracaso empresarial para lograr la posible rehabilitación de la empresa e institucionalizar la sindicatura para dirigir de forma más profesional las crisis de las empresas en peligro de desaparecer. Otro objetivo central para tener una ley de quiebras en México, a través de los trabajos iniciados en 1939, fue resolver el grave problema de la ausencia de un sistema concursal que pudiera definir en términos cuantitativos y cualitativos que era exactamente una quiebra y una suspensión de pagos. Sin embargo, al no lograrse esto hasta la fecha, a partir de 1988 se iniciaron una serie de trabajos tendientes a elaborar una nueva ley que se espera entre en vigor para el año 2001. La cuestión de definir una quiebra al principio no representa gran complejidad, sin embargo, en la práctica aunque se ha avanzado, todavía constituye uno de los principales problemas aún sin resolver por parte de juristas, contables y autoridades hacendarias especializadas en el tema. Actualmente se puede decir que aún no existe ningún sistema concursal en el mundo lo suficientemente desarrollado en sus fundamentos y aplicaciones jurídicas que indique con precisión las variables económicas y financieras que se deben considerar para determinar en que momento una empresa entra en estado de quiebra. En el caso de México, desde el inicio se buscó proporcionar una estructura orgánica acorde a la realidad del país. Sin embargo, los antecedentes legislativos y la jurisprudencia mexicana de la década de los treinta y cuarenta eran muy escasos e insuficientes en esta materia. Por eso se tuvo que recurrir _______________________________________________Capítulo 5: La Variable Dependiente 189 a fuentes jurídicas de otros países, aunque sin olvidar las adecuaciones propias y sobre todo las cuestiones de índole práctica que intentó realizar el legislativo mexicano para evitar cuestiones doctrinales, que si bien fueron debatidas e incluidas en la ley, fue sobre la base de la facilidad y trascendencia práctica lo que orientó a la legislación para estructurar la ley de quiebras y suspensión de pagos en nuestro país. El Código de Comercio Mexicano, que trataba de forma general el tema de las quiebras antes de 1939, representaba por así decirlo al sistema concursal mexicano. Pero este sistema anticuado reclamaba una reforma total, pues la mayoría de sus artículos habían tenido que ser sustituidos por nuevas disposiciones o habían quedado prácticamente derogados por su total falta de adaptación a las modernas transacciones y exigencias de la nueva vida económica del país. Esta situación que afectaba a múltiples empresas por la relación entre las normas jurídicas obsoletas y las necesidades más importantes que aquellas debían regular en esa época, se presentó más peligrosa en el tema de las quiebras, pues los resultados negativos de su aplicación llegaban a poner en riesgo no sólo el patrimonio de los accionistas, sino también el de los agentes económicos vinculados a la empresa. Además, las críticas al sistema del Código de Comercio no fueron únicamente por lo obsoleto de su contenido, sino también por lo insuficiente e incompleto de éste. Esto en definitiva no hubiera sido un problema grave con una jurisprudencia ágil que fuese capaz de adaptar la antigua normatividad al nuevo contexto económico. Sin embargo, en la práctica las soluciones sobre la continuidad de la empresa quedaban truncadas y sin un desarrollo normal por las “lagunas” que dejaban sin regulación problemas jurídicos de suma importancia ante una sistematización poco efectiva que confundía a los intérpretes o usuarios del sistema concursal. En el caso de los procedimientos de quiebras, aparte de su absoluto desprestigio, se presentaban eternos procedimientos concursales y paraconcursales que en muchos casos aunque se sabía cuando se iniciaba la quiebra, se desconocía su posible terminación por la falta de una normatividad adecuada. Lo anterior motivó el inicio de un primer programa de labores de actualización de la ley de quiebras durante 1939. Después de casi un centenar de reuniones, este programa logró completarse con un anteproyecto de ley en febrero de 1940. Al mismo tiempo, la comisión responsable también estuvo elaborando la redacción de un anteproyecto de Ley de Enjuiciamiento Mercantil entre febrero y septiembre de 1940. En aquel momento las actividades de la comisión se dirigieron especialmente a dos objetivos: El primero consistió en la preparación de un anteproyecto de Ley de Enjuiciamiento Mercantil y de un anteproyecto de Ley de Quiebras y de Suspensión de Pagos que incluyera su exposición de motivos. El segundo objetivo se centró en la preparación adicional de un anteproyecto de reforma del procedimiento mercantil que buscó dar inicio al anteproyecto de un nuevo Código de Comercio. En diciembre de 1942 se firmó el texto definitivo de la ley que contenía la finalización de los trabajos de la comisión que estuvieron orientados a tres principios fundamentales a alcanzar y fueron los que se muestran en seguida: Tener un proyecto sistemático. En primer lugar, la distribución de las materias a tratar se fundamentaron en un criterio científico y empleando términos adecuados, pero evitando los términos que presentaran problemas doctrinales y aún de decisión imprecisa. Esto tuvo el fin de facilitar la labor del intérprete y de los tribunales, así como de buscar la divulgación y conocimiento de la ley para proteger más los intereses de los empresarios que pudieran verse en peligro por una quiebra. Tener un proyecto completo. Se intentó recoger los problemas centrales en materia de quiebras, pero sin descender a un “detallismo” estéril. Para lograr esto se buscó incorporar instituciones útiles que solamente habían sido propuestas en términos generales por el Código de Comercio, tal era el caso de _______________________________________________Capítulo 5: La Variable Dependiente 190 la suspensión de pagos, el convenio preventivo o la revocación del síndico (este último había llegado a ser uno de los mayores problemas sin solución en la legislación de quiebras). Tener un proyecto moderno. Se trató de incorporar aquellas soluciones que la experiencia y la doctrina habían mostrado como firmemente adquiridas, tanto en lo que se refería a la experiencia y práctica jurídica mexicana, como al acervo común en materia derecho mercantil, el cual había venido siendo aportado por los principales países industrializados. Ante los múltiples problemas para cumplir con los anteriores objetivos, en 1987 la Comisión Mexicana buscó reformar y adecuar al nuevo contexto económico, los proyectos de quiebras y enjuiciamiento mercantil cuyos objetivos fueron los siguientes: a) Una renovación total de la legislación de quiebras. b) El proyecto se inspiró principalmente en la doctrina, jurisprudencia y legislación hispano-mexicana y se propuso ser más sistemático en la clasificación de los temas a tratar y en el empleo de los términos utilizados. También se procuró recoger los problemas más importantes que la doctrina y la jurisprudencia habían revelado para establecer las bases generales para su tratamiento y posibles soluciones. c) Los principios orientadores del proyecto fueron fundamentalmente que la quiebra era un fenómeno económico que interesaba no sólo a los acreedores, sino también al estado en su papel de tutor del interés colectivo; a los accionistas en su calidad de organizadores y creadores de la entidad económica; a los trabajadores y empleados como fuente de sus recursos económicos y espacio de desarrollo personal; y a los directivos en su papel de administradores y responsables de la continuidad de la entidad. Actualmente, la conservación de la empresa es una norma directiva fundamental en la Ley de Quiebras y Suspensión de Pagos en México, pues trata de dar todas las posibilidades de rehabilitación antes de declarar la quiebra. Para esto se ha intentado desarrollar en los últimos años “el procedimiento de suspensión de pagos y el convenio preventivo”. Sin embargo, cuando es inevitable declarar el estado de quiebra, la tarea no termina aquí para el sistema concursal mexicano, pues una vez declarada la quiebra se intenta llegar a un convenio final que satisfaga a las partes en conflicto. El convenio final concluye con la enajenación de la empresa como conjunto económico de bienes productivos y financieros, cuya separación y distribución entre los diferentes acreedores da por concluida la vida de la empresa, reconociéndose el daño causado a la sociedad. Esto obedece a que los intereses que representa la empresa son considerados superiores y se extienden más haya de los intereses de los acreedores y los accionistas. Con las modificaciones llevadas a cabo a la LQSPM, en 1987 se buscó simplificar el procedimiento de la suspensión de pagos y la posterior declaración de quiebra, sin que esto significase una disminución en las garantías procesales de seguridad y prevención de cualquier acto de corrupción entre los órganos que administran la quiebra. Para esto se introdujeron más sistemas técnicos de vigilancia y responsabilidad para erradicar actividades cotidianas tan negativas como la contabilidad creativa a la que ya nos hemos referido de forma detallada. Un punto importante que recogió la actual LQSPM fue el nuevo enfoque sobre la relación que debía existir entre el activo total y el pasivo total de la empresa. Anterior a la reforma de 1987, el procedimiento de suspensión de pagos del Código de Comercio de México, ya comprendía un convenio preventivo tal como se lleva a cabo en las legislaciones más desarrolladas de otros países. En cambio, en la Ley de Instituciones de Crédito Mexicana se continuaba con el clásico y más antiguo modelo que consideraba en estado de suspensión de pagos sólo a aquellas empresas que tenían un activo total superior a su pasivo total. _______________________________________________Capítulo 5: La Variable Dependiente 191 La práctica empresarial actualmente han puesto de relieve lo intrascendente de esta distinción, ya que las empresas con un activo total superior a su pasivo total también pueden ser declaradas en suspensión de pagos o quiebra sino son capaces de cubrir con su activo circulante sus pasivos contingentes vencidos. También existen pruebas de que ciertas empresas con un activo total que es inferior a su pasivo total, son capaces de cumplir normalmente con sus pasivos vencidos. Esto se puede alcanzar gracias al razonado y buen uso del crédito, así como a la correcta aplicación de modernas estrategias financieras, como por ejemplo, el apalancamiento financiero o la eficiente programación y administración del cash flow. Según algunos juristas, si nos orientamos a través del derecho comparado, podemos ver que existe una clara tendencia a no considerar como factor determinante la relación entre el activo total y el pasivo total para declarar la quiebra. El principal antecedente de esta práctica se remonta a la primera guerra mundial (1914-1918), cuando habiendo un colapso económico en gran cantidad de empresas europeas que tuvieron serios problemas de solvencia, obligó a varios de sus gobiernos (como los de Alemania, Austria o Italia, entre otros) a introducir la suspensión de pagos como una institución preventiva de la quiebra, sin considerar la relación entre el activo total y el pasivo total. Sin embargo, para proteger los intereses de terceros se obligaba al deudor a llegar a un convenio con el acreedor, que de no efectuarse finalizaba con la declaración de quiebra. En México este pensamiento se concretó con el proyecto de Ley sobre el Comercio Preventivo de 1938. Sus preceptos fundamentales fueron incluidos en el proyecto de la LQSPM que rige actualmente. Las anteriores ideas y características que recogió dicha ley permitieron estructurarla jurídicamente de acuerdo a los modernos sistemas en materia de suspensión de pagos, al establecerse un procedimiento genuinamente paraconcursal con absoluta independencia de la consideración patrimonial del suspenso. Por eso sólo se exigía al empresario su absoluta honradez, es decir, la empresa y la cesación de pagos eran supuestos comunes15 ante las dos instituciones paralelas: la quiebra y la suspensión de pagos.16 Pero la modernidad que caracterizó a esta ley no evitó los inconvenientes y vicios de costumbre para su correcta aplicación. Si bien es cierto que el problema de una incorrecta aplicación de las leyes concursales también se presenta frecuentemente en los países industrializados, en el caso de México este problema ha tendido a agravarse aún más si consideramos que en muchas ocasiones, aunque no exista un “vacío jurídico”, sí se carece de instituciones lo suficientemente autónomas para aplicar adecuadamente la ley. Al respecto algunos investigadores consideran que el estado actual que presentan los modernos sistemas concursales en el mundo, en general no son realmente eficientes, pues las recientes crisis han demostrado que dichas leyes tienen un componente antiguo que no satisface las necesidades de la actividad económica contemporánea. El origen y modelo del nuevo pensamiento concursal dirigido hacia el reflotamiento de la empresa se encuentra en los Estados Unidos de Norteamérica donde surgió a principios de siglo. En este país hace 90 años que se introdujo la filosofía del saneamiento de la empresa con la primera regulación norteamericana de la quiebra de 1898. Esta ley estableció como idea central la reorganización y saneamiento de la empresa bajo el fundamento de la credibilidad y de las leyes. En Europa la introducción de esa idea se llevó a la práctica sólo hasta finales de los ochenta a través de las amplias reformas experimentadas en Francia y en el Reino Unido. 15 Este supuesto sólo se diferencia en la exigencia impositiva de la proposición obligatoria de convenio que adopta la suspensión de pagos bajo un criterio de absoluta honradez. 16 Estas instituciones absolutamente paralelas lo son en su estructura económica y jurídica. También son comunes en sus supuestos y en la mayoría de sus consecuencias, si bien la suspensión de pagos difiere sólo en que es una institución paraconcursal, es decir, que trata de evitar y prevenir la quiebra. _______________________________________________Capítulo 5: La Variable Dependiente 192 La idea del saneamiento de la empresa parte de la premisa de que para lograr la reestructuración se tiene que considerar, además de los deudores y acreedores, a todos los agentes económicos y sociales relacionados con la empresa. Con esto se abandonó el concepto de insolvencia y se sustituyó por otros conceptos generales, como por ejemplo: “hechos de crisis” o “señales de alarma”. Ambos supuestos se han intentado resolver a través de las estrategias siguientes: 1. Implementar un procedimiento concursal único con diferentes soluciones. 2. Establecer juzgados especializados en crisis empresariales para supervisar las alternativas de reestructuraciones económicas y financieras. 3. Iniciar oportunamente el procedimiento ante “hechos de crisis”, ya sea por parte del deudor o cualquier otro agente económico relacionado con la continuidad de la empresa. 4. Reducir el tiempo, los costes y las penalizaciones para los deudores de buena fe ante los procedimientos, o bien, endurecer las penalizaciones para aquellos deudores que actúen en forma tardía o fraudulenta. Si analizamos el procedimiento concursal con relación al tiempo, éste se puede iniciar antes del momento de la manifestación de insolvencia y cesación de pagos. Sin embargo, en la práctica la cesación se produce antes de los problemas de liquidez. Algunos analistas opinan que para evitar este problema, el procedimiento concursal debería de autorizar a cualquier agente económico que cuente con la suficiente información financiera y contable para iniciar la solicitud del procedimiento paraconcursal o concursal de la empresa que se presuma en estado de crisis o colapso. Algunos consideran que actualmente la solicitud de suspensión de pagos no tiene realmente la finalidad de rehabilitar a la empresa en la mayoría de los sistemas concursales, pues únicamente se utiliza por el deudor para evitar que el acreedor tome la iniciativa de solicitar la quiebra de la empresa y que los directivos pierdan el control administrativo al ponerse bajo protección jurídica a través del síndico. Otro problema que se deriva del anterior, es que el deudor cuando adquiere una responsabilidad comercial y penal, si no es declarado en quiebra puede declararse en suspensión de pagos como una buena salida para protegerse de las consecuencias negativas del fracaso empresarial. El derecho concursal en general define que existe estado de quiebra cuando la empresa se encuentra en una situación de insolvencia definitiva, es decir, su patrimonio neto es negativo y sus necesidades de reflotación son escasas. En la mayoría de los casos se busca entonces liquidar a la empresa para pagar a los acreedores. En el caso de la suspensión de pagos, se considera como la situación de crisis provocada por una falta de liquidez y su objetivo central es conceder al deudor un plazo de tiempo a través de la demanda de paralización de toda solicitud de impago en su contra. Éste puede llegar a celebrar un convenio con sus acreedores para posponer de forma contractual y ordenada el pago de sus pasivos ya vencidos. Según la ley esto busca solucionar una insolvencia económica y volver a obtener el éxito empresarial. Sin embargo, en la práctica tal propósito se ha venido distorsionando, pues no se exige a la empresa que solicite su tramitación de expediente o que presente una situación de neto patrimonial positivo. En cambio, para la solicitud de quiebra, la cesación de pagos es el principal requisito que exige la ley para declarar el estado de quiebra aunque su situación patrimonial no sea deficitaria. Esta situación que se repite en varios países, ha originado que el procedimiento más popular sea el paraconcursal (suspensión de pagos) y el segundo en importancia sea el concursal (quiebra). Es sabido que muchas suspensiones de pagos no tienen la finalidad de lograr la continuidad sana de la empresa, pues comúnmente el deudor intenta salvar a ésta endeudándose aún más. El problema se _______________________________________________Capítulo 5: La Variable Dependiente 193 incrementa si la empresa cuenta con fuentes de financiamiento otorgadas por algunos acreedores que omiten hacer un estudio serio de viabilidad. Por otra parte, algunas legislaciones concursales no imponen ninguna sanción directa para los empresarios que se acojan al expediente de suspensión de pagos, falseando el estado de su patrimonio a través de los informes financieros. Esto ha motivado a que numerosos acreedores proporcionen incentivos económicos a las empresas fracasadas, aunque al final se incremente cada vez más el número de quiebras y suspenciones de pagos bajo el adicional amparo de un derecho concursal caracterizado por su lentitud en su actuación. Algunos de estos incentivos se dan cuando los acreedores actúan sobre la lógica de que la suspensión de pagos al ser lenta, imprevisible y costosa en su procedimiento, lo sitúan a éste en un estado de desventaja y mínimas probabilidades de recuperar en el corto plazo su patrimonio invertido. Entonces el acreedor opta por negociar con el deudor al margen del contrato inicialmente establecido. Es en este momento en que los analistas consideran que existe una “pereza” administrativa y legislativa que deriva en una absoluta falta de confianza en el derecho concursal. Incluso hay quienes opinan que actualmente la interventores deberán ser auditores externos para evitar la excesiva y controvertida coincidencia de interventores y síndicos en los procesos de suspensión de pagos. Al principio de nuestra historia económica como país independiente, la pauta jurídica de nuestro sistema concursal se tomó de España. A su vez España tuvo como fuentes documentales primarias de su derecho concursal a ciertos tratados europeos más antiguos que se desarrollaron en un contexto económico mucho menos complejo que el actual. Esto en definitiva a llevado en repetidas ocasiones a tratar de ajustar erróneamente el concepto de empresa moderna al concepto tradicional de empresa que se definió a finales del siglo pasado y principios del presente, cuando aún no se desarrollaba ni siquiera el nuevo concepto de las finanzas. El componente más vigente y pivote central del proyecto concursal contemporáneo es la consideración de que la quiebra no es una cuestión de interés privado, sino de interés social y público, ya que no es sólo el acreedor el más interesado en la administración y el control del proceso de quiebra, sino también el Estado en cuanto es el responsable directo de los intereses colectivos, y de ahí que sea el responsable directo de perfeccionar el sistema concursal para llegar a un mejor concepto del fracaso empresarial. En general cada país determina el grado cuantitativo y cualitativo de su sistema concursal. Por ejemplo, en el sistema concursal estadounidense e ingles, la figura jurídica de la quiebra se enfoca a que se reconozca a tiempo el fracaso para una oportuna reorganización. En el caso de México se reconoce el fracaso desde que la empresa entra en problemas de liquidez para decretar oportunamente la suspensión de pagos. Aunque diversos trabajos han tratado de demostrar que la suspensión de pagos no corresponde a una verdadera deficiencia financiera estructural, en el caso de países con altos índices de inflación, las cargas financieras por concepto de intereses moratorios sí distorsiona a dicha estructura. Por eso en México se ha optado por considerar a una empresa fracasada en el momento que entra en suspensión de pagos. Además en nuestro país existen las siguientes particularidades: a.) La suspensión de pagos es de fácil detección y su reconocimiento jurídico es inmediato en el caso de las empresas que cotizan en la bolsa. b.) Con esto se consigue una fecha representativa del fracaso, al contrario de la quiebra en donde el proceso concursal depende tanto del juez como de terceras personas que tienen intereses en la empresa en cuestión. _______________________________________________Capítulo 5: La Variable Dependiente 194 c.) La empresa en suspensión de pagos tiene la obligación de continuar llevando una contabilidad basada en el principio del devengo. En cambio al decretarse la quiebra, la empresa adopta una contabilidad liquidadora y esto produce un tipo de información totalmente diferente. En las investigaciones predictivas se ha seleccionado como variable dependiente normalmente a la quiebra como sinónimo de fracaso empresarial en lugar de otras variables, como el nivel de beneficios o la posición de liquidez, entre otras, para evitar problemas tautológicos que se producen cuando la variable dependiente y las variables independientes se basan ambas en los mismos estados financieros. Al utilizar la quiebra como indicador o medida financiera del fracaso empresarial se proporciona una regla que parece objetivamente determinante (Gabas 1992: p. 206). Como ya hemos dicho, en la variable dependiente, aunque pareciera ser otro elemento en donde existe acuerdo generalizado en cuanto a su definición, en la práctica se está lejos de llegar a tal coincidencia. Por ejemplo, cuando se aborda el estudio del fracaso empresarial a través de variables estadísticas, la variable dependiente del modelo puede ser el fracaso o el éxito. En ambos casos sus definiciones resultan difíciles, porque si bien es cierto que la modelación de la variable dependiente puede ser establecida como dicotómica o categórica17 a través de la técnica del análisis discriminante, existe también la necesidad adicional de establecer la fecha “para presentar de forma puntual el momento de entrada de la empresa en el fracaso” (Lizarraga: 1996). Además, el análisis discriminante aunque no exige el establecimiento de “infinitas fronteras entre las empresas”, sí requiere por lo menos una frontera que permita la asignación previa de la unidad de análisis a su estado categórico real (fracaso o no fracaso). Esto lleva a que según el criterio de los investigadores, éstos delimiten el concepto y el tiempo en que se entiende nació el fracaso para posteriormente llevar a cabo la determinación de la variable dependiente. Es importante resaltar que al clasificar a una empresa como no fracasada, esto no representa un indicador definitivo para que se pueda clasificar a tal empresa como sana o con éxito. En este trabajo se coincide con aquellas opiniones de investigadores que proponen mejor eliminar de la muestra a este tipo de empresas antes que asignarlas erróneamente a cualquiera de las dos submuestras. Las razones pueden estar justificadas por las deficientes legislaciones concúrsales vigentes en muchos países que no siempre clasifican correctamente a una empresa en quiebra. Además, hay que tomar en cuenta la diversidad de alternativas que existen para evitar dentro de las crisis el procedimiento concursal aunque la empresa ya se encuentra en un estado de fracaso total, por ejemplo, tenemos el caso de las negociaciones que se dan entre el deudor y algunos acreedores para retardar únicamente el cierre de la empresa sin bases financieras o económicas. Para concluir este capítulo es importante señalar que la selección de la variable dependiente se puede determinar considerando tres supuestos: a) cuál es la definición ideal; b) cuales son las definiciones posibles de acuerdo al contexto en dónde se desarrolla la investigación; y c) cuál es la definición de la variable dependiente que adopte el autor por considerarla como la más adecuada para determinado sector. Por ejemplo Beaver (1966) definió al fracaso como quiebra, pero además entendió que la quiebra equivalía a la incapacidad para pagar las obligaciones vencidas. Este concepto corresponde más bien a la suspensión de pagos (fracaso financiero o insolvencia técnica). Por su parte Altman (1968) entendió que el fracaso se presentaba en aquellas empresas que tenían agudos problemas financieros. Para este autor al momento de seleccionar la variable dependiente la cuestión principal no radicaba en que si la empresa tenía que acabar forzosamente fracasando porque sus ratios estuvieran deteriorados, sino en que los síntomas de estas empresas fueran similares a otras que sí habían fracasado. 17 Esto quiere decir que existen dos únicos valores posibles: (1) Fracaso, (2) No Fracaso. _______________________________________________Capítulo 5: La Variable Dependiente 195 Una crítica al modelo Altman es que precisamente no todas las empresas clasificadas como fracasadas llegaron a la quiebra. También a partir de su trabajo se inició la polémica sobre la necesidad de limitar la definición del fracaso, pues se comprobó que si se incluye únicamente un término, entonces se producen continuos errores de estimación en el modelo. Pero por otra parte, si la definición de fracaso se amplia a varios supuestos, aunque el modelo tiende a ser más exacto estadísticamente, en la práctica resulta un modelo más teórico o subjetivo. En el caso de Baida y Ribeiro (1979) consideran que existe fracaso en aquellas empresas que inician peticiones de quiebra, o bien, que están en un proceso de reorganización. Por su parte Swason y Tybout (1988) definen el fracaso en aquellas empresas que no tiene un exceso de valor presente en sus activos con respecto al valor presente de sus pasivos. Con base en esta idea original establecieron tres condiciones para clasificar a una empresa como fracasada: a) que estuviera en quiebra; b) en proceso de reorganización y acuerdos de repagos; y c) que estuviera fuera del mercado de valores. Won y Young (1995) consideran el fracaso empresarial a partir de la insolvencia técnica o el procedimiento de liquidación, pues para ellos estas situaciones representan el final de la vida de una empresa. En el caso de Deakin (1972) el fracaso lo entiende de tres formas: insolvencia, quiebra y liquidación. Para Edmister (1972) basta con que las empresas no obtengan beneficios. Por último, Blum (1974) opta por un horizonte más amplio y define al fracaso a partir del momento en que una empresa entre a un procedimiento concursal, o bien, cuando se da un acuerdo entre deudores y acreedores para otorgar quitas en los pasivos. En el caso de este trabajo se optó por seguir tres criterios para separar a las empresas sanas de las empresas fracasadas, siempre y cuando éstas coticen en la Bolsa Mexicana de Valores: a) se considerará como empresa fracasada a aquellas que presenten un capital contable negativo; b) aquellas que tengan beneficios netos negativos continuos durante por lo menos cuatro años; y c) aquellas que entren en una suspensión de pagos efectiva como fue el caso de Situr. Este criterio se seleccionó por un lado ante el enorme desacuerdo que existe en términos conceptuales y teóricos. Por otra parte, responde a la realidad que viven las empresas mexicanas dentro del mercado de valores para que se les clasifique como fracasadas ante el público inversionista. ___________________________________________Capítulo 6: Las Variables Independientes 196 CAPITULO 6 LAS VARIABLES INDEPENDIENTES 6.1. PROBLEMAS DE LA TECNICA DE RATIOS Y DEFINICION DE LAS VARIABLES INDEPENDIENTES. La utilización de la técnica de ratios, que representa la base del análisis contable tradicional, propone el uso de ratios financieros para la evaluación de la situación y evolución económica de la empresa. Sin embargo, los ratios a pesar de ser un instrumento amplio y variado, cuyo buen diseño y conocimiento permiten profundizar y resolver algunos aspectos concretos para la toma de decisiones, tiene una limitada capacidad para solucionar el problema sobre el cálculo real o único sobre la rentabilidad, la solvencia, la liquidez, el endeudamiento, y en general sobre la determinación del éxito o fracaso de una empresa. La idea básica sobre el estudio de la tendencia y el comportamiento de ciertos ratios financieros de varias empresas es con el fin de poder identificarlos y utilizarlos con fines de predicción con base en sus características de mayor predominio (Bernstein 1999: p.653). Según algunos analistas, esto permite detectar signos de deterioro observados en el comportamiento de los ratios, con una anticipación y claridad suficiente para tomar a tiempo iniciativas que eviten riesgos graves de insolvencia, incumplimiento de obligaciones y procesos de quiebras. Para Brealey y Myers (1999), el utilizar ratios tiene la ventaja de no verse abrumado por el gran volumen de datos que contienen los estados financieros, y esto ayuda al analista a plantearse la pregunta correcta aunque rara vez le ayuden a solucionar el problema. Así lo reconoce también Bernstein (1999: p. 656) al señalar que las investigaciones empíricas sobre ratios, si bien señalan su significativo potencial como predictores de quiebra, no dejan de indicar que dichos ratios son herramientas y conceptos del análisis financiero en una fase inicial de desarrollo. Como hemos visto en los antecedentes históricos, los estudios realizados con ratios financieros para medir la solvencia y evitar el fracaso empresarial se han enfocado en la comparación entre empresas en quiebra y empresas que no han quebrado. Como consecuencia esto ha permitido a algunos investigadores obtener pruebas de que las empresas que no quebraron presentaban ratios de tesorería "más firmes" con respecto de aquellas que sí quebraron, aunque aún no se ha demostrado de manera concluyente la capacidad de los ratios por sí solos para la predicción de una quiebra. El incluir ratios en los primeros estudios predictivos tuvo como uno de los objetivos principales, investigar en qué medida éstos representaban herramientas valiosas y adicionales para el análisis de la solvencia a largo plazo para la posible predicción de una quiebra, y no sólo de la liquidez crediticia, como se venía haciendo anteriormente. Dentro del nuevo planteamiento metodológico multivariable, en general el investigador ha basado la selección de sus variables explicativas o independientes (ratios) en una hipótesis de partida que contenga un fundamento teórico sobre el proceso de fracaso, o bien, que le permita al menos una interpretación lógica de los resultados para mejorar la comprensión de las causas de dicho proceso (Lizarraga:1996, p.101). El método de ratios precisamente persigue el acercamiento entre los hechos económicos o de los datos cuantificados relativos a una situación, con la actividad o rendimiento de la empresa para deducir las relaciones más características y evitar en lo posible la complejidad de otros modelos en un análisis previo o primario, aunque sin olvidar tampoco las insuficiencias y debilidades que le son propias. ___________________________________________Capítulo 6: Las Variables Independientes 197 Como hemos señalado antes, ningún ratio hay que considerarlo aisladamente porque no son significativos por sí solos, pues todos ellos deben ser comparados con un patrón para determinar si su nivel es satisfactorio o no. Para obtener dicho patrón es necesario seleccionar primero a los ratios y definir cuales serán sus objetivos (Westwick: 1987). Posteriormente es muy importante interpretar cada ratio comparándolo con: 1. Ratios anteriores de la misma empresa. 2. Algún estándar establecido. 3. Ratios de otras compañías del mismo o similar sector. El ratio en general había sido considerado como una herramienta de análisis histórico y actual de la empresa. Sin embargo, a partir de hace tres décadas también se ha orientado al futuro como una herramienta proyectiva, considerando elementos claves como las condiciones económicas generales, la situación del sector, las políticas de la dirección y los principios de contabilidad que lo guían, entre otros. Una de las últimas propuestas más importantes para las que se utilizan los ratios es la de servir como una base de datos aún más sintética que los estados financieros, reduciendo su redundancia y multicolinealidad a través de métodos estadísticos para llevar a cabo predicciones. Sin embargo, es importante considerar que los estados financieros, cuya característica básica es el devengo, representan el primer punto de partida para calcular cualquier medida o ratio. Por eso ciertos ratios requieren posteriormente ajustes más analíticos, pues no todos los componentes son fiables o están incluidos en los estados financieros. Otro aspecto importante a tomar en cuenta es que dentro del ratio, el numerador o el denominador pueden presentar signos negativos. Esto da origen a una interpretación engañosa sobre el coeficiente. Por eso se recomienda analizar sobre todo el signo del numerador, pues cuando presenta un signo negativo el análisis se vuelve más complejo. Con respecto a la clasificación de los ratios por factores o categorías, García-Ayuso (1996) opina que muchas de ellas se hacen “a priori” y sin ningún fundamento empírico. Esta situación ha dado como resultado únicamente coherencia en términos conceptuales en la totalidad de los ratios. Además, en este tipo de clasificaciones muchas veces influye más el amplio reconocimiento que se presta a ciertos autores que las han propuesto y esto lleva a que aquellas clasificaciones más tradicionales ya no sean cuestionadas, situación que si se lleva a cabo con el análisis factorial. También existen estudios empíricos que aplicando técnicas estadísticas multivariables buscan obtener clasificaciones que determinen que ratios presentan un comportamiento análogo y aportan un contenido informativo similar sin más trascendencia conceptual o de medición, o bien, otros ratios que siendo efectivamente diferentes sirvan para medir variables importantes que afectan a la empresa. Uno de los principales objetivos de los trabajos de García-Ayuso ha sido presentar una comparación entre clasificaciones a priori propuestas en la literatura contable y las clasificaciones obtenidas de investigaciones empíricas como resultado de la explicación de técnicas del análisis factorial Un problema importante que se tiene que solucionar a la hora de seleccionar cada ratio y clasificarlo, consiste en saber con certeza que se desea medir y que nombre darle a la magnitud medida. También es interesante tener en cuenta en las investigaciones empíricas, que existen dos tipos de ratios que son los teóricos y los empíricos. Los ratios teóricos están seleccionados con base a su popularidad en la literatura, en cambio los ratios empíricos son aquellos que se seleccionan de acuerdo a los resultados que han dado a través de procesos de correlación con ciertos factores. ___________________________________________Capítulo 6: Las Variables Independientes 198 Con respecto a los problemas para la reducción de los ratios en las investigaciones empíricas, Bukovinsky (1993) opina que la utilización de numerosas variables independientes o ratios origina tres problemas significativos que son: 1. La falta de una teoría sólida para guiarse. Esto puede dar como resultado una colección fortuita de variables independientes al ser seleccionadas por su popularidad o por la intuición del investigador. Esto puede traer consigo el incluir dos o más ratios que midan esencialmente los mismos componentes del balance general o el estado de resultados. 2. Como el conjunto de variables está compuesto por un número determinado de medidas contables. Aquí la multicolinealidad puede llegar a ser un problema potencial. Esto es común en el caso de las variables independientes que están representadas por ratios, pues muchas de estas pueden incluir las mismas medidas contables. 3. La inclusión de muchas variables puede resultar en violaciones a los supuestos de las técnicas del análisis estadístico. Pues existe la posibilidad de crear resultados de difícil interpretación. Con respecto a la selección de los factores, a partir de los trabajos de Lev (1974) numerosos autores citan cuatro categorías de ratios propuestas por él y son: la rentabilidad, la eficiencia, la solvencia y la liquidez. Sin embargo, Rees (1991) utiliza el término productividad para designar a los ratios incluidos por Lev como de eficiencia y además propone un factor más que denomina de apalancamiento. Por otra parte, Weston y Brigham (1965) propusieron otros dos grupos de factores que son los ratios de mercados de capitales y ratios de crecimiento. Bernstein (1999) ha clasificado a los ratios en las siguientes seis grupos, dentro de las cuales cita un variado y completo conjunto de ratios que miden a la empresa y están sobre todo basados en una teoría contable y financiera muy cercana a la realidad empresarial y son: AREA FUNCIONAL Beneficios (proyección y evaluación) Retorno de la inversión Utilización del activo Resultados de operaciones (con especial atención a los ingresos) Resultados de operaciones (desde la perspectiva de los costes) Liquidez Flujos de fondos Solvencia a largo plazo Estructura de capital FACTOR Rentabilidad Rentabilidad Rentabilidad Rentabilidad Rentabilidad Liquidez Cash flow Solvencia Solvencia El estudio de Courtis (1978) resulta interesante, pues propone un marco categórico para la clasificación de los ratios financieros a través de intentar primero conformar una teoría general del análisis financiero mediante ratios. Para ello trata de explicar como deben ser utilizados los ratios con el objetivo de definir las principales características de la empresa, las cuales resume en tres variables importantes que afectan a la situación financiera y son: la rentabilidad, la solvencia y el funcionamiento de gestión. A su vez, para la rentabilidad incluye tres subgrupos de ratios que son: a) Retorno de la inversión (Beneficio Neto / Recursos Propios o Beneficio neto / Activo total); b) Margen de Beneficio (Beneficio antes Impuestos e Intereses / Ventas Netas); c) Rotación del Capital (Ventas Netas / Activo Total, Ventas Netas / Recursos Propios o Ventas Netas / Activo Fijo). Siguiendo con Courtis, la rotación del capital equivale a la descomposición factorial de la rentabilidad económica en dos ratios que son: el ratio de margen sobre ventas y el margen de rotación que propuso la multinacional Du Pont como instrumento para la gestión de la empresa. Respecto a los ratios de solvencia, los dividió en dos categorías que fueron: ___________________________________________Capítulo 6: Las Variables Independientes 199 Liquidez a corto plazo: • • • • • • • • Tesorería / Activo Circulante Tesorería / Pasivo Circulante Activo Circulante / Pasivo Circulante Capital Circulante / Activo Total Cuentas por Cobrar / Activos Total Tesorería + Cuentas por Cobrar / Pasivo Circulante Beneficios antes de Intereses e Impuestos / Activo Fijo Pasivo Total / Activo Total Solvencia a largo plazo: Otros trabajos también importantes son los de Lo (1986) y Zavgren (1985), este último seleccionó como factores a la rentabilidad, la eficiencia, el apalancamiento, la liquidez y el cash flow. En el caso de Altman (1968), tres de las cinco variables independientes de su función lineal midieron a la rentabilidad, otra a liquidez y una al factor solvencia. Para Fitzpatrick (1932) los factores más importantes fueron la rentabilidad y el endeudamiento; en el caso de Winakor y Smith (1935) consideraron a la liquidez (capital circulante / activo total). Mervin (1942) seleccionó a la solvencia y la liquidez; Beaver (1966) a la rentabilidad, endeudamiento, liquidez y el cash flow tradicional. Estudios más rigurosos sobre los factores, como el de Taffler (1984), consideraron a la rentabilidad, la eficiencia, el endeudamiento y la liquidez. En conclusión, a través de una retrospectiva histórica, podemos ver que los factores que han sido más utilizados en los principales trabajos y que tienen actualmente un sólido fundamento teórico son los siguientes siete: la rentabilidad, la productividad, la eficiencia, la liquidez, el cash flow, la solvencia y el endeudamiento. 6.2. SIGNIFICACION Y LECTURA DE LOS RATIOS. Para este trabajo se utilizará una combinación de ratios simples y ratios estándar. Como ya apuntamos anteriormente: los ratios simples son aquellas relaciones de dependencia que se obtiene al comparar las cifras de dos o más conceptos de la base de datos de estados financieros. Ahora bien, partiendo de que en el ratio intervienen dos elementos (el antecedente y el consecuente), a través de los ratios simples geométricos sólo adquirirán real significado las relaciones de dependencia y no los valores absolutos de los diferentes estados financieros. Por otra parte, tanto estados financieros estáticos como dinámicos, podemos analizar a los ratios simples desde tres enfoques: a) Por la naturaleza de las cifras: Aquí se incluyen a los ratios estáticos, que es cuando el antecedente y el consecuente proceden del balance general; ratios de flujos, cuando el antecedente y el consecuente proceden del estado de resultados y del estado de cambios en la posición financiera; y por último, la combinación de ratios estáticos y de flujos. b) Por su significado o lectura: Los ratios los podemos interpretar en términos financieros, de rotación y cronológicos. c) Por su aplicación u objetivos: Esto se refiere al tipo de factor que se quiere medir (rentabilidad, liquidez, etc.). Con respecto a los ratios estándar, en la parte empírica de este trabajo, se determinaran las diferentes relaciones de interdependencia del promedio de conceptos y cifras obtenidas en la base de datos, con el fin de obtener cifras medias representativas. Es decir, el ratio estándar equivale al promedio de la serie de cifras o ratios simples de una misma empresa durante varios períodos, o bien, el promedio de ratios simples durante el mismo período pero de las distintas empresas dedicadas a similares actividades. ___________________________________________Capítulo 6: Las Variables Independientes 200 Con lo anterior obtendremos una serie de ratios estándar internos y externos, los cuales como apunta Zavgren (1985), tienen que tener una contribución relativa importante que se denomina “significancia estadística” dentro de las funciones discriminantes o análisis factorial, para llegar a través de los resultados a una interpretación correcta en términos financieros y económicos. Según este mismo autor, esto constituye un requisito básico para proponer las relaciones financieras que posteriormente se incorporarán a la teoría general del fracaso. 6.2.1. VALOR CONTABLE Y VALOR DE MERCADO. Con respecto a los valores utilizados dentro de los ratios simples y estándar, sabemos que toda empresa tiene dos tipos de valores: valor contable y valor de mercado. El primero es el coste histórico menos las depreciaciones y amortizaciones y así se establece que se tienen que elaborar los estados financieros. En cuanto al valor de mercado, éste es el precio en que se adquiere el activo o pasivo en el mercado. El valor contable puede ser inferior o superior al valor de mercado y pocas veces coinciden. La diferencia entre estos dos tipos de valores varía dependiendo del tipo de activo o pasivo. En el caso de la tesorería la diferencia es cero. Sin embargo, en el caso de los activos fijos la diferencia siempre tiende a ampliarse. Para los pasivos se establece la cantidad que se ha prometido pagar. En la medida en que la empresa sea o no solvente, el pasivo tendrá un valor contable mayor o menor respecto al valor de mercado, por ejemplo, la deuda a corto plazo de una empresa insolvente (en sus pasivos de pagos) tiene un valor contable mayor a su valor de mercado. También podemos decir que el valor de mercado de un pasivo a largo plazo puede ser superior o inferior al valor contable. Respecto al capital social, las diferencias entre ambos valores aún pueden ser mayores respecto a las que existen entre el activo y pasivo. Por ejemplo, el valor contable del capital mide la tesorería que los accionistas han aportado en el pasado (t-1) más la tesorería que la empresa ha retenido y reinvertido en el negocio (t0 + t 1..+ t n). Esto por lo regular se parece poco al valor total de mercado que los inversores asignan a sus acciones. Según Brealey, Myers y Marcus (1998: p.32), lo más importante del capital social es su valor de mercado y no su valor contable, pues el primer tipo de valor es el precio en que el accionista puede vender sus acciones. En diversas operaciones financieras, las empresas han intentado expresar el balance en valores de mercado y no contables, es decir, el contable excluye los valores históricos y sus amortizaciones. Entonces la diferencia existente entre el activo y el pasivo (a valor de mercado) es igual al valor de mercado de los derechos de capital de los accionistas. Así, el precio de las acciones es simplemente el valor de mercado de los accionistas dividido por el número de acciones en el mercado. En cuanto a que valores se utilizaran en este estudio, principalmente por las limitaciones que nos impone este estudio, utilizaremos básicamente valores contables reexpresados, lo cual da mayor validez a las cifras, pues se reconocen los resultados por posesión monetaria y los resultados por tenencia de activos fijos. Esto en parte compensa la omisión de utilizar valores de liquidación o valores de mercado. Sin embargo, en una etapa posterior que parte de este trabajo, el patrón a seguir para ampliar el análisis del sector al que pertenecen las empresas muestreadas, se utilizarán para la selección de los factores y cada uno de los ratios utilizados en esta investigación, la metodología que resumimos en el cuadro 6.1. ___________________________________________Capítulo 6: Las Variables Independientes 201 CUADRO No. 6.1. ALGUNOS ASPECTOS IMPORTANTES PARA UNA MEJOR INTERPRETACION DE LOS RATIOS ELEMENTOS CONCEPTO En ocasiones un mismo ratio presenta diversos nombres. En este caso se incluyen los más populares para evitar confusiones. La fórmula nos indica si el ratio presenta magnitudes iguales o no, aunque el nombre varíe. Cada ratio también especificará cada uno de los componentes y las partidas que lo integran. NOMBRE DEL RATIO FORMULA GRUPO O FACTOR DE CLASIFICACIÓN DEL RATIO El factor de clasificación de los ratios se ha estructurado de acuerdo al análisis teórico, la revisión de los antecedentes históricos, la popularidad del ratio en la literatura especializada y sus resultados positivos en previos estudios empíricos de investigación financiera y contable. SU SIGNIFICADO. El significado del ratio se explica de acuerdo a un marco teórico definido y sustentado sobre todo en conceptos contables y de análisis financiero. SU APLICACIÓN Y LECTURA La aplicación de algunos ratios no presenta mayor problema, pues existe un criterio pragmático generalizado en cuanto a su utilización, medición, lectura e interpretación para la toma de decisiones. Sin embargo, no es así en el caso de otros ratios, en donde el problema de su aplicación comienza con la integración de sus componentes, ya sea en su numerador, en el denominador o en ambos. Un ejemplo típico se presenta en el ratio de endeudamiento. Aquí se puede interpretar este ratio desde el marco conceptual del apalancamiento financiero o desde el marco conceptual del control de la empresa. VALORES UTILIZADOS Los valores utilizados se refieren a que estos pueden ser valores contables, valores de mercado, valores de liquidación, o bien, la combinación de todos estos dentro del mismo ratio. SU EXPRESIÓN La expresión del ratio se puede llevar a cabo de tres maneras: a) en términos financieros (se utilizan números en valores absolutos o relativos); b) en términos de rotación (se basan en el número de veces de un evento o actividad económica); y c) en términos cronológicos (se obtienen indicadores en horas, días, meses o cualquier otra unidad de tiempo). CLASIFICACION DE LOS RATIOS EN FACTORES NOMBRE VALORES UTILIZADOS VALOR CONTABLE VALOR DE MERCADO TIPO DE EXPRESION TÉRMINOS FINANCIEROS TÉRMINOS DE ROTACION TÉRMINOS CRONOLOGICO S 1. RATIOS DE RENTABILIDAD. 2. RATIOS DE PRODUCTIVIDAD 3. RATIOS DE EFICIENCIA. 4. RATIOS DE LIQUIDEZ 5. RATIOS DE CASH FLOW 6. RATIOS DE SOLVENCIA 7. RATIOS DE ENDEUDAMIENTO Fuente: Elaboración propia X X X X X X X X X X X X X X X X X X X X X X X X X X ___________________________________________Capítulo 6: Las Variables Independientes 202 6.3. FACTOR Y RATIOS DE RENTABILIDAD. La rentabilidad es la relación que existe entre el beneficio y el capital invertido. Es decir, es una tasa que nos indica el grado de eficiencia en la utilización de los recursos que hace una empresa en un período de tiempo dado. El beneficio, primer componente de la tasa de rentabilidad, lo entiende Vergés (1997) como una “cifra-resumen” que depende de los valores que hayan tomado un cierto número de variables durante un período. Pero también para él esta cifra tiene en sí un significado propio y directo, e incluso es considerada como la variable con mayor entidad y relevancia para evaluar sintéticamente el funcionamiento económico y financiero de la empresa, es decir, el concepto más aceptado del éxito empresarial. Con respecto al Capital Invertido, segundo componente de la rentabilidad, este mismo autor considera que éste tiene que estar integrado por: los recursos propios más los recursos ajenos menos los intereses efectivamente pagados por su utilización durante un período de tiempo, y cuyo fin es producir bienes o servicios para su comercialización. Para Brealey y Myers (1999) la tasa de rentabilidad es la recuperación que el inversor exige por la aceptación de un pago aplazado. Esta retribución que se obtiene al utilizar un bien financiero o económico en una actividad productiva específica, y no en otras actividades productivas, durante un tiempo determinado (coste de oportunidad del capital o tasa mínima), se trata siempre de maximizar por parte del inversionista. Según Bernstein (1999: p.662), el ratio del rendimiento sobre la inversión es una medida fundamental de rentabilidad económica y está compuesta entre la relación del beneficio y el tamaño del capital para generarlo. Para él, este ratio es el más importante para medir los resultados, pues considera que la rentabilidad económica es la primera y principal finalidad de la empresa e incluso constituye la razón de su existencia. Volviendo con los estudios sobre la rentabilidad llevados a cabo por Vergés (1997), encontramos que este autor menciona además de la tasa de rentabilidad, a otros conceptos también más analíticos relacionados con esta variable, como por ejemplo los dos siguientes criterios para determinar la rentabilidad de la inversión total: a ) Beneficios netos después de intereses, antes de impuestos. b) Beneficios netos después de intereses e impuestos. Además, existen otras importantes combinaciones del numerador que podemos sintetizar en forma de estado de resultados (Ver Cuadro 6.2.). ___________________________________________Capítulo 6: Las Variables Independientes 203 CUADRO 6.2. ESTADO DE RESULTADOS Ingresos Menos Coste de Ventas Menos Gastos de Operación: Gastos de venta Gastos de Administración Más o menos Otros ingresos y gastos extraordinarios* Menos Gastos Financieros: Intereses O menos Impuestos Y/O Menos Intereses e Impuestos TIPO DE BENEFICIO TIPO DE TASA DE RENTABILIDAD RATIO = Beneficio Bruto R1 del modelo Beneficio Normal de la Explotación Rentabilidad Bruta = No existe ratio = = R2 del modelo Beneficio Extraordinario de la Explotación R3 del modelo Beneficio de la Empresa R4 del modelo Beneficio de la Empresa R5 del modelo Beneficio Neto = = Rentabilidad de la Explotación o Económica Rentabilidad de la Explotación o Económica Rentabilidad de la Empresa 1º Criterio Rentabilidad de la Empresa 2º Criterio Rentabilidad Financiera = Beneficio neto antes de intereses e impuestos / media de activos totales Beneficio neto antes de intereses e = impuestos / activo fijo Beneficio neto después de intereses antes impuestos / capital contable = = Beneficio neto después de impuestos antes intereses / capital contable = Beneficio neto después de intereses e impuestos / capital contable = *Resultados atípicos o ajenos a la explotación. **Siempre que hablemos sólo de beneficios netos es porque nos referimos al concepto de beneficio contable . FUENTE: Elaboración Propia. 6.3.1. EFECTIVIDAD Y DIVERSOS CRITERIOS DE LA TASA DE RENTABILIDAD. Actualmente se utilizan una diversidad de magnitudes importantes derivadas de la rentabilidad sobre la inversión como son: la rentabilidad bruta, la rentabilidad de la explotación o económica (normal y extraordinaria), la rentabilidad de la empresa, la rentabilidad financiera, la rentabilidad sobre la inversión en activos o la rentabilidad sobre los capitales o recursos propios. Todos estos conceptos los analizaremos más adelante basados en las diversas formas en que se ha interpretado la tasa de rentabilidad, poniendo especial atención a los criterios desarrollados por Vergés (1997) y los que se utilizan en el Modelo E. I. Du Pont de Nemours, el cual es de amplía aceptación y consiste en el cálculo del rendimiento sobre la inversión considerando la inclusión del activo fijo a su importe bruto como denominador del ratio.1 El ratio del rendimiento sobre la inversión no es una medida totalmente fiable para un proveedor de capital ajeno o capital propio. Sin embargo, autores como Bernstein (1999) opinan que sirve como herramienta en un modelo de análisis financiero de tres formas: 1. Como indicador para evaluar a largo plazo la efectividad y calidad de la dirección. 2. Es uno de los indicadores más confiables para medir la salud y potencial financiero de la empresa a largo plazo (considerando elementos del balance y las cifras resumen del estado de resultados). 3. Es un método de proyección de beneficios que opera de dos formas: a) cuando se relacionan los beneficios estimados entre el capital real total invertido; y b) cuando las tasas históricas e 1 En 1966, la dirección de la empresa química Du Pont fue pionera en el uso del ratio del Rendimiento sobre la Inversión al utilizarlo como herramienta de gestión interna para la evaluación de sus resultados de explotación. Según este criterio, el cálculo del rendimiento sobre la inversión se debe basar en los beneficios netos antes de amortización sobre la inversión bruta de explotación, es decir, el activo fijo bruto. ___________________________________________Capítulo 6: Las Variables Independientes 204 incrementales de rentabilidad se ajustan por los cambios previstos, tanto en el numerador como en el denominador. En los dos últimos casos, el rendimiento sobre la inversión representa un método de proyección de beneficios que se puede comparar con las estimaciones de otros métodos de proyección como por ejemplo el VAN o la TIR. Aquí, la tasa de rentabilidad como método de proyección enlaza una cifra estimada (beneficios proyectados) con una cifra real (capital invertido). Esta última cifra, que funciona como denominador, se basa en tasas históricas e incrementales del rendimiento, obtenidas y ajustadas posteriormente para los cambios previstos. Los ratios de rentabilidad también permiten llevar a cabo comparaciones sobre los usos alternativos del capital y el rendimiento obtenido por empresas con grados similares de riesgo y tamaño, bajo el principio financiero que establece que las inversiones con mayor riesgo tiene que obtener los rendimientos más altos. Para la efectiva lectura de la tasa de rentabilidad se parte de tres distintos criterios que son: a) las variaciones en los beneficios; b) las variaciones en las ventas; y c) las variaciones en las distintas medidas de la producción. Para analizar los incrementos en los beneficios se debe considerar la relación que guardan con el capital que se invirtió para obtenerlos. Por eso los incrementos en las ventas y en la producción son positivos siempre y cuando se obtengan incrementos en los beneficios. Con respecto a la producción, se considera que existe productividad cuando con un mismo nivel de inputs se logra obtener más outputs, o bien, si con menor nivel de inputs se logra obtener la misma cantidad de outputs. Aparte de servir para la evaluación del beneficio, otro elemento importante que se considera para la obtención de efectividad a través de la tasa de rentabilidad, es observar si su lectura proporciona también la suficiente información sobre el nivel y la calidad de los beneficios. Para esto es importante seleccionar adecuadamente aquellas cuentas de resultados que puedan emplearse de forma fiable para el ajuste del ratio. Si se logra llevar a cabo esta difícil tarea, dicha efectividad garantizará sólidas previsiones de beneficios e indicadores sobre su capacidad de generación, así como los grados de estabilidad en las tendencias de los ingresos y gastos. Además, nos indicará la capacidad de generación de los beneficios. No obstante y como se indicó anteriormente, estos elementos no son de fácil cálculo. Los problemas que se presentan en la búsqueda de “verdaderos beneficios” o “beneficios reales” son serios por la variedad de “beneficios netos aceptables” y la ausencia de “un único resultado verdadero” (Bernstein 1999: p. 696). Esto lo sabemos porque la contabilidad no puede identificar o medir exactamente al beneficio neto, ya que éste no es un flujo específico cuantificable. Además, obedece también al hecho de que el beneficio depende de estimaciones en el presente y en el futuro sobre los ingresos y gastos, lo cual provoca variaciones en los márgenes. De ahí que afirmemos que la sola expresión de la relación entre los beneficios y las inversiones, sin sus correspondientes ajustes analíticos, nunca proporcionará una magnitud útil o significativa para el análisis financiero. La tasa de rentabilidad o rentabilidad financiera, tan importante y cuyo concepto básico parte de una sencilla relación entre el beneficio y la inversión, tiene una complejidad mayor en sus dos componentes cuando los incluimos en un análisis financiero con bases de datos contables detalladas, y por lo tanto más potentes2. 2 Cada uno de los componentes de la tasa de rentabilidad son de una complejidad significativa que requieren ajustes. Esto se debe a que la contabilidad no puede integrar o sintetizar sus componentes en determinadas partidas de los estados financieros de forma sencilla y clara. ___________________________________________Capítulo 6: Las Variables Independientes 205 Antes de pasar a la descripción de los ratios que se derivan a partir de su concepto general, que hemos denominado en este trabajo: “factor de rentabilidad”, debemos considerar que existen diversas definiciones sobre el beneficio y la inversión, y algunas de éstas llegan a ser muy diferentes entre sí, pues tienen diferentes objetivos. Esto nos puede llevar a considerar diferentes versiones del ratio de rentabilidad que se derivan de los cálculos respectivos y cuyas variaciones pueden llegar a representar posteriormente evidencia empírica. 6.3.2. RENTABILIDAD DE LA EXPLOTACION (Ratios 1 y 2 del modelo). La primera magnitud sobre la rentabilidad es una cantidad absoluta que se denomina Rentabilidad o Beneficio Bruto (ingresos totales menos coste de ventas). Posteriormente, la rentabilidad de la explotación resulta de deducir al beneficio bruto, los gastos de operación (de ventas y administrativos). Esto nos da como resultado el primer criterio denominado: rentabilidad de la explotación. Si a este tipo de rentabilidad sumamos o restamos, según sea el caso, los resultados extraordinarios y los resultados ajenos a la explotación normal de la empresa, obtendremos un segundo criterio denominado: rentabilidad de la explotación total de la empresa. Para Vergés (1997) la rentabilidad de la explotación tiene un sentido técnico- económico de actividad principal, básica o propia de la empresa, y su diferencia con respecto a la rentabilidad de la empresa (cuyo sentido es jurídico) está marcada por la magnitud de aquellas actividades extraordinarias o ajenas al giro principal de la empresa y de sus correspondientes inversiones en activos que se destinaron para ésta. Sin embargo, cuando esas actividades e inversiones se vuelven cíclicas y continuas, entonces se debe de reconsiderar su carácter extraordinario. Esto es importante porque si la rentabilidad en actividades extraordinarias a la explotación supera a la rentabilidad normal de la explotación, la tasa de rentabilidad de la empresa mejora con respecto a las dos tasas de explotación (la marginal y la total). Es común que se considere a la rentabilidad de la explotación normal como la magnitud más representativa de la rentabilidad económica, pues esta tasa no incluye: resultados extraordinarios, activos ajenos a la marcha ordinaria del negocio o importes por concepto de ingresos financieros. Este último componente, que forma parte de la rentabilidad financiera, funciona por lo regular de forma secundaria como condicionante de la rentabilidad final. Además, se puede ver que de los dos criterios para la determinación del beneficio de la explotación, prevalece el de la rentabilidad normal de la explotación, pues esta magnitud no está influida por la política financiera ni por otros resultados extraordinarios que distorsiona significativamente al ratio. CUADRO 6.3. RENTABILIDAD DE LA EXPLOTACION Beneficio de explotación Recursos Totales de Explotación Beneficio de explotación Recursos Totales de Explotación Beneficio de Explotación antes de Beneficios o Perdidas Extraordinarias de Explotación Promedio Anual de los Activos Totales (Recursos Totales de la Explotación) o media de los Recursos Propios de Explotación* Beneficio de Explotación más Beneficios o Perdidas Extraordinarias de la ExplotaciónResultados Ajenos a la Explotación Activos Totales - Inversiones Ajenas a la Explotación (otros activos financieros y cargos diferidos) 1º Criterio: Normal (R1 del modelo) 2º Criterio: Extraordinario (R2 del modelo) *En este caso se deducen los gastos financieros ___________________________________________Capítulo 6: Las Variables Independientes 206 6.3.3. RENTABILIDAD DE LA EMPRESA (Ratios 4 y 5 del modelo). El cálculo para estimar la rentabilidad de la empresa se obtiene sumando o restando, según sea el caso, al beneficio normal de explotación, el resultado extraordinario de la explotación. Pero además, se deducen los intereses (1º criterio) o los impuestos (2º criterio). Aunque esta magnitud no es de uso común, a través del cálculo de diferentes criterios de rentabilidad, y donde el numerador está representado por el beneficio de la empresa, es posible sustituirlo por otras magnitudes más innovadoras como por ejemplo, el cash flow tradicional de la empresa (beneficios netos + amortizaciones). Esto consiste en sumar al numerador todos los gastos de amortización del período. A esta magnitud se le conoce como: tasa de rentabilidad bruta o tasa de rentabilidad financiera de la inversión total. CUADRO 6.4. Numerador: 1º Criterio Denominador: 2º Criterio Beneficio + Intereses – Impuestos Activo Total Capital Contable + Exigible Financiero (pasivo a corto y largo plazo donde se pagan intereses Siguiendo este criterio, Vergés nos dice que cuando una empresa está autofinanciada y sólo tiene exigible comercial proveniente principalmente de los proveedores, la rentabilidad de la empresa coincide con la rentabilidad de los recursos propios. Esto se debe a que en ciertos países, el pasivo comercial (pasivo a corto plazo) no genera intereses durante el período de contratación, que normalmente va de los treinta hasta los noventa días. En cambio, el exigible o pasivo financiero, que normalmente no incluye a proveedores, siempre genera intereses independientemente del período que comprenda la liquidación del principal y el coste de financiación. La anterior situación puede llevar a que se prescinda de la práctica clásica de clasificar a los pasivos como circulantes o fijos (largo plazo), y en cambio, se sustituyan por los conceptos de exigible comercial y exigible financiero. Según este último criterio, si se utilizan los recursos financieros ajenos, entonces surge una diferencia entre la rentabilidad de la empresa y la rentabilidad de los capitales propios. Esto se da porque los costes financieros de los créditos contratados al ser inferiores a la rentabilidad real obtenida por la empresa, originan un aumento en la tasa de rendimiento obtenida sobre la inversión propia ya que existe un apalancamiento financiero. Por otra parte, si la rentabilidad de la empresa es mayor al coste de financiación ajeno, la mejora de esa rentabilidad sobre los recursos propios dependerá de la diferencia y de la importancia relativa de la financiación ajena. Aunque lo anterior es muy común en economías industrializadas y con variables macroeconómicas sanas y estables, no hay que olvidar que su contexto se inscribe sólo en economías donde el pasivo comercial no genera intereses durante el período de contratación, ya que la existencia del componente exigible comercial no opera de igual forma en todas las economías, pues en ciertos casos, tanto el exigible comercial como el exigible financiero sí generan intereses normalmente a partir de transcurridos treinta días de contratado el pasivo. La rentabilidad de los recursos propios depende de forma inmediata de tres factores que son: a) la rentabilidad de la empresa como unidad de producción; b) el coste de capital ajeno; y ; c) de la importancia relativa del coste ajeno con respecto a los recursos propios. ___________________________________________Capítulo 6: Las Variables Independientes 207 6.3.4. RENTABILIDAD FINANCIERA (Ratio 6 del modelo). Un elemento común en todas las versiones de la tasa de rentabilidad o rentabilidad financiera que es importante considerar es que la base del numerador siempre se define con relación a como se definió la base del denominador. Por ejemplo, cuando se utiliza al activo total como base de inversión, entonces se considera normalmente al beneficio antes del pago de dividendos e intereses efectivamente pagados. Por lo general, los denominadores que proporcionan las magnitudes más significativas para la tasa de rentabilidad o rentabilidad financiera se resumen en tres: a) la base del activo total; b) la base del pasivo a largo plazo más el capital propio; y c) la base del capital propio. Sin embargo, también existen otros tipos de bases en el denominador con diferentes criterios en el numerador. Esto provoca que se de una extensa gama de posibilidades y magnitudes para medir la rentabilidad, aunque no todas sirven para el análisis financiero. CUADRO 6.5. RATIO DE RENTABILIDAD* RATIO DEL RENDIMIENTO SOBRE LA INVERSIÓN, TASA DE RENTABILIDAD O RENTABILIDAD FINANCIERA • Este ratio tiene tres tipos de enfoques que son: el histórico, el actual y el proyectivo. Beneficio Neto Activo Total. RENTABILIDAD FINANCIERA: SUS RATIOS Y DENOMINADORES 1. 2. 3. 4. 5. 6. Tasa de Rentabilidad cuya base de inversión es el Activo Total Tasa de Rentabilidad cuya base de inversión es el Activo Amortizable Tasa de Rentabilidad cuya base de inversión es el Activo Ajustado por su Improductividad Tasa de Rentabilidad cuya base de inversión son los Recursos Permanentes (Pasivo a Largo Plazo + Capital Contable) Tasa de Rentabilidad cuya base de inversión es el Capital Contable Tasa de Rentabilidad cuya base de inversión son los valores contables y los valores de mercado del activo y el pasivo más el capital contable Tasa de Rentabilidad cuya base de inversión es el empresario (valor de mercado de las acciones) y la empresa (promedios anuales o trimestrales) 7. Fuente:Elaboración Propia Cuando al beneficio de la empresa le deducimos los intereses e impuestos, obtenemos el beneficio neto financiero global. En realidad ésta es la única cifra que se puede reinvertir para maximizar el valor de la empresa una vez repartidos los dividendos preferentes o para decretar un pago total de dividendos al capital ordinario y al preferente. Algunos autores consideran que debería incluirse a los impuestos como un componente del estado de resultados, pues no forma parte del cálculo para determinar la tasa de rentabilidad financiera, ya que la tasa fija impositiva no se puede eludir, y por lo tanto, no es un elemento que deba evaluar la actuación de la dirección. Sin embargo, los que apoyan su inclusión opinan que sí debe considerarse a los impuestos en el cálculo de dicha rentabilidad, pues dada la complejidad y en ocasiones deficiencia del sistema tributario, siempre es posible encontrar formas legales de reducir la carga de la tasa impositiva y maximizar aún más la rentabilidad. ___________________________________________Capítulo 6: Las Variables Independientes 208 6.3.5. OTROS TIPOS DE BASE PARA LA TASA DE RENTABILIDAD (Ratios 3, 8, 9, 10, 12 del modelo). Rentabilidad cuya base de inversión es el activo ajustado por su improductividad (R3 del modelo): (beneficio antes de intereses e impuestos / activo total – cargos diferidos). Para este criterio se selecciona como numerador a los beneficios antes de intereses e impuestos y como denominador al activo total ajustado por la improductividad de la capacidad de producción o partidas productivas no utilizadas, excluyéndose todas aquellas de tipo financiero (activo circulante excepto inventarios). Esta versión del ratio se utiliza sobre todo para una evaluación por áreas de responsabilidad o por objetivos. Sin embargo, para una evaluación general de la empresa no resulta práctico. Algunos analistas también suelen excluir el inmovilizado inmaterial de la base de inversión por la dificultad para determinar contablemente su cálculo, ya que para diversos tipos de activos diferidos existen serias dudas sobre su valor. Además, ciertos principios contables aún no tienen un alcance importante para garantizar la confiabilidad de su registro. Rentabilidad cuya base de inversión es el activo amortizable: activo fijo material e inmaterial( R8 del modelo): Beneficio neto después de intereses e impuestos / activo fijo. Hasta la fecha continúa el desacuerdo sobre si los activos amortizables deben ser incluidos en el denominador de la tasa de rentabilidad a su coste histórico o a su coste neto. En el caso de la rentabilidad cuya base de inversión es el activo amortizable, se deduce del coste histórico total el importe de la cuenta complementaria de amortización y depreciación acumulada que se presenta en el balance general, y la cual se ha ido integrando con aquellas partidas anuales cuyas contracuentas aparecen en el estado de resultados. Además se elimina el activo circulante. Como se indica más adelante, el modelo Du Pont está en contra de este propuesta, pues considera que existen diversos criterios para el cálculo de las amortizaciones que afectan directamente a la tasa de rentabilidad. Por lo tanto, en este caso lo importante es reflejar el capital invertido, lo que exige tener en cuenta el incremento financiero de las amortizaciones. Tasa de rentabilidad cuya base de inversión es el capital contable (R9 del modelo): beneficio neto después de intereses e impuestos / capital contable. Esta relación también es conocida como ratio de rentabilidad sobre los capitales o los recursos propios, y mide la rentabilidad que se acumula al capital propio. Por eso también es considerada una magnitud complementaria para el análisis de la estructura de capital o del apalancamiento financiero, el cual refleja el empleo de capital de deuda sobre el rendimiento de los accionistas. Este tipo de criterio se caracteriza principalmente porque en su cálculo existe una seria limitación para realizar comparaciones entre las empresas o sectores económicos. Esto se debe a que con esta base de rentabilidad en el denominador, influye significativamente la composición de las inversiones totales o estructura de financiación (autofinanciación y capital ajeno), el nivel de endeudamiento (apalancamiento financiero), así como, la estructura de financiación que utilizan cada una de las empresas y cuyas composiciones nunca son iguales. Para su cálculo se excluye de la base de inversión a todos los componentes de financiación ajena. Es decir, sólo se considera al capital social, las reservas y los beneficios acumulados que pueden estar representados con base en los siguientes dos criterios: a) únicamente por el promedio de las acciones ordinarias3, y b) por el promedio de las acciones ordinarias más el promedio de las acciones preferentes. Con respecto al numerador, aquí sí se incluyen los intereses e impuestos. Algunos analistas opinan que es importante excluir del denominador el importe de las acciones preferentes, pues 3 Los warrants o deuda capitalizable (convertir deuda mediante la amortización de la misma) se debe considerar como capital propio. Los warrants siempre se venden con una prima sustancial del valor nominal. ___________________________________________Capítulo 6: Las Variables Independientes 209 aunque forman parte del capital social, finalmente su dividendo fijo y acumulativo ejerce más la función de una obligación dentro de la empresa. La lectura de este ratio indica que una rentabilidad superior del capital propio con respecto al activo total, representa un funcionamiento positivo del apalancamiento financiero. Sin embargo, como apuntamos en el capitulo sobre reexpresión, es necesario considerar cual es el efecto inflacionario que existe durante el año. Cuando el denominador está compuesto sólo por el capital propio, se establece como numerador al beneficio neto después de excluir los intereses y dividendos de las acciones preferentes. Si se establece como numerador a los beneficios después de impuestos, es con el objetivo de eliminar los efectos del componente fiscal en los resultados de explotación. Aquí las variaciones en las tasas fiscales afectan directamente a la comparación de esta magnitud a lo largo de los años. Por ejemplo, cuando una empresa tiene pérdidas y éstas son compensables para futuros ejercicios, al deducir los impuestos del beneficio se presentan distorsiones en el rendimiento sobre la inversión. Pero si se quiere calcular la rentabilidad de los recursos propios entonces se toma como numerador al beneficio más intereses antes impuestos. De esta forma el ratio se expresa como sigue: Beneficio Neto después de Intereses e Impuestos – Dividendos Preferentes / Promedio de Capital en Acciones Ordinarias. Ahora, sí calculamos el rendimiento de los fondos propios totales (acciones ordinarias y acciones preferentes), entonces en el numerador no se deben deducir los dividendos preferentes del beneficio neto después de impuestos e intereses. En este caso el ratio se expresa así: Beneficio Neto después de Intereses e Impuestos / Promedio Total del Capital Contable. Rentabilidad cuya base de inversión es el pasivo fijo más el capital propio (R10 del modelo): beneficios netos después de intereses antes de impuestos / pasivo fijo + capital contable. A excepción del pasivo circulante que proviene de los proveedores, generalmente el pasivo y sobre todo el fijo o inmovilizado, componen el exigible financiero. Por otra parte, si el exigible comercial también genera intereses, eso no influye para que este tipo de denominador sea de los más importantes en la evaluación de la rentabilidad global de la empresa, ya que no toma en cuenta la composición de la estructura de financiación. Para esto se tienen que considerar en el numerador al beneficio neto más los intereses menos los impuestos. Si se considera para el numerador al beneficio neto antes de intereses, es debido a que en el denominador están integrados los capitales propios más los capitales ajenos. Sin embargo, si el análisis de la rentabilidad se orienta principalmente con fines de predicción para el éxito o fracaso empresarial, la tasa de rentabilidad cuya base de inversión es el capital propio, podría ser la magnitud más significativa ya que sí considera la composición de la estructura financiera. Esto se debe a que una empresa puede tener altas tasas de rentabilidad y no ser solvente ni líquida porque su financiación está basada mayoritariamente en recursos ajenos, lo que origina que llegue a un punto en que es incapaz de reembolsar el exigible financiero y los intereses correspondientes. También puede darse el caso de una empresa que tenga suficiente solvencia y liquidez, registrando al mismo tiempo una tasa de rentabilidad baja o negativa. En estos últimos supuestos, el capital propio como base de inversión ofrecería una mejor medición de la rentabilidad. Tasa de rentabilidad cuya base de inversión son los valores contables y los valores de mercado: También es importante mencionar que para el cálculo de cada una de las versiones de los ratios derivados de la tasa de rentabilidad se pueden utilizar valores contables y valores de mercado. Para los valores contables se debe tener especial cuidado en detectar algunas técnicas del efecto window dressing que afectan al numerador y al denominador. Como sabemos, las cuentas de balance se valoran con base a principios contables flexibles que establecen que los activos deben expresarse a su coste histórico ajustado por la amortización. ___________________________________________Capítulo 6: Las Variables Independientes 210 Estos valores contables son por tanto medidas de valor fundamentadas en el pasado, y no en un valor de mercado o valor de la empresa. Sin embargo, las diferencias entre el valor contable y el valor de mercado difiere entre los diferentes tipos de activos. Por ejemplo, en el caso de los activos monetarios la diferencia es casi nula. Por otra parte, en el caso de los activos fijos, al asignárseles una tasa de amortización anual a lo largo de su vida de uso a su coste original, encontramos la existencia de diferentes criterios que impiden que conozcamos la verdadera pérdida del valor de mercado. Lo mismo pasa si analizamos los pasivos contables de la empresa con relación a su valor de mercado. Para los de corto plazo no existen casi diferencias. En cambio el valor contable de un pasivo a largo plazo puede ser significativamente superior o inferior al valor de mercado. En el caso de las diferencias entre el valor contable y el valor de mercado del capital propio, éstas pueden ser aún mayores, ya que el valor contable del capital mide a la tesorería que los accionistas han invertido en el pasado más la tesorería que la empresa ha retenido y capitalizado. Esta situación que se analiza con más detalle en el cálculo del ratio del beneficio por acción, provoca un efecto dilutivo que si no se corrige lleva a diferencias graves entre el valor contable de las acciones y el valor total de mercado que los inversores asignan a dichas acciones. Si nos ubicamos en el punto de vista de los accionistas, a éstos les interesa más el valor del mercado de sus acciones, pues es el precio al que ellos pueden negociar sus títulos de renta variable. De ahí que la dirección trate de maximizar el valor de las acciones, es decir, el valor de la empresa, y no el valor contable o valor neto como según lo expresa el balance general tradicional. En la práctica se pueden elaborar algunos balances a valores de mercado siguiendo los mismos pasos que un balance contable. Esto se lleva a cabo presentando cada cuenta de activo y pasivo a su valor de mercado. La diferencia serán los derechos de capital del accionista a su valor de mercado. También el precio de mercado de las acciones será el cociente entre el valor de mercado del capital y el número de acciones en el mercado. Esto en repetidas ocasiones puede llevar a que el valor contable sea muy superior o inferior al verdadero valor de mercado.4 La inclusión de los valores de mercado dentro de la tasa de rentabilidad, se lleva a cabo sobre todo en el denominador, aunque también en el numerador cuando incorporamos las ganancias del capital. Aquí los datos empleados parten de la valoración que da el mercado a las acciones de una empresa. Esto se debe a que el valor contable es una medida histórica que indica cuanto capital ha ingresado a la empresa, pero no mide el valor que los accionistas asignan en el presente a las acciones. En cambio, el valor del mercado es una medida que esta proyectada al futuro y por tanto depende de los dividendos futuros que los inversores esperan recibir. Normalmente el valor de mercado es más alto que el valor contable para las empresas que cotizan. En el caso particular de México, esto es debido principalmente a la inflación que ha provocado que el valor de los activos no monetarios este muy por encima de su coste original. Por eso las empresas al incrementar su capital para invertir en proyectos con valores actuales que exceden del coste original, esperan que su valor de mercado sea superior a las aportaciones en dinero realizadas por los accionistas. Pero si una empresa fracasa en este objetivo, entonces su valor de mercado se sitúa por debajo de su valor contable. Como nuestra base de datos está formada por empresas que cotizan en la Bolsa Mexicana de Valores, dicho valor de mercado de las acciones está contenido claramente en los estados financieros. Sin embargo, aunque es posible sustituir el valor en libros de los activos totales por el valor de mercado de las acciones, y en algunos casos también es posible modificar los 4 Este tipo de informes financieros no están ni reglamentados ni reconocidos por el fisco. ___________________________________________Capítulo 6: Las Variables Independientes 211 valores de la deuda para llegar a una base de inversión más adecuada, hemos procedido a posponer para futuros trabajos la utilización de valores de mercados en los ratios, pues la complejidad y el alcance del trabajo así lo exige. Continuando con la tasa de rentabilidad referidas al valor de mercado de las acciones (el empresario) o al promedio anual de las inversiones (la empresa), vemos que a partir de ambos casos se derivan dos tipos de denominadores cuyas bases de inversión son, respectivamente, el valor de mercado del empresario y el valor de mercado de la empresa. La base de inversión del empresario es el precio que éste paga por sus acciones a valor de mercado. Este importe normalmente es diferente al valor en libros de las acciones o valor nominal, y se conoce como coste de inversión de los accionistas. Este tipo de base es menos común en comparación con la base de inversión de la empresa. La base de inversión de la empresa es más utilizada para calcular el rendimiento producido por la empresa. Al igual que la base de inversión del empresario, se puede considerar su promedio anual cuando la empresa registra oscilaciones significativas durante los cierres de mes. Sin embargo, si se considera el saldo inicial y el saldo final de la inversión, puede dar un promedio simplista y que tiene serios inconvenientes en aquellas empresas con oscilaciones significativas. En estos casos se recomienda utilizar otras medidas de centralización y dispersión más analíticas. Ratio de Rentabilidad Acumulada (R12 del modelo, ratioX2 de Altman): Fue una novedad su presentación dentro del estudio de Altman donde consideraba la edad de la empresa. Se propuso por primera vez como un indicador de la rentabilidad acumulada en el tiempo; es decir, queda implícitamente considerada la edad de la empresa en donde las empresas más jóvenes se supone que no han dispuesto del tiempo necesario para obtener niveles altos en el denominador, y por lo tanto son las que presentan una mayor propensión al fracaso. 6.3.6. RENTABILIDAD FINANCIERA CUYA BASE DE INVERSION ES EL ACTIVO TOTAL BRUTO (R11 del modelo) Y SU RELACION CON EL MODELO DU PONT. Este ratio está considerado como la mejor medida de la eficiencia operativa, pues mide la rentabilidad generada sobre todos los activos que tiene la empresa y que son administrados por la alta dirección. Su cálculo permite evaluar o proyectar los resultados de la operación, y ésta relación cuando se factoriza con variables más detalladas como las ventas, más que una medida de rentabilidad, corresponde realmente a una medida de eficiencia. Sin embargo, si optamos por expresar el ratio de forma global y clasificarlo como un ratio de rentabilidad, es posible que esto permita contrastar su comportamiento empírico a través del análisis factorial con respecto a los ratios de productividad y eficiencia, además de determinar el grado de multicolinealidad con otros criterios de la rentabilidad. En el cálculo global de este ratio se omite el efecto del método utilizado en la financiación de los activos, pues no se considera si los activos fueron financiados con capital ajeno o capital propio. Esta idea parte de que la dirección, independientemente de cómo se financie, tiene que pagar en ambos tipos de capital unos costes que están representados por los intereses (pago al capital ajeno que se representan por deuda) y dividendos (pago al capital propio que se representa por acciones). Aquí se considera que el apalancamiento financiero no es una variable que afecte al ratio del rendimiento sobre los activos totales, pues su principal propósito es medir los resultados de operación y no de financiación. Para este ratio hemos encontrado inicialmente dos versiones propuestas por Bernstein (1993), que son: a) los beneficios netos antes amortización / activo total bruto; y b) los beneficios netos después de intereses e impuestos s / activo total neto. ___________________________________________Capítulo 6: Las Variables Independientes 212 a) Beneficios Netos antes de Amortización / Activos Totales Brutos. Aquí el concepto de activos totales brutos (como denominador) comprende a los activos amortizables a su coste histórico, sin deducirles el efecto de la amortización del ejercicio y la acumulada. Este criterio es precisamente el que sigue el modelo E.I Du Pont de Nemours para evaluar los resultados de explotación. Según el Modelo Du Pont, la inversión bruta de explotación o activos totales brutos está compuesta del capital circulante más el activo fijo, sin hacer deducciones para reservas de amortización, pasivos circulantes u otros pasivos que sirvan para cubrir la obsolescencia o depreciación de la capacidad de producción que se considera debe mantenerse a su máxima capacidad de explotación. Esto indica que el activo total bruto comprende al capital circulante y al activo fijo material e inmaterial. Cuando se considera el activo total bruto, los importes más altos del denominador sirven para compensar los efectos de la inflación y la devaluación de la unidad monetaria que se expresan a su coste histórico. Sin embargo, en ocasiones es recomendable no tomar en cuenta esta ventaja del denominador y sí considerar en cambio el criterio del activo total neto, optando al mismo tiempo por una actualización o reexpresión integral de todas las cifras como lo propone el boletín B-10 para el caso de México. Con respecto a su numerador, este ratio tiene como base al beneficio neto de amortización (beneficio neto antes de intereses e impuestos) menos gastos de amortización correspondientes al ejercicio. b) Beneficio Neto después de Intereses e Impuestos / Activo Total Neto. En este criterio del rendimiento sobre la inversión, los activos invertidos están representados por aquellos importes netos de las provisiones acumuladas para su amortización. Por eso algunos de sus cálculos no están basados en los activos totales, sino en un importe ajustado en donde se excluyen los activos improductivos como son: el excedente de existencias y tesorería, el total de los activos diferidos, el porcentaje de la capacidad de producción no utilizada en las fábricas, las instalaciones en proceso de construcción y otros activos que aún no se pueden clasificar como financieros o productivos. c) El objetivo principal para considerar todos los anteriores elementos dentro del ratio del criterio “b”, es con el fin de realizar un análisis por áreas de responsabilidad, y por tanto, se busca no distorsionar el ratio con variables que no son responsabilidad de determinado departamento o centro de producción. Sin embargo, para un análisis general donde se utilice el ratio como herramienta de control interno y evaluación de la dirección, no está justificado excluir el excedente de los inventarios y la tesorería, pues ambos conceptos son responsabilidad directa de la alta dirección. Con respecto a los cargos diferidos, para estas partidas se debe considerar el importe de su amortización que sí se lleva a resultados durante el ejercicio que comprende el ratio. Para la capacidad instalada y las instalaciones en proceso de construcción, algunos consideran que está justificada su exclusión, siempre y cuando las razones obedezcan a cuestiones externas, como la demanda o el mantenimiento de los márgenes óptimos de productividad. Lo anterior obedece a que los activos amortizables se consideran en el denominador a su valor amortizado neto, es decir, activos fijos menos depreciación y /o amortización. En cuanto al numerador, los beneficios anuales se dividen entre una inversión en constante descenso (aunque dichos beneficios sean idénticos y constantes cada año). Esto hace que el rendimiento sobre la inversión vaya aumentando al igual que sus ratios comparativos. Dicho fenómeno provoca que también la evaluación de la dirección sea más difícil. Pero si el beneficio neto obtenido incluye las amortizaciones y depreciaciones en sus gastos de administración y venta, entonces el efecto negativo se anula y la base del denominador que se ___________________________________________Capítulo 6: Las Variables Independientes 213 considera para el cálculo, y que se denomina “activo total neto amortizado”, representará una medida más válida sobre la que se determina la tasa de rentabilidad.5 Aunque es bien conocido que la tasa de rendimiento aumenta a medida que se amortizan los activos, también se sabe que dicha tasa se compensa contablemente por la retención del capital o inversión recuperada en años anteriores a través de la cuenta de depreciación del ejercicio (cuenta de resultados con saldo deudor), cuya contrapartida es la cuenta complementaria de los activos inmovilizados que recibe el nombre de depreciación acumulada (cuenta de balance). 5 Siempre que se hable de beneficio neto, nos estamos refiriendo a éste después de intereses e impuestos. ___________________________________________Capítulo 6: Las Variables Independientes 214 MODELO DU PONT RATIO DE RENDIMIENTO DEL CAPITAL SOCIAL6 RATIO DE RENDIMIENTO SOBRE LA INVERSION O TASA DE RENTABILIDAD X RATIO MULTIPLICADOR DEL CAPITAL SOCIAL BENEFICIO NETO / CAPITAL INVERTIDO X PASIVO TOTAL + CAPITAL SOCIAL ______________________________________ CAPITAL SOCIAL TASA DE MARGEN NETO O RATIO DE MARGEN NETO DE UTILIDADES x INDICE DE ROTACION DEL CAPITAL O RATIO DE ROTACION DE ACTIVOS X PASIVO TOTAL + CAPITAL SOCIAL ______________________________________ CAPITAL SOCIAL BENEFICIO NETO _____________________ VENTAS NETAS x VENTAS NETAS _____________________________ CAPITAL INVERTIDO7 X PASIVO TOTAL + CAPITAL SOCIAL ______________________________________ CAPITAL SOCIAL 1er Criterio TASA DE MARGEN NETO O RATIO DE MARGEN NETO DE BENEFICIO INDICE DE ROTACION DEL CAPITAL O RATIO DE ROTACION DE ACTIVOS X x EFECTO FINANCIERO PASIVO TOTAL + CAPITAL SOCIAL ______________________________________ CAPITAL SOCIAL x 2º Criterio X BENEFICIO NETO ________________ VENTAS NETAS x VENTAS NETAS __________________ ACTIVO x ACTIVO __________ CAPITAL INVERTIDO PASIVO TOTAL + CAPITAL SOCIAL ______________________________________ CAPITAL SOCIAL COSTE VTAS. COSTE DE PRODUCCION ____________ VENTAS NETAS GASTOS DE VENTA COSTE DE DISTRIBUCION ___________ VENTAS NETAS GASTOS GASTOS DE ADMON. _________ VENTAS NETAS OPERATIVOS GASTOS FINANCIEROS _________ VENTAS NETAS + + + VENTAS NETAS ____________ ACTIVO CIRCULANTE + VENTAS NETAS _________ ACTIVO FIJO + VENTAS NETAS _________ ACTIVO DIFERIDO ESTADO DE RESULTADOS BALANCE GENERAL: CUENTAS DE INVERSION BALANCE GENERAL: CUENTAS DE FINANCIACION 6 Esta versión del Modelo Du pont ha sido propuesto por Gitman (1996).Véase también la versión de Bernstein (1993, p.674). 7 Otras variables que utilizan diversos autores para el denominador son: Capital Propio, Activo Total, o la descomposición factorial utilizando al Capital Propio y al Activo Total (Vergés, 1997). ___________________________________________Capítulo 6: Las Variables Independientes 215 6.3.7. RENTABILIDAD UNITARIA SOBRE EL CAPITAL PROPIO. A partir de la rentabilidad financiera neta se procede a los cálculos unitarios, como el beneficio por acción. Si ampliamos el análisis sobre la tasa de rentabilidad del capital propio en acciones ordinarias con el objetivo de alcanzar un nivel más analítico sobre la principal variable del análisis financiero, podemos destacar que también puede llevarse a cabo su cálculo en términos unitarios a través del ratio Beneficio por Acción / Valor Contable por Acción. Sin embargo, los ajustes para los equivalentes en acciones ordinarias, hacen que la suma de los resultados del cálculo unitario no sea igual a la cifra–resumen de la tasa de rentabilidad de los recursos propios (acciones ordinarias). Esto es así, porque el beneficio por acción puede determinarse de muy diversas formas, ya que en su cálculo influyen importantes elementos derivados de marcos particulares de orden económico y jurídico. Por ejemplo, en el caso de México existe una diferencia entre el IMCP (boletín B-14:“Utilidad por Acción”) y el IASC (Exposure Draft 52) con respecto al efecto dilutivo de las acciones y su correspondiente promedio ponderado. El beneficio por acción representa uno de los indicadores más interesantes para los analistas en el mercado de valores pues forman parte del ratio Precio-Beneficio o Múltiplo de Beneficios, al cual se le reconoce su gran importancia para evaluar el potencial generador de beneficios de los diferentes instrumentos de capital. Al respecto el IMCP cita en su boletín B-14, que existen dos importantes magnitudes para el capital ordinario que son: a) el beneficio básico por acción y b) el beneficio por acción ordinaria diluida. Por su parte Bernstein (1993: p.682) propone descomponer en tres ratios la tasa de rendimiento del capital en acciones ordinarias para su análisis de la siguiente forma: Tasa de Rendimiento del Capital en Acciones Ordinarias = Margen de Beneficios después de Dividendos Preferentes X Indice de Rotación de Activos X Ratio de Apalancamiento en Acciones Ordinarias Promedio de Activos Totales X Promedio Activos Totales Promedio del Capital en Acciones Ordinarias Es decir: Beneficio Neto – Dividendos referentes = Beneficio Neto – Dividendos Preferentes X Promedio del Capital en Acciones Ordinarias Ventas Ventas Aquí, el margen de beneficio neto indica la parte de cada unidad monetaria de ventas que le corresponde a las acciones ordinarias después de deducir todos los costes y gastos de las acciones preferentes. Respecto al ratio de apalancamiento del capital en acciones ordinarias, éste mide la proporción en que al activo total se financió con acciones ordinarias. Cuanto mayor es la proporción de su cociente, la proporción de activos financiados por accionistas ordinarios es menor y la amplitud del apalancamiento financiero es mayor. Si se quiere incluir un grado de análisis mayor sobre el margen de beneficio neto por acción, se puede optar por considerar la composición de este ratio antes de impuestos. Para esto se multiplica el margen de beneficio antes de impuestos por uno menos el tipo impositivo efectivo pagado por la empresa y con esto se obtiene el margen de beneficio neto después de intereses y antes de impuestos para medir la efectividad operativa de la tasa de retención (medida de efectividad de la gestión fiscal) y al mismo tiempo se obtiene otro factor que contribuye al rendimiento de los fondos propios, que es: (Beneficio Neto antes de impuestos – Dividendos referentes / Ventas) x (Beneficio Neto – Dividendos Preferentes / Beneficio Neto antes de impuestos – Dividendos Preferentes). ___________________________________________Capítulo 6: Las Variables Independientes 216 El análisis de estos ratios a través de varios ejercicios fiscales, es muy importante, ya que permite evaluar los componentes de más probable mejora para obtener un satisfactorio rendimiento sobre el capital en acciones ordinarias. Por ejemplo, si el apalancamiento es elevado, se procede a disminuirlo para mantenerlo en la medida deseada y al mismo tiempo se puede mejorar los otros dos ratios de la tasa de rentabilidad factorizada que veremos más adelante y que son el margen neto y el índice de rotación. 6.3.8. DESCOMPOSICION FACTORIAL DE LA TASA DE RENTABILIDAD A TRAVES DE LA VARIABLE VENTAS (Ratio 13 y 14 del modelo). Hasta este punto hemos visto como el ratio de rentabilidad se vuelve complejo al existir varios criterios para su denominador y numerador. Además, otro elemento que se suma a dicha complejidad es cuando el analista introduce nuevas e importantes variables independientes, así como ajustes en el ratio a través de una descomposición factorial con el objetivo de obtener nuevas magnitudes que expliquen más detalladamente la rentabilidad de la empresa. Aquí los ajustes los debemos entender como aquellas causas independientes o variables relevantes que distorsionan, condicionan o determinan los diferentes criterios de la tasa de rentabilidad, y que son principalmente los que exponemos en el siguiente cuadro: Resultados de Explotación Extraordinarios Resultados Ajenos a la Explotación Inversiones Ajenas a la Explotación Productividad de cada uno de los factores Política de Precios AJUSTES Diferentes Políticas y Criterios Contables Indice de endeudamiento financiero Indices Inflacionarios Coste de Capital ajeno (tipo de interés efectivo) Con respecto a las variables independientes que se utilizan para factorizar, las ventas o ingresos junto con el apalancamiento financiero, representan los dos componentes de segundo nivel que son más significativos. Las ventas representan el índice más importante de actividad y la principal relación con la tasa de rentabilidad para medir sus resultados. Al factorizar esta variable, obtenemos dos ratios que son: la tasa de margen neto o ratio neto de beneficios (R13 del modelo), y el índice de rotación del capital o ratio de rotación de activos (R14 del modelo). A esta entidad se le conoce como la ecuación fundamental de la rentabilidad, y se expresa así: Tasa de Rentabilidad = (Beneficios Netos / Ventas Netas) x (Ventas Netas / Capital Invertido) Si en esta tasa se incluye como denominador a los activos totales, entonces para los beneficios netos existen cuatro criterios cuya base de inversión es el activo total, que a su vez puede ser considerado como activo total bruto o activo total neto. El margen neto del beneficio puede expresarse en valores absolutos o relativos. En cuanto al índice de rotación se puede expresar de dos formas: a) cuando se denomina índice de rotación de capital, o b) cuando se denomina índice de rotación de activos. En ambos casos representan la intensidad en la utilización de los recursos. Al multiplicar la tasa del margen neto con el índice de rotación obtenemos el ratio global del rendimiento de los activos totales. A su vez este criterio presenta otras dos variantes derivadas de las acciones ordinarias y las acciones preferentes, que expresadas en una relación porcentual, nos permite observar la composición y calidad de la rentabilidad, así como las razones de los cambios en la tasa correspondiente. La interacción entre el margen neto y el margen de rotación representan un primer nivel de análisis de los activos totales o de los capitales propios que nos permiten llegar a evaluaciones y proyecciones de los beneficios de la empresa. En este tipo de interacciones es posible determinar un número exacto ___________________________________________Capítulo 6: Las Variables Independientes 217 de casos que pueden presentarse y que facilitan la exactitud de los pronósticos, siempre y cuando consideremos el tipo de empresa que analicemos y la estrategia que utiliza. Aunque el conjunto de posibles combinaciones entre los dos ratios es muy amplio para llegar a una misma tasa de rentabilidad, es posible resumir dicho conjunto en los siguientes tres supuestos de combinaciones: a) Aumento relativamente alto de la tasa del margen neto de beneficio y una baja rotación de activos. b) Aumento relativamente alto del índice de rotación de activos y una baja tasa de margen neto. c) Obteniendo incrementos parecidos entre el margen neto y el índice de rotación del capital. Los anteriores supuestos indican que cuando una empresa logra alcanzar una tasa de rentabilidad competitiva en su sector, puede optar por atender a la mejora de su margen neto o centrarse en la mejora de su índice de rotación. Sin embrago, esto no es tarea fácil pues las anteriores variables son interdependientes entre sí. Por ejemplo, si una empresa tiene altos costes fijos y un alto índice de rotación, entonces tiende normalmente al incremento de su tasa de margen neto, ya que los costes aumentan proporcionalmente menos que las ventas. Esto permite que entre más ventas haya, los costes fijos que se prorratean tenderán a disminuir. En cambio, el aumento de las ventas puede originar un aumento en el índice de rotación de los activos que repercute directamente en un incremento del ratio de rentabilidad (siempre y cuando dichas ventas no tengan descuentos o rebajas considerables). Otro aspecto financiero importante a tener en cuenta se presenta cuando una empresa no logra obtener un índice de rentabilidad competitivo sobre sus activos totales, entonces se busca principalmente llegar al porcentaje medio del sector, determinando las causas del déficit en alguno o en todos los componentes de la tasa de rentabilidad. En el caso de un deficiente margen neto, las causas más comunes pueden deberse a: una baja productividad provocada por deficiencias en los métodos de producción, cambio tecnológico insuficiente u obsoleto, exceso de capacidad de producción, gastos operativos excesivos, debilidad en la fuerza de ventas, etc. Para el caso de un bajo índice de rotación de activos, las causas pueden ser: excesos de activos con rentabilidad nula o baja, mantener activos improductivos y no enajenarlos. También se presentan casos de empresas con altos índices de rotación pero que no representan un signo de alta rentabilidad, provocado por una relativamente baja inversión en activos y con una elevada proporción de activos arrendados. En otras ocasiones existen empresas que aunque presentan altos índices de rotación con una inversión de activos adecuada, la calidad de su rentabilidad es deficiente, y esto se debe a que tienen un margen de beneficios bajo. Las anteriores características son muy típicas en las empresas de autoservicio o del sector hotelero. En cambio en las empresas del sector extractivo, transformación o químico, normalmente presentan una utilización intensiva de su capital en inversiones productivas (activos fijos) con un bajo índice de rotación y acompañado de márgenes de beneficios altos. En general, podemos decir que se pueden obtener mejoras importantes y rápidas para tratar de elevar el margen del beneficio cuando se mejora el índice de rotación aumentando las ventas y reduciendo las inversiones, o bien, aumentando las inversiones en activos para mantener el índice de rotación cuando las ventas están en aumento y no existe una cartera vencida peligrosa. Actualmente, en diversos sectores se sigue considerando que una tasa alta de margen neto significa una buena calidad de los beneficios obtenidos. Sin embargo, esto es cierto sólo cuando se calcula el rendimiento del capital a través de un método de comprobación de la composición de los beneficios para llegar a la verdadera rentabilidad (esto ya se explicó con mayor detalle en el ratio de rentabilidad cuya base es el capital propio). Al respecto, Brealey, Myers y Marcus (1998: p.492) sostiene que para conocer qué proporción de las ventas termina siendo beneficio, se tiene que aplicar el ratio del ___________________________________________Capítulo 6: Las Variables Independientes 218 margen del beneficio neto, es decir: margen del beneficio neto = beneficio antes de intereses e impuestos / ventas netas También es común encontrar al beneficio neto después de intereses e impuestos. Sin embargo, este mismo autor opina que este criterio es inadecuado porque no deben deducirse los intereses de la deuda en el cálculo del margen del beneficio, pues una empresa no es menos rentable con respecto a otra simplemente por no obtener más parte de su financiación a través de deuda. Aunque inicialmente el índice general de rotación de activos se ha clasificado dentro del grupo de los ratios de rentabilidad, el importante desarrollo de nuevos modelos para medir la productividad, ha originado que los ratios derivados de éste se clasifiquen como ratios de productividad y eficiencia para llegar a un análisis más profundo sobre la intensidad con que se utilizan los activos totales y productivos. Lo correcto es tener claro que la rentabilidad es un concepto más amplio con respecto a la productividad, y que a su vez está compuesta por dos variables que son el cambio tecnológico y la eficiencia. A partir de esto podemos ver que las medidas o índices de utilización de activos o eficiencia toman como base a las ventas (considerada como la variable más importante para factorizar la tasa la rentabilidad), aunque en ocasiones se presentan innovadoras estrategias financieras que cambian el significado tradicional del índice de rotación. Este tema se analizará con más detalle en el apartado de productividad y eficiencia en donde incluimos los ratios de rotación que son principalmente los siguientes: Ventas / Tesorería, Ventas / Cuentas por Cobrar, Ventas / Activo Fijo, Ventas / Activos Diferidos, Ventas / Pasivo a Corto Plazo, Ventas / Promedio de Activos Totales y Ventas / Activos Totales. Para el cálculo de los anteriores ratios se recomienda utilizar valores promedios en lugar de valores finales siempre que se disponga de datos analíticos trimestrales o mensuales. Con respecto a la lectura del índice de rotación del capital o rotación de los activos, generalmente se considera que nos dice que cuando se registran tendencias de rendimientos elevados sobre los activos, existe una gestión eficiente de recursos. Esto permite observar si la empresa experimenta un crecimiento real o simplemente una alza cíclica o estacional de sus operaciones. Además, puede indicar específicamente las limitaciones o potencialidades de expansión a las que está sujeta la empresa, ya que el margen neto y el índice de rotación no pueden incrementarse indefinidamente, pues a cierto nivel de crecimiento es necesario nuevos tipos de financiación externa (propia y ajena) o una capitalización de beneficios para un futuro incremento en la tasa de rentabilidad. Aunque existen otros importantes niveles aún más analíticos sobre la factorización de la rentabilidad, en el caso de este estudio no resulta ya práctico incluirlos. 6.4. FACTORES DE PRODUCTIVIDAD Y EFICIENCIA. La productividad se entiende como la relación entre la producción (output) y sus factores (inputs). El diccionario económico de Oxford define el concepto así: "la productividad en economía es la razón entre el producto y los factores para producirlo". Thiry y Tulkens (1988)8 la han definido como: "la capacidad desplegada por los factores de la producción para producir", y cuando se presentan variaciones en esta habilidad, se dice que se gana o pierde productividad. Prior (1992)9 cita la definición presentada en el IV Congreso Mundial de Productividad (1984) en el que se estableció que: la productividad es un concepto universal que aspira a proporcionar más y más bienes y servicios (outputs), para un mayor número de personas, con cada vez menor número de recursos reales (inputs); y para ello considera que es necesaria la aplicación integrada de habilidades y esfuerzos humanos, capital, tecnología, etc., para conseguir aumentos sostenidos y un mejor nivel de vida para todos, y a esto se le denomina: "productividad total". 8 Thiry Bernard and Tulkens Henry (1988), "Productivity, Efficiency and Technical Progress", Core University Catholique of Louvain, Bélgica (noviembre, 1988). 9 Prior Diego (1992): "Los Modelos Frontera en la Evaluación de la Productividad", ESIC Market, España (octubre-noviembre), pp. 113131. Definición redactada en Oslo en 1984 durante el IV Congreso Mundial de Productividad. ___________________________________________Capítulo 6: Las Variables Independientes 219 Por su parte Pastor y Pérez (1992)10 explican que existen dos indicadores de productividad: los indicadores parciales (que únicamente consideran un input) y los indicadores globales (que utilizan todos los inputs para lo cual debe construirse un input agregado). Siguiendo con esta idea, Vicent (1968) dice que: la productividad es la razón entre la producción y los factores con que se realiza ésta, o bien, entre la producción y algunos factores que la originaron. Por eso si sólo uno de los factores es considerado, por ejemplo: el trabajo, el capital o cualquier otro input, la medición de la productividad será parcial. Con respecto a esto, Vergés (1997)11 opina que el problema que existe con la productividad es que ésta es una magnitud que no puede compararse entre empresas, pues las unidades de medida de los outputs e inputs acostumbran a ser diferentes de una empresa a otra. En cambio, las tasas de variación sí son comparables. Por eso para él, la productividad expresada en índices normalmente sirve como una referencia sólo para la propia empresa. Volviendo con Thiry y Tulkens, ambos consideran que en el ámbito teórico la justificación para la medición del total de los factores de la producción es evidente, sin embargo una dificultad particular que se presenta es cuando el numerador o el denominador están compuestos por varios outputs y/o inputs respectivamente. Este problema se ha intentado solucionar de forma específica a través del método del número índice. El objetivo de este método es medir las variaciones temporales que están continuamente actualizándose utilizando una colección de datos económicos en términos discretos. Los especialistas en productividad utilizan frecuentemente estos índices, siendo el índice de productividad de Tornquist uno de los más populares. Otra forma de considerar las variaciones de outputs e inputs, y que ha sido adoptada por varios autores especialmente franceses, es mediante el método de contabilización del Surplus (“Surplus Accounts Metod”). Este es un índice donde las variaciones del output y del input son promediados por los precios del año inicial. Así, el índice mide solamente los beneficios de la empresa que se obtendrían si los precios se mantienen sin cambio entre el año inicial (T0) y el año t + 1. Algunos autores consideran que el concepto de productividad parcial o total no se puede distinguir en funciones no lineales. Por otra parte, la variación de un único ratio output / input solamente se observa en momentos separados y no revela todas las posibles modificaciones ocurridas dentro de los ratios considerados como un todo entre inputs y outputs. En esta etapa del análisis, Thiry y Tulkens consideran que es necesaria una valoración fundamental del concepto de “progreso tecnológico”, el cual han definido como: “el movimiento de una función definida dentro del espacio de inputs y outputs”. Esta definición realmente no describe el comportamiento real más haya de la idea de un incremento de los outputs obtenidos, dados varios niveles de inputs. Para Elion (1985) 12 la productividad se ha considerado como el concepto clave para determinar si una empresa o un sector industrial son capaces de competir en los mercados globalizados. De ahí que tratar primero de definir este concepto, y aún más, tratar de medirlo con más perfección, es actualmente uno de los intentos más intensos de los países para mejorar productividad. Eilon indica que en la práctica la productividad es interpretada comúnmente como la "producción por horahombre". Al analizar el factor productividad se ha considerado importante distinguir bien entre el significado que adquieren dentro del campo de la economía de la empresa: la rentabilidad, la productividad, la eficiencia, la eficacia y la efectividad, con el objetivo de saber exactamente lo que queremos medir. 10 Pastor J. y Pérez F. (1992), "La Productividad del Sistema Bancario Español", ESIC, España; pp. 1-6. 11 Vergés i Jaime Joaquín (1997), "Análisis del Funcionamiento Económico de las Empresas", Publicación Docente, Universidad Autónoma de Barcelona (octubre) pp. 1-3. 12 Eilon Samuel (1985), "A Framework for Profitability and Productivity Measures", Interfaces (15:3 may-june), pp.31. ___________________________________________Capítulo 6: Las Variables Independientes 220 Primeramente, y ya definido el concepto de productividad, Thiry y Tulkens indican que ésta tiene dos componentes que son la eficiencia técnica y el progreso o cambio tecnológico. Aunque la productividad es un indicador sintético muy importante, no es sinónimo de rentabilidad, sino es una magnitud previa que en todo caso se le podía equiparar con la magnitud de rentabilidad bruta. En cambio la rentabilidad, que es la relación que existe entre el beneficio y el capital invertido, representa una tasa que nos indica el grado de eficiencia en la utilización de los recursos que hace una empresa en un período de tiempo determinado (Vergés:1991). Con respecto al término de la eficiencia, se dice que se da en una empresa cuando tecnológicamente es imposible aumentar outputs sin aumentar inputs, o bien, disminuir inputs sin disminuir outputs. Prior (1984) entiende que la "eficiencia global" es la competitividad, que a su vez define como: "la posición relativa de la empresa frente a la concurrencia". En general, la eficiencia busca lograr el mínimo de costes y aquí no se plantea si los objetivos son o no correctos. En cuanto a la eficacia, ésta tiende al cumplimiento de los objetivos sin importar, al igual que en la eficiencia, si éstos fueron los más adecuados. Por último, en la efectividad sí se pretende plantear los objetivos correctos para asegurar la supervivencia de la empresa. Con base en lo anterior, podemos decir que la rentabilidad es un concepto más amplio y que contiene a las magnitudes de la productividad, la que a su vez tiene dos componentes que son la eficiencia técnica y el progreso tecnológico13. La maximización de todas estas “variables–indicadores” resultan necesarias para obtener resultados o "performances" hacia el éxito empresarial.14 Como hemos dicho anteriormente, si la productividad se intenta medir a través de ratios se utiliza la relación producción / factores de la producción. Para Eilon (1985) a partir del ratio output / input sí es posible establecer una variedad de ratios para medir en términos físicos y financieros los resultados de una empresa con el objetivo de poder llegar a definir cuatro medidas de producción eficiente que son: 1) La eficiencia técnica: Que relaciona cantidades físicas. 2) La eficiencia de los costes: Que toma en cuenta el factor: “precio del input utilizado en la producción”. Dicho factor es considerado como la solución para llegar a la medición de la eficiencia técnica, pero no necesariamente a la inversa (es decir, sería erróneo considerar una eficiencia técnica como una eficiencia en el coste). 3) La eficiencia en los ingresos, también conocida como ingresos o utilidad eficiente. Proporciona una estructura útil para analizar el rendimiento desde un enfoque de productividad, pues según Elion, orienta sobre procedimientos que buscan las comparaciones que son necesarias efectuarse y dan también bases para observar los cambios en el rendimiento de la empresa a través del tiempo. 13 La productividad y la eficiencia han sido el objeto de investigación de los modelos frontera, mientras que la rentabilidad ha sido estudiada principalmente a tráves del análisis financiero. Los modelos frontera tratan principalmente de evaluar la eficiencia productiva en términos de una relación output / input para diagnosticar y elaborar programas que tiendan al aumento de la eficiencia organizacional. Para llevar a cabo dicha evaluación se establecen “fronteras”, lo cual significa establecer mediciones inmejorables sobre los outputs que estan representados por el conjunto de bienes y servicios producidos, susceptibles de venderse y con un nivel determinado de calidad. Una clasificación actual de los modelos frontera, también denominados: “Data Envelopment Analysis” (DEA), es la que los divide en: modelos frontera deterministicos (MFD) y modelos frontera estocasticos (MFE). A su vez cada uno de estos (MFD, MFE) se dividen en parametricos y no parametricos. Los modelos frontera deterministicos no parametricos, que son los más conocidos, utilizan como instrumento básico la programación lineal y la mayoría de los trabajos que se han realizado van por esta línea. En cambio los modelos frontera estocasticos parametricos tienen como instrumento básico a la econometría. Prior (1992) nos indica que los modelos frontera son la culminación de un proceso metodológico cuya base esta en la teoría neoclásica de la producción y cuyo punto de partida de esta técnica se inició con los trabajos pioneros de Koopmas (1951,1957), Debreu (1951) y Farell (1957). Para él un modelo frontera evalúa si un conjunto de outputs y un conjunto inputs, pertenecen o no a un "conjunto técnicamente eficiente", entendiendo por esta ultima palabra como la "situación en que es imposible incrementar cualquier output o reducir cualquier input, o bien, aumentar el consumo de cualquier otro input (Koopmans 1951). 14 Peter Drucker ha expresado en torno a algunos de éstos conceptos lo siguiente: "...la eficiencia es hacer las cosas bien y la eficacia es hacer las cosas que conviene hacer". Como se ve, los términos eficiencia y efectividad no son magnitudes, sino conceptos del campo de la estrategia empresarial. ___________________________________________Capítulo 6: Las Variables Independientes 221 4) La eficiencia de uso de la capacidad instalada. También conocida como capacidad de utilización. La idea de la eficiencia del coste con respecto a la eficiencia técnica, es similar en el caso de la capacidad de utilización con respecto a la eficiencia técnica. También, si consideramos en su sentido básico a la productividad (relación output obtenido/ inputs utilizados), entonces podemos definir la eficiencia productiva como la relación que hace que se produzca un nivel de output máximo con el mínimo consumo de input posible. Según Thiry y Tulkens, si interpretamos la productividad ganada o perdida, considerando para el análisis el concepto de “función de producción” con su curva respectiva, esto tiende a mejorar el razonamiento. Para ellos la función de producción usualmente se define como la relación que existe entre las cantidades de inputs utilizados y la de outputs que pueden ser obtenidos como resultado final de la producción. El concepto anterior puede ser ilustrado por la función: y = f º ( x ). Aquí un único output (y) es producido con un único input (x). Esta función que muestra las posibilidades técnicas de la función (f º) de una empresa dentro del espacio de outputs e inputs, establece que: el concepto de progreso tecnológico aparece cuando se considera la curva de la función, la cual se puede ver de dos formas: a) Como un incremento en el output que puede ser obtenido con diversas cantidades de inputs. b) Como una reducción de la cantidad mínima de input que se requiere para asegurar cualquier cantidad de outputs. Con base en esto, los resultados pueden indicar que habrá regresión tecnológica cuando el sentido de la curva de la función se reduzca dentro del output obtenido, dadas varias cantidades de inputs, o bien, habrá un incremento en los inputs que se requieren para cualquier cantidad de outputs. El progreso tecnológico es comúnmente asociado con la implementación de nuevos métodos de producción (como los cambios en el estilo de dirección) o nuevos factores de producción (tales como nuevas maquinarias). Para Thiry y Tulkens los términos: “progreso tecnológico” y “regresión tecnológica” utilizados en otros campos de estudio han resultado inadecuados dentro de la teoría de la productividad, pues consideran que se vuelven más complejos sobre todo a la hora de su medición. Ante esto indican que actualmente existen tres métodos para medir el progreso tecnológico y son: a) La estimación econométrica de producción o funciones de coste. b) Una aproximación discreta de los índices de productividad “Divisa”. c) El cálculo con números índices exactos. Con respecto a la relación de la productividad con la eficiencia, y considerando que el análisis económico da una representación del fenómeno de progreso tecnológico a partir del concepto de función de producción, se puede partir de la idea de que la producción eficiente también proviene del concepto de la función de producción, pero ahora sobre la base de una muy particular interpretación de dicha función. La producción eficiente antes de poder ser considerada una simple relación entre inputs y outputs, también es posible considerarla como una “frontera”, estableciendo los límites que una empresa puede alcanzar. Así, la función de producción específica las máximas cantidades de outputs obtenidos dado un nivel de inputs, y para cualquier nivel de output se establece la cantidad mínima de inputs requeridos para producirlos. En ocasiones las fronteras se construyen con las observaciones que, dado el actual estado de conocimiento tecnológico, permite producir el máximo nivel de outputs con el mínimo consumo de inputs. ___________________________________________Capítulo 6: Las Variables Independientes 222 Al respecto Prior (1992: p.121) apunta que para establecer la frontera, las empresas serán sólo eficientes si mantienen unos coeficientes inmejorables (“que no exista evidencia de que ninguna otra empresa alcance un coeficiente de consumo de un factor inferior, sin a su vez, presentar otro coeficiente de valor superior”). Es decir, ninguna empresa puede pasar las fronteras, pues éstas son mediciones inmejorables de entre todas aquellas de que se dispone. El concepto frontera se origina cuando se evalúa una muestra de empresas de cierto sector y similares dimensiones, de manera que, del total de mediciones obtenidas, se identifican las que son inmejorables o aquellas que tienen un valor límite. Pero teóricamente, una vez conocidos los valores de esas “empresas frontera”, es posible cuantificar la distancia que separa una empresa ineficiente de su frontera correspondiente. Farell (1957) abrió esta línea de investigación sobre el análisis de la eficiencia que se basaba en determinar la distancia entre las diferentes mediciones realizadas y la frontera eficiente de producción. En los últimos años se han desarrollado otras dos vías diferentes para la medición de la eficiencia que son: 1. No se define a priori una función de producción. Ésta es una medición no paramétrica de eficiencia y se define a partir de dos tipos de indicadores: a) los indicadores de eficiencia técnica que se componen de inputs y de outputs en unidades físicas; y b) los indicadores de la eficiencia asignativa, en donde se consideran los precios de los inputs para evaluar la capacidad de la minimización de los costes totales. 2. En la otra vía se define una determinada función de producción. Continuando con los límites o fronteras, éstos se pueden definir mediante tres tipos de funciones que son: a) Fronteras de producción: aquí nos referimos a las empresas que producen el output máximo para un conjunto dado de inputs, o bien, las empresas que con un nivel de output determinado utilizan el mínimo de input. b) Fronteras de costes: en este tipo se tratará de establecer empresas que tienen el nivel mínimo de costes y en el que es posible producir ciertos niveles de outputs dados los precios de los inputs. c) Fronteras de Beneficios: en este caso si queremos establecer la frontera del beneficio, se tiene que determinar las empresas que consiguen el máximo beneficio alcanzable, al igual que los precios de los outputs y los precios de los inputs. Si la función f º es considerada como una frontera, todos los puntos a lo largo de la frontera o por debajo de ésta deben ser considerados más o menos realizables, mientras los puntos que estén sobre la frontera no pueden ser ni realizables ni observables. Con base en esto, dentro del campo de la productividad se han derivado dos importantes consecuencias: a) Una es el nivel conceptual; y b) la otra es el nivel empírico. En el nivel conceptual: cuando surge una “nueva frontera-función de la producción15” (f1), origina que los investigadores den un significado preciso al concepto de “ineficiencia en la producción”. Esto quiere decir que cualquier situación productiva es considerada ineficiente si los outputs e inputs están por debajo de la frontera. En caso contrario, la eficiencia se dará en aquellos puntos que se encuentren sobre la misma frontera de la producción. 15 La “frontera - función de la Producción” es un criterio o norma que sirve de base para buscar la eficiencia. ___________________________________________Capítulo 6: Las Variables Independientes 223 En el nivel empírico, el anterior enfoque significa que la (in)eficiencia puede ser únicamente medida después de determinar la frontera de la producción. Las subsecuentes mediciones obviamente variaran de acuerdo a las especificaciones seleccionadas. Siguiendo con el interesante trabajo de Thiry y Tulkens, la idea de considerar la función de producción como una frontera, puede ser también ampliada a una función de coste. Así, la eficiencia puede ser definida también sobre la base de una función de coste mínimo (en este caso la ineficiencia se localizará en aquellos puntos que están sobre la gráfica de la función de coste total). Con base en lo anterior y para mantener la claridad de la terminología dentro del complejo factor de la productividad, Schmidt y Lovell (1979: p.345)16 han sugerido denominar a este caso como la “eficiencia de coste”, aunque sin dejar de implicar siempre la “eficiencia técnica” que significa producir el máximo de outputs dado un mínimo de inputs. Es decir, la eficiencia técnica puede ser medida utilizando las funciones de producción y/o las funciones de costes. Además, Schmidt y Lovell han propuesto un tercer término denominado “eficiencia asignativa”, que se refiere a la utilización de inputs en las proporciones correctas dando un precio optimo al input. Su cálculo es una tarea más especializada con respecto al tema de este trabajo y requiere un previo conocimiento de la “función del coste mínimo”. Al igual que en el progreso tecnológico, la eficiencia y su medición se pueden discutir con base a la función del coste mínimo y a la función de producción. De cualquier forma, estos autores consideran que la empresa que es eficiente en términos de costes es también eficiente tecnológicamente. Ampliando sólo un poco más la complejidad del factor eficiencia, Prior (1992: p.117), indica que los modelos frontera se han ido desarrollando bajo el concepto de la producción múltiple con el objetivo de obtener una factorización más amplia de las causas que provocan la ineficiencia técnica. Para ello considera que es factible la descomposición de la “eficiencia global” en tres niveles que son: a) la eficiencia técnica pura, b) la eficiencia a escala, y c) la eficiencia asignativa. Primeramente, la eficiencia global la define a través del un ratio como: “el cociente entre el mínimo coste posible de los inputs, dado el nivel de producción que se obtiene, los precios competitivos de los inputs y la tecnología de referencia, y el coste total de los inputs que tiene la empresa analizada. Es decir: Eficiencia Global = Coste Mínimo “C (u,p)” / Coste Total “Px” Para explicar los tres niveles de la eficiencia global, este mismo autor nos indica que, por ejemplo, en el caso de una empresa no frontera, es muy posible que el coeficiente de eficiencia técnica presente dos tipos de ineficiencia derivados de causas sumamente diferentes entre sí, que son: a) Que una empresa sea ineficiente si la comparamos con otras de dimensiones similares. A esto lo denomina: “eficiencia técnica pura”; y b) Que la empresa en su escala de producción se haya comprobado como ineficiente con respecto a otra que registra mejores ratios entre outputs / inputs. A esto le denomina: “eficiencia de escala”. Además, agrega que la ineficiencia técnica se puede descomponer en dos subniveles que son: a) la ineficiencia técnica pura; y b) la ineficiencia a escala. Es decir, se pueden presentar los siguientes supuestos: Eficiencia Técnica = (Eficiencia Técnica Pura) x (Eficiencia a Escala) Eficiencia Técnica > Eficiencia Técnica Pura = Eficiencia a Escala = Eficiencia Técnica / Eficiencia Técnica Pura Como se puede ver hasta lo ahora expuesto, la naturaleza de las relaciones entre las nociones del factor de productividad y la de eficiencia técnica, debe ser clara si se quiere realmente medir a ambas 16 Schmidt P. and lovell C.:“Estimating Technical and Allocative Ineficiency Relative to Stochastic Production and Cost Frontiers”. Edit. Journal of Econometrics No. 9; p.343-366. ___________________________________________Capítulo 6: Las Variables Independientes 224 variables, pues como se puede ver, la simple técnica de ratios no proporciona una base sólida para llevar a cabo dicha tarea pues estas variables son muy complejas. Además, hay que considerar que la relación entre la productividad y el progreso tecnológico es ambigua, ya que la primera incorpora al progreso tecnológico cuando éste ocurre y no es posible identificar su presencia. Sin embargo, Schmidt y Lovell afirman que si se aplica el concepto de la función de producción es posible su identificación. Por otra parte, estos autores consideran que un tipo similar de ambigüedad caracteriza también la relación entre la productividad y la eficiencia, ya que no es posible distinguir entre las variaciones de la productividad suponiendo o considerando las variaciones de la eficiencia Para Thiry y Tulkens, entre los factores de productividad y eficiencia existe una diferencia formal que es de vital importancia como se ha visto a un nivel introductorio. Para ellos es importante tener presente que estos conceptos no son fundamentalmente antagónicos, sino que se consideran complementarios, y tan es así, que llegan a confundirse o tomarse como análogos. Aunque en el presente trabajo incluiremos algunos ratios de productividad y eficiencia, su fin únicamente se limita para observar su comportamiento con relación al factor de rentabilidad dentro del análisis factorial, pues creemos que es importante no descartar estas variables dentro de las estimaciones, aunque teniendo en cuenta que tienen un seria limitación en cuanto a la medición correcta de sus magnitudes. Comúnmente el ratio de productividad asume forma de porcentaje y en principio cualquier input puede ser utilizado en el denominador, aunque como ya se mencionó, la mano de obra es el factor más común que se tiene en cuenta, pues existe la convicción de que la productividad laboral constituye el elemento determinante para competir y obtener beneficios. Por eso en diversos países se ha establecido como sistema los incentivos a los sueldos y salarios con base al incremento de la productividad. Según Elion (1985), los ratios de productividad pueden relacionarse de la siguiente forma: a) Outputs Actuales / Inputs Actuales. b) Outputs Actuales / Máximo posible Outputs para un conjunto dado de inputs. c) Inputs Actuales / El mínimo posible de inputs para un nivel dado de Outputs. En su trabajo este autor presenta una interesante serie de ratios de productividad incluidos en una “red” o matriz que los relaciona entre sí con el fin de demostrar como un ratio de productividad puede mejorarse a expensas de otro. Para él, el efecto de los ratios de productividad sobre el coste unitario puede ser analizado, y posteriormente, el efecto del precio en el input (como los sueldos) puede ser comprobado. Con respecto a los outputs, considera que pueden ser medidos de diferentes formas, siendo las variables más típicas para la medición de la productividad las siguientes: los ingresos, los beneficios, el volumen físico y el valor añadido. En cuanto a los inputs, las variables más representativas son: la mano de obra, los materiales directos, los materiales indirectos, la maquinaria, la planta y el capital. Como ya se apuntó al principio de este inciso, los inputs pueden ser medidos de tres formas: a) en términos físicos (número de empleados, toneladas de materiales, numero de máquinas, etc.); b) en términos financieros o costes (sueldos de los empleados, costo de materiales, valor de los activos fijos, etc.); y c) se pueden medir a través de considerar los recursos combinados, que no es otra cosa que el coste total. La numerosa gama de ratios para medir la actuación de la empresa con respecto a su productividad depende sobre todo de que inputs y outputs sean seleccionados para el análisis. Por ejemplo, Eilon ___________________________________________Capítulo 6: Las Variables Independientes 225 (1985: p.32) ha propuesto la siguiente matriz con 24 ratios que están clasificados en cuatro grupos de acuerdo a su numerador (output) y tratan de medir lo siguiente: CUADRO 6.6. INPUT / OUTPUT Inversión Total Inversión Fija (maquinaria, planta y equipo) Número de Trabajadores (términos físicos) Número de Horas trabajadas (términos físicos) Sueldos de Trabajadores (términos financieros) Materiales Directos (términos financieros, costes) COSTE TOTAL Fuente: Eilon (1985) Grupo 1 Volumen Físico Volumen Físico / Inversión Total Volumen Físico / Inversión Fija Volumen Físico / Número de Trabajadores Volumen Físico / Número de Horas trabajadas Volumen Físico / Sueldos de Trabajadores Volumen Físico / Materiales Directos Volumen Físico Coste Total Grupo 2 Ingresos Ingresos / Inversión Total Ingresos / Inversión Fija Ingresos / Número de Trabajadores Ingresos / Número de Horas trabajadas Ingresos / Sueldos de Trabajadores Ingresos / Materiales Directos Ingresos / Coste Total Grupo 3 Grupo 4 Beneficios Valor Añadido Beneficios / Inversión Valor Añadido / Inversión Total Total Beneficios / Inversión Valor Añadido / Inversión Fija Fija Beneficios / Número Valor Añadido / Número de de Trabajadores Trabajadores Beneficios / Número de Horas trabajadas Beneficios / Sueldos de Trabajadores ----Valor Añadido / Número de Horas trabajadas Valor Añadido / Sueldos de Trabajadores ----- / ----- ----- Grupo 1: Los ratios de este grupo especifican que el output en el numerador es físico. Dichos ratios sirven como mediciones de eficiencia de la producción, aunque normalmente se les ha considerado como ratios de productividad. Generalmente sus recíprocos son utilizados para medir las cantidades de un determinado input en términos físicos o en términos de costes dada una unidad de output. Con respecto al ratio de volumen físico / coste total, éste es más conocido por su recíproco: coste total / volumen físico, y se utiliza cuando se quiere medir el coste total por unidad. Grupo 2: Estos ratios relacionan los ingresos con los inputs. El ratio de ingresos / inversión total y el ratio ingresos / número de trabajadores, son muy populares en los reportes de resultados. Los inversos de los ratios ingresos / número de trabajadores, e ingresos / materiales directos, representan las proporciones que se toman de los ingresos para los salarios y los materiales. Por otra parte, el inverso coste total / ingresos, indica la proporción de los ingresos que se tienen para cubrir el coste total. Grupo 3: Este grupo de ratios se enfoca en los beneficios. El ratio benéficos / inversión total es generalmente citado en las evaluaciones financieras dentro del factor de rentabilidad. Para Eilon, este ratio es considerado como un indicador del retorno del capital desde un enfoque de la productividad. Grupo 4: Este grupo de ratios consideran al valor añadido como el output. Son también muy populares para la medición de la productividad. El inverso de sueldos de los trabajadores / valor añadido, mide principalmente la proporción del valor añadido que se gasta en salarios. Todos los anteriores ratios generalmente se refieren a inputs y outputs actuales. Sin embargo, estas medidas no son válidas por sí solas, pues aunque se estimen de forma correcta, sus resultados no indican definitivamente si la empresa es productiva o no. Una alternativa que es común que se lleve a la práctica, es comparar estos resultados con “un fundamento relevante", como por ejemplo: con el valor de otro ratio en un período de tiempo previo, o bien, con una tendencia del rendimiento que pueda ser verificada. Otra alternativa de comprobación puede realizarse con otra empresa de similar sector y magnitud. Aunque como ya apuntamos, existen autores como Vergés (1997) que consideran que normalmente lo que se hace es calcular las tasas de variación de la productividad de un período a otro, pues dichas tasas sí son comparables. ___________________________________________Capítulo 6: Las Variables Independientes 226 En cuanto a los ratios de eficiencia, éstos miden principalmente dos aspectos que son: a) evalúan cómo está funcionando la empresa con respecto a las políticas preestablecidas; y b) evalúan con qué efectividad la empresa maneja sus recursos. Entre los ratios más citados en la literatura contable y financiera para medir la eficiencia, y que incluimos para obtener evidencia empírica a través del análisis factorial están los siguientes: Ratio de ventas netas / tesorería (R19 del modelo ). Este ratio indica el nivel de tesorería que es necesario mantener, así como, el estado de la reserva que sirve para prevenir las situaciones de escasez, las cuales pueden generar un desequilibrio entre los inflows y outflows. Una tasa de rotación excesivamente alta indica escasez de tesorería y problemas de liquidez. De no contarse con orígenes de fondos alternativos se presentaran problemas en el ciclo de explotación. En cambio, si la tasa de rotación es excesivamente baja, indicará que se tienen saldos de tesorería en exceso o improductivos. Es importante considerar que en algunas ocasiones se mantienen saldos acumulados en la tesorería cuando se va a llevar a cabo alguna operación extraordinaria y esto provoca una disminución de la tasa de rotación temporal. Para este ratio se recomienda establecer algún parámetro o estándar del sector para alcanzar una liquidez adecuada, utilizando los excedentes en inversiones temporales o inmovilizado. Ratio de ventas netas /cuentas por cobrar (R20 del modelo). Las cuentas por cobrar representan cobros diferidos a futuro que están siempre en función de las ventas. Esto provoca que una tasa de rotación excesivamente baja de las cuentas por cobrar indique una excesiva concesión de crédito, que si lo sumamos a porcentajes importantes de clientes con incapacidad de pago y a una deficiente recuperación de cartera, provoca problemas en el ciclo de explotación. En cambio, una tasa de rotación excesivamente alta indica una pérdida de clientes potenciales vía crédito. Por eso, la tasa de rotación de este ratio se debe establecer con base a un equilibrio entre las ventas y la inmovilización temporal de fondos en cuentas por cobrar. Ventas netas / activo fijo (R23 del modelo). Mide la eficiencia de las ventas con relación a los activos permanentes. Diversos autores lo clasifican indistintamente como un ratio de rentabilidad, productividad o eficiencia. Aunque esta magnitud es a largo plazo, se puede estimar a corto plazo para observar ciertos factores temporales que afectan a la relación, como por ejemplo: el exceso en la capacidad de producción, o bien, los activos productivos ineficaces u obsoletos. Sin embrago, dado que los aumentos en la capacidad de fabricación no son graduales, se debe buscar una medida adecuada entre la inversión de activos fijos y la capacidad productiva y potencial de las ventas, pues estos elementos son parte de la eficiencia. Ratio de ventas netas / activo diferido (R 24 del modelo ). En realidad esta relación es difícil de determinar su contribución a las ventas y al beneficio, pues el potencial de los activos diferidos abarca varios ejercicios y por lo tanto mide sólo parcialmente la eficiencia. Ratio de ventas netas / pasivo circulante (R26 del modelo ). Este ratio es de carácter predecible ya que los créditos contratados dependen directamente de las necesidades de producción de los bienes o servicios destinados a las ventas. Al ser un ratio que mide al capital ajeno indica en cierta medida el grado de apalancamiento financiero y el nivel de reducción de la inversión propia en el capital circulante. 6.5. FACTOR DE LIQUIDEZ. Mientras los objetivos a largo plazo para el éxito empresarial se basan en la maximización de los beneficios y la maximización del valor de la empresa, los objetivos a corto plazo se enfocan principalmente en: a) obtener una liquidez óptima o apropiada para la empresa y b) evitar las dificultades financieras. ___________________________________________Capítulo 6: Las Variables Independientes 227 Con respecto al segundo objetivo a corto plazo es necesario alcanzar el primer objetivo, es decir, obtener la adecuada liquidez. De no lograrse esto, es seguro que se entre en un proceso de enfermedades financieras, que comienzan con un vencimiento y falta de pago de las obligaciones a corto plazo (cartera crediticia vencida), y posteriormente se entra en un proceso de falta de liquidez que afecta al ciclo de explotación de la empresa, lo cual la obliga a entrar en una suspensión de pagos que es la antesala de la quiebra técnica. Según Bernstein (1999: p.551) la liquidez es la facilidad, velocidad y el grado de merma para convertir los activos circulantes en tesorería, y la escasez de ésta la considera uno de los principales síntomas de dificultades financieras. En principio la liquidez se puede definir de forma simple como la capacidad de pago a corto plazo que tiene la empresa, o bien, como la capacidad de convertir los activos e inversiones en dinero o instrumentos líquidos, lo que se conoce como tesorería. Esto quiere decir que fundamentalmente la liquidez es la capacidad de convertir activos en tesorería para hacer funcionar a la empresa. A su vez la tesorería es considerada el componente más líquido con respecto a todos los demás activos, pues proporciona la mayor flexibilidad de elección a la empresa para decisiones de inversión o financiación. También este componente representa el inicio y el final del ciclo de explotación y su conversión va dirigida a todo tipo de activos, como por ejemplo: las existencias que se convierten en cuentas por cobrar mediante el proceso de ventas.17 Para Meunier y Boulmer (1987: p.14) 18 la tesorería es la diferencia entre los activos realizables y disponibles (activo circulante) y el pasivo circulante en un momento determinado. Por otra parte, estos autores definen el concepto de tesorería neta como la diferencia en determinado momento entre los recursos puestos en juego para financiar una actividad y las necesidades que la misma implica. Otros autores parten de los mismos elementos, pero en lugar de considerar a la tesorería sobre su diferencia parten sobre su relación, pues se refieren a la noción de coeficiente o ratio de tesorería, que es el cociente entre el activo circulante y el pasivo circulante. Este ratio es una de las magnitudes más importantes, aunque no la única que se incluye dentro del factor de liquidez, pues al utilizar este concepto no nos referimos exclusivamente a la relación entre dos partidas globales, pues dicho factor incluye también otras magnitudes más analíticas aunque “defectuosas”. Por ejemplo, el ratio de tesorería o de capital de trabajo es ampliamente aceptado en términos teóricos, y con su uso se tendría que poder determinar en que medida una empresa es capaz de hacer frente a sus obligaciones a corto plazo considerando la exigibilidad de los pagos vencidos. Aquí, mientras más elevado fuera el coeficiente, la empresa debería permanecer más líquida. Sin embargo, esto no es más que una probabilidad ya que en la práctica dicho coeficiente es “abstracto”, y por lo tanto, la diferencia o el cociente del ratio son poco utilizados y sólo sirven como referencia, pues en realidad no permiten administrar la tesorería. Con base en ello, los analistas tratan de aplicar también otras dos nociones teóricas para complementar el análisis de la tesorería que son: a) la velocidad o el grado de liquidez del activo realizable; y b) la liquidez o el grado de exigibilidad de las deudas a corto plazo. Por otra parte, si analizamos la liquidez en términos de tesorería neta, veremos que ésta no se basa en los ingresos y gastos, sino en las necesidades y los recursos, los que a su vez se clasifican para efectos del análisis financiero en: a) necesidades cíclicas y b) necesidades acíclicas. La necesidades cíclicas están ligadas directamente al ciclo de explotación (compra, fabricación y venta), es decir, están constituidas por los factores de la producción y por el activo circulante, y se renuevan al ritmo del ciclo de explotación. Con respecto a las necesidades acíclicas, están constituidas por los medios de producción o activos reales, y su existencia no está ligada directamente al ciclo de explotación. Para hacer frente a este tipo de necesidades, la empresa que 17 Las necesidad de liquidez o capital circulante dependen normalmente de las necesidades de inversión en inventarios y de la capacidad para adquirir créditos. A esta relación se le conoce como: “ciclo comercial neto”. 18Meunier Henri and Barolet (1987): “La Tesorería en la s Empresas”; Edit.Editions Bordas. Paris, pp.174 ___________________________________________Capítulo 6: Las Variables Independientes 228 absorbe los capitales debe contar con dos tipos de recursos que son: a) los recursos cíclicos (su existencia esta directamente ligada al ciclo de explotación y se renuevan al ritmo de éste constituyéndose en pasivo circulante); y b) los recursos acíclicos (no tienen relación con el ciclo de explotación y están representados por los fondos propios y deudas a largo plazo, es decir, los capitales permanentes y los activos inmovilizados). Con base en lo anterior se puede ver que las diferencias entre las necesidades y los recursos representan a la tesorería neta Este balance traducido al método de “necesidades – recursos”, se puede traducir también en otros términos, como por ejemplo: las necesidades para inversiones y las necesidades para la explotación. Las primeras son aquellas que se relacionan con los activos inmovilizados tomados en el más amplio sentido del término. En cambio, las necesidades de explotación, también llamadas necesidades de fondos de rotación, son la parte de aquellas necesidades cíclicas cuyo financiamiento no está asegurado por los recursos cíclicos, y por lo tanto se encuentran a cargo de la empresa. CUADRO 6.7. DOS ENFOQUES DIFERENTES SOBRE LA TESORERIA: A) NECESIDADES - RECURSOS = TESORERIA NETA B) GASTOS - INGRESOS = BENEFICIO RECURSOS > NECESIDADES = NECESIDADES > RECURSOS = TESORERIA NETA DEFICITARIA RECURSOS (HABER) PASIVO CIRCULANTE: OBLIGACIONES (RECURSOS AJENOS) CAPITALES PERMANENTES: ACCIONES (RECURSOS PROPIOS) ESTADO DE RESULTADOS TESORERIA NETA EXCEDENTARIA NECESIDADES (DEBE) ACTIVO CIRCULANTE ACTIVOS INMOVILIZADOS NECESIDADES DE EXPLOTACION = NECESIDADES CICLICAS RECURSOS CICLICOS Fuente: Elaboración Propia Pero volviendo al tema sobre la administración de la liquidez bajo su concepto tradicional, ya hemos apuntado que resulta erróneo el concepto de maximizar este factor, ya que los recursos o activos financieros en exceso representan una pérdida con relación al coste de oportunidad. Además, otro fenómeno negativo que se presenta cuando se maximiza la liquidez, es la falta de aprovechamiento del crédito comercial que ofrecen los proveedores del capital productivo y del capital financiero. Es importante señalar que de acuerdo al giro de la empresa y a la estrategia financiera adoptada por ésta, se puede llegar a determinar cual es el índice de liquidez apropiado, aunque desde un enfoque meramente estático. Para esto, existen varias estrategias como es el caso del apalancamiento financiero o el análisis de los efectos de los resultados por posición de activos monetarios (“repomo”). Otro elemento a considerar para el análisis y administración de la liquidez es que los índices “óptimos” que presentan las empresas de distintos sectores suelen ser diferentes dado su particular ciclo de explotación. Por otra parte, tampoco el tamaño de la empresa es un factor crucial para obtener estándares adecuados de liquidez, pues por ejemplo: si existen varias empresas cuyo tamaño puede ser fácilmente determinado para clasificarlas como similares, como es el caso de las empresas ___________________________________________Capítulo 6: Las Variables Independientes 229 grandes19, aún habría que analizar muy detenidamente cuales son sus criterios para la presentación de su información contable, pues muchas veces las partidas que se refieren a la valoración de los inventarios (componente básico del ratio de liquidez) son producto de sistemas de valuación distintos, o bien, los métodos de depreciación y amortización de los activos fijos tangibles e intangibles no son los mismos, y esto por supuesto afecta directamente a los beneficios provocando mayores o menores necesidades en el nivel de liquidez. El ciclo de explotación consiste en el proceso: “dinero – bienes – dinero”, en el que la tesorería inicial se convierte en activo circulante real (materias primas, producción en proceso, productos terminados) y éste se convierte de nuevo en tesorería tras haberse convertido previamente en activo financiero (clientes), siendo la principal consecuencia de este proceso la creación de valor a través de la obtención de beneficios. La “nueva tesorería”, que posteriormente se volverá a invertir o desinvertir, puede presentar entonces una liquidez positiva o negativa, y este nuevo estado de liquidez se utilizará total o parcialmente para reiniciar una y otra vez más otros ciclos de explotación.20 Paradójicamente al hablar del factor de liquidez y en particular de sus ratios tradicionales, que son de los más antiguos y conocidos, nos damos cuenta que en general éstos no son capaces de proporcionar magnitudes fiables, pues presentan la grave limitación de que sus componentes son estáticos (del balance general), y las mediciones correctas de liquidez tienen que tener como base a los flujos futuros de tesorería, cuyos componentes son dinámicos (los ingresos, el coste de ventas, los gastos en efectivo, los beneficios, entre otros). Esto se debe a que la liquidez depende de los niveles de tesorería y de los flujos futuros de caja presupuestados, y el factor de liquidez presenta el problema de no tener una relación directa entre los componentes del capital circulante y los flujos futuros de tesorería. Por ejemplo, las cuentas por cobrar y los inventarios, que son de los principales componentes del factor de liquidez, tienen en realidad como objetivo servir como magnitudes para la determinación de la rentabilidad bruta y la eficiencia de los activos productivos, y no de la liquidez. Además, en el caso de las cuentas por cobrar, éstas no garantizan las futuras entradas netas de tesorería. En realidad el factor de liquidez es un superávit líquido disponible en un momento del presente, que no se mantendrá necesariamente en el futuro inmediato. Esto quiere decir que mide la capacidad del activo circulante actual y sólo es capaz de compensar los desequilibrios en el flujo de fondos durante períodos incluso menores al crédito al contado y crédito comercial, que en promedio es de treinta y sesenta días. En conclusión, los objetivos realmente válidos que se pueden alcanzar con el factor de liquidez y sus correspondientes ratios son los siguientes: 1. Medir la calidad de los activos circulantes y la naturaleza de los pasivos circulantes del ratio. 2. Medir la tasa de rotación de los activos y pasivos circulantes para generar tesorería (lapso medio de tiempo de inflows) y determinar el máximo de tiempo para aplicarla (outflows). 3. Medir a través del capital circulante, las reservas de activos o fondos líquidos a favor de la empresa. Esta última medida es la que indica la liquidez en su concepto de tesorería estática. 4. Determinar en qué medida el exceso de activo circulante sobre el pasivo circulante está cubierto, así como que margen de seguridad proporciona dicho exceso. Esta visión con respecto al pasivo circulante corresponde a un criterio de liquidación, pues se habla de “cubrir” en lugar de “reembolsar”. Además, este supuesto está condicionado a que el tesorero no haya optado por una estrategia como la del apalancamiento financiero que da lugar a un déficit del capital circulante. 19 El tamaño de una empresa grande se puede determinar con base al importe de sus activos, importe de sus ventas totales, número de empleados, importe de sus beneficios, etc. Es decir, se consideran magnitudes financieras y físicas. 20 Por eso se dice que el activo circulante tiene naturaleza autorenovable (las cuentas por cobrar liquidadas se sustituyen por otras) y el pasivo circulante tiene naturaleza refinanciable, y en ambos casos el proceso es ininterrumpido a menos que fracase la empresa. ___________________________________________Capítulo 6: Las Variables Independientes 230 5. Medir a través del capital circulante, la estructura de entradas futuras de tesorería con relación a las salidas. Sin embargo, como ya indicamos el coeficiente de liquidez es defectuoso pues considera sólo partidas del balance general que son componentes estáticos, y no incluye otros dinámicos como las cuentas de resultados. Es importante decir que en general la liquidez adquiere únicamente interpretación cuando se le relaciona con los activos totales o las ventas, pues le dan un carácter dinámico. Por eso en los estudios predictivos se ha incluido principalmente al concepto dinámico de cash flow para representar a la magnitud de liquidez. Todos los anteriores hechos negativos y limitaciones del factor de liquidez han llevado a que el principio contable de “negocio en marcha” o “continuidad de la empresa”, dentro del análisis financiero de la liquidez, se deba enfocar no en el concepto estático, sino en el concepto dinámico de la empresa. Esto último fue lo que dio origen al concepto del factor de cash flow, el cual fue reconocido por los principales organismos contables y financieros de todo el mundo a partir de las décadas de los sesenta y setenta, y a continuación lo comentaremos. Ratio de capital Circulante o Coeficiente de Liquidez circulante (R 28 del modelo): activo circulante / pasivo. El importe absoluto del capital circulante únicamente tiene significado si se relaciona con otras variables importantes como las ventas y los activos totales. Un análisis eficiente de la tendencia del coeficiente de liquidez a través del tiempo se puede llevar a cabo mediante el análisis de tendencias y el análisis proporcional. En el primer caso, los componentes del capital circulante y el coeficiente de liquidez se traducen a un índice para efectuar las comparaciones longitudinales. En el segundo caso, se analiza la composición del activo circulante a lo largo del tiempo. También es importante llevar a cabo una comparación proporcional y una de tendencias históricas. Con respecto a la lectura del coeficiente de liquidez a través del tiempo, sus aumentos o disminuciones no deben interpretarse de forma aislada, ya que debemos considerar otros elementos tales como la inflación, la expansión económica, las compensaciones, la manipulación de sus componentes, etc. Ante esto se recomienda llevar a cabo lecturas intermedias sobre este ratio para evitar conclusiones equivocadas y para llegar a determinar la real cobertura del pasivo circulante. Normalmente los ratios de liquidez se comparan con los del sector. Si el ratio es superior a la unidad, indica que el fondo de maniobra es positivo y que el capital circulante puede cubrir la totalidad del pasivo a corto plazo. Así, si una empresa obtiene dicho coeficiente no tendrá problemas de tesorería siempre que la velocidad de transformación del activo circulante en líquido sea por lo menos tan rápida como el grado de exigibilidad de la deuda a corto plazo. En cambio, si el coeficiente de liquidez es inferior a la unidad, indica que algunos créditos a corto plazo financian una parte del activo fijo, o bien, que la empresa ha tenido pérdidas en los ejercicios anteriores. Estos últimos supuestos no son graves cuando existe una aceptable velocidad de rotación de los inventarios, un plazo medio de cobro de las cuentas por cobrar eficiente y un plazo medio de pago a los proveedores aceptable. Ratio de cobertura de gastos de explotación (R29 del modelo): activo circulante menos inventarios / media diaria de gastos de operación. Este ratio en lugar de evaluar los activos líquidos con respecto al pasivo circulante, se enfoca a medir si los primeros son suficientes con relación a los outflows regulares de la empresa. Es decir, se quiere ver si existe cobertura para cubrir los gastos de operación o explotación. Este coeficiente indica si hay suficientes activos líquidos para financiar la operación durante un determinado número de días sin tener tesorería. Otros analistas lo interpretan simplemente como un indicador que mide la capacidad para el pago de obligaciones a corto plazo sin vender inventarios (“acid test ratio”). Ratio o Coeficiente de Tesorería: tesorería + equivalentes / pasivo circulante (R30 del modelo). Dado que el ratio de liquidez no expresa más que un equilibrio financiero a corto plazo en el momento del cierre del balance y variando su valor de forma significativa a lo largo del año (sobre todo en empresas con marcada actividad estacional como el caso de los hoteles), es necesario calcular también el ratio de liquidez reducida o relativa, también conocido como coeficiente de tesorería ___________________________________________Capítulo 6: Las Variables Independientes 231 (“quick ratio”). Este ratio indica una aproximación de la capacidad inmediata de la empresas para el pago de sus pasivos circulantes. Lo más frecuente es que sea inferior a la unidad ya que los inventarios están financiados por pasivos circulantes. Esto en la práctica no representa ningún problema, máxime si la tasa de rotación de los inventarios es muy elevada. Cuanto más alto es este ratio indica que más líquido es el conjunto del activo circulante, por lo tanto, en caso de liquidación de la empresa, la pérdida será mínima en el activo circulante y el período de conversión inexistente. También este ratio indica el nivel de tesorería disponible para el pago de las obligaciones corrientes. El coeficiente de tesorería es una extensión del coeficiente de liquidez a corto plazo. Hasta la fecha no existe ningún indicador estándar sobre el nivel óptimo del ratio, pues dicho nivel varía de acuerdo al giro de la empresa y a la consistencia propia de cada uno de los valores del pasivo circulante, así como a la política de crédito y cobranzas de la empresa. Ratio o Coeficiente de rotación del promedio de cuentas de cobrar (R31 del modelo)): ventas netas a crédito / promedio de cuentas por cobrar. Este ratio evalúa la calidad del capital circulante y del coeficiente de liquidez, así como la calidad y liquidez de las cuentas por cobrar que están influidas a su vez por su tasa de rotación. Aquí la calidad significa la capacidad de cobro sin pérdidas. Normalmente cuanto más tiempo permanecen pendientes las cuentas por cobrar, se incrementa la cartera vencida y aumenta la probabilidad de morosidad. En este ratio la rotación es un indicador de la antigüedad de las cuentas por cobrar, la cual se recomienda se le compare con una tasa de rotación predeterminada, que puede ser la del promedio del sector al que pertenece la empresa. El coeficiente de rotación está relacionado con la velocidad promedio en que las cuentas por cobrar se convierten en tesorería. Cuando esta rotación se estima correctamente, representa una de las mejores medidas del factor de liquidez. En general, la cifra de rotación del promedio de cuentas por cobrar indica cuantas veces se han renovado las cuentas por cobrar durante un año comercial. Sin embargo, otra alternativa que se tiene, en lugar de considerar el número de veces, es la conversión de la cifra de rotación en número de días de ventas inmovilizados en cuentas por cobrar. Aquí se mide el número de días necesarios para cobrar las cuentas, en lugar del número de veces durante el año. Esto se obtiene dividiendo el coeficiente de rotación promediado de cuentas por cobrar entre 360 ( Ratio de la BMV). Ratio o coeficiente de rotación de inventarios (R 32 del modelo): coste de ventas/promedio de inventarios. Los inventarios están considerados como el componente menos líquido del activo circulante. Por eso para una evaluación complementaria del coeficiente de liquidez es importante llevar a cabo una evaluación completa sobre la calidad y liquidez de los inventarios. En este caso, también las medidas de rotación representan una de las mejores herramientas para dicha evaluación. Los coeficientes de rotación de inventarios proporcionan medidas sobre la calidad y la liquidez dentro del activo circulante. Esto indica que la calidad se traduce en una medidas de capacidad por parte de la empresa en marcha (“going concern”) para utilizar o vender sus inventarios sin riesgo de pérdida. En el caso de una empresa en liquidación (“gone concern”), la calidad representa la capacidad que tiene la empresa para enajenar sus inventarios y recuperar el coste de adquisición de éstos. Este ratio mide la velocidad media a la que los inventarios entran y salen de la empresa, y para su cálculo se utilizan precios de coste. El promedio de los inventarios se puede calcular entre los cuatro trimestres del año para obtener una medida más correcta, siempre y cuando exista una consistencia en los métodos de evaluación. Los inventarios constituyen una magnitud muy significativa dentro del activo circulante. Si el nivel de inventarios es deficitario, el volumen de ventas quedará por debajo del nivel en que podría realizarse. En cambio, si existe un exceso de inventarios, la empresa estará incurriendo en una inmovilización negativa de fondos. Una tasa de rotación inferior a la obtenida históricamente o a la del sector de la empresa, indica que existen productos obsoletos o con poca demanda. Por otra parte, el coeficiente de rotación de inventarios también mide la liquidez con relación a la velocidad en que los inventarios pueden ser convertidos en tesorería. ___________________________________________Capítulo 6: Las Variables Independientes 232 Ratio de Liquidez (R 36 del modelo): capital circulante neto / activo total. Altman lo consideró con base en la forma tradicional de medir la liquidez y lo propuso como la medida más eficiente entre los múltiples ratios de liquidez (variable X1). Según este autor, cuando una empresa experimenta pérdidas operativas de forma continua, tiene de inicio fuertes disminuciones en sus activos circulantes con relación al total del activo. Esta medida refleja la cantidad neta de activos líquidos relativa a la capitalización total. Es una medida del activo líquido neto de la empresa con relación a la capitalización total. Altman entendió al capital de trabajo como la diferencia entre los activos circulantes y los pasivos circulantes.. Esta variable la seleccionó considerando que dio los mejores y más consistentes resultados en la investigación de Merwin. Ratio de retorno del capital o intervalo sin crédito (R41 del modelo): activo circulante (menos inventarios) menos pasivo circulante /gastos de explotación menos (amortizaciones más provisiones). Este ratio a nivel univariable da por lo general resultados malos. Sin embargo, para Altman representa una de las variables independientes más importantes en orden de contribución para la eficiencia global del modelo. Según de la observación que dedujo Altman de su coeficiente estandarizado, este ratio consigue niveles muy altos de eficiencia cuando se combina de forma multivariable, mide la rotación de los activos totales y el volumen de ventas o facturación de la empresa, y es un indicador del número de días que los activos defensivos son capaces de hacer frente a las salidas de tesorería provocadas por los gastos de explotación sin ningún tipo de ayudas adicionales. Para Altman esta magnitud es un estándar financiero importante que nos indica la capacidad de las ventas para generar los activos de la empresa. 6.6. FACTOR DE CASH FLOW. La creciente complejidad del sistema contable basada en el devengo y utilizando únicamente el factor de liquidez, no permite de forma exacta determinar a priori los flujos de tesorería. Si tomamos en cuenta que en lugar del beneficio neto, es la tesorería la que realmente se utiliza para pagar los pasivos; reponer y ampliar el activo fijo material e inmaterial; y cubrir los dividendos, se puede entender que su medición y administración es importante en cualquier empresa compleja. Con respecto a la medición adecuada de los inflows y outflows procedentes de diversos orígenes (la explotación, la financiación y la inversión), estos constituyen una importante herramienta analítica en la evaluación dinámica de la liquidez, la solvencia y los resultados de explotación. Sin embargo, dicha medición presenta serios problemas en cuanto a su cálculo y en cuanto a la comprensión de su denominación. En cuanto al cálculo de la cifra de tesorería, según Bernstein (1999), ésta es a menudo simplista, incorrecta y engañosa; máxime si se tiene en mente objetivos concretos de persuasión por parte de quienes la deben determinar. En cuanto a la comprensión de su denominación, pocos términos analíticos han sido tan ampliamente utilizados y al mismo tiempo tan mal interpretados como el cash flow, concepto que también es conocido como: flujos de tesorería, fondo de explotación o recursos generados. Estos términos no son sinónimos de otros tan distintos en su contenido, y que sin embargo, suelen confundirse con frecuencia (tal es el caso del capital circulante, capital de trabajo, circulante neto, capital de maniobra, activo circulante, activo líquido, fondo de rotación, fondos de tesorería, entre algunos otros). Dada la situación anterior, es importante definir y comprender desde el inicio de un estudio relacionado con el factor de cash flow, el exacto significado y contenido de cada término dentro de su contexto financiero y contable, pues estas palabras por sí solas carecen literalmente de sentido. Con base en esto y para desarrollar mejor el análisis del factor, se ha elaborado el cuadro x como una propuesta para la diferenciación de los anteriores conceptos. El concepto de cash flow nació en los Estados Unidos de Norteamérica en 1960. A partir de ahí, su popularidad se ha ido acrecentando notablemente hasta llegar al punto de dar origen a un estado ___________________________________________Capítulo 6: Las Variables Independientes 233 financiero que lleva su nombre y que actualmente es considerado como un reporte básico en las empresas. El factor del cash flow se puede analizar desde un aspecto estático (balance) y desde un aspecto dinámico (flujos de caja). En el primer caso, el cash flow se entiende como los recursos obtenidos o generados, es decir, es la suma de los beneficios netos más las amortizaciones que se presentan en un período de tiempo determinado. Para muchos autores el concepto estático es incorrecto. Ya en 1963, el Instituto Americano de Expertos Contables aclaró que la magnitud de los fondos provenientes de la explotación, no representaban en su totalidad al cash flow, pues los recursos generados por el tráfico de la empresa, aunque podían pertenecer a la autofinanciación, no incluían todos los flujos de dinero, sino solamente una parte del estado financiero de la empresa. Coincidiendo con este punto de vista Jaedicke y Sprouse (1970, p. 132)21 afirmaron que el cash flow proveniente de la explotación era sólo un elemento más del fondo de rotación, ya que existían otras fuentes de éste que incluso podían llegar a ser hasta más importantes. Además, agregaban que también se podían presentar importantes aplicaciones de fondos de rotación que no fueran considerados en el cálculo del cash flow. Con base en esto, diversos analistas ya habían llegado a la conclusión de que una práctica equivocada sobre el concepto del cash flow podía ser causa de errores de interpretación. Sin embargo, según una encuesta que llevó a cabo la Federación Europea de Asociaciones de Analistas Financieros22, en Europa hasta 1969 se continuaba utilizando el concepto de cash flow en su aspecto estático. En 1963, el “Accounting Principles Board” (APB) aprobó el “Opinion No. 3” que trataba sobre el estado de origen y aplicación de fondos. Este documento había tomado como base al “Accounting Research Study” (ARS) de Mason (1961), el cual recomendó que no se utilizara el concepto de cash flow si no se tenía un análisis con estadísticas complementarias de los “Fund Flows”. Este estudio, cuyo título era: “Cash flow Analysis and the Funds Statement”, trataba sobre el concepto del cash flow dentro de los estados financieros de las distintas empresas, y además, analizaba los problemas técnicos que se presentaban en la preparación y presentación del “Funds Statement”. Sin embargo, hasta 1971 fue cuando el “APB Opinion No. 19” exigió a las empresas que presentaran un estado de cambios en la situación financiera como informe básico, donde se explicaran los cambios de capital circulante o tesorería. En 1973, se emitió el famoso “Informe Trueblood” con el fin de establecer varios de los objetivos de los estados financieros, para contar con una estructura metateórica en donde pudieran basarse los estándares que desarrollaría el recién creado “Financial Accounting Standars Board” (FASB). Entre uno de estos objetivos, se estableció que la información financiera debía ser útil para los inversores y acreedores con el fin de predecir, comparar y evaluar los cash flows potenciales en términos de importes, periodicidad e incertidumbre. En 1987, el FASB emitió el Statement No. 95: “Statements of Cash flow ”. Posteriormente, en 1988 se emitió el “Statement No. 102”, y para 1989 el “Statement No. 104”. Todos estos pronunciamientos analizaban con gran profundidad el concepto, la presentación y la interpretación del cash flow. En 1977, el Comité de Normas Internacionales de Contabilidad emitió el NIC No. 7 titulado: “El Estado de Origen y Aplicación de Fondos”, aclarando que éste se debía entender como un sinónimo del estado de cambios en la posición financiera. Este pronunciamiento indicó el modo de presentar la procedencia de los fondos obtenidos para financiar las actividades, así como las aplicaciones que de ellas realizara la empresa. Por otra parte, la “Securities and Exchange Commission” (SEC), dentro de sus regulaciones “S-X” que venía desarrollando desde 1940, incluyó una sólida reglamentación contable para los requerimientos de los estados financieros que se le tenían que presentar. En su artículo No. 11, 21 Jaedicke y Sprouse (1970): “Accounting Flows Income, Funds and Cash”; Edit. Dunod. París 22 Encuesta elaborada por las Comisiones Permanentes de Estandarización y Terminología de la Federación. Europea de Asociaciones de Analistas Financieros; Revista Técnica Contable; Tomo XXI; 1969; p.201. ___________________________________________Capítulo 6: Las Variables Independientes 234 estableció que era un requisito incluir en los informes financieros sobre el capital de los accionistas, la información sobre los flujos y aplicación de fondos dentro de los estados financieros. A partir de todos estos esfuerzos normativos, se logró desarrollar mejor la definición original del cash flow, hasta llegarse a alcanzar un enfoque dinámico, es decir, como flujos de dinero. Actualmente, el cash flow se calcula por la diferencia entre los inflows y los outflows durante un período determinado. Desde un punto de vista financiero, la aplicación del cash flow como flujo financiero, tiene como uno de sus objetivos principales: permitir apreciar la capacidad de la empresa para financiar sus inversiones. Pero si sólo se considera a tal concepto como el beneficio neto más las amortizaciones, se llega a la estimación de una magnitud incompleta, pues no se incorporan las demás fuentes de financiación de la empresa. El concepto dinámico de cash flow se contrapone a su concepto estático, principalmente porque el primero parte de la tendencia americana que considera al dinero o tesorería como flujos dinerarios. Las corrientes de inflows y outflows originan modificaciones patrimoniales en las masas del activo, pasivo y capital neto, que normalmente es “capital liquido activo”. Por otra parte, las variaciones del cash flow dinámico en un período determinado, están dadas por la diferencia entre la suma de los saldos de la cuenta de la tesorería al inicio y al final del período, y para obtener estos datos, es necesario disponer de un balance, un estado de resultados y los flujos que han desembocado en esos dos estados. Para ello es necesario elaborar entonces el tercer estado básico que es el del cash flow. Para introducirnos más a este tipo de informe, es importante considerar que los flujos de tesorería son diferentes del beneficio neto. A partir de esto, veremos que el estado de resultados no es el informe que nos puede permitir ver realmente la tesorería que está saliendo y entrando en la empresa. Estas diferencias surgen principalmente por los siguientes dos motivos: a) El estado de resultados no reconoce los gastos de capital y los gastos realizados en el año en que se pagan los bienes de capital, pues reparte estos gastos a lo largo del tiempo con base a un prorrateo denominado amortización o depreciación.23 b) El estado de resultados utiliza el método de ajuste contable, es decir, los ingresos y los gastos se reconocen cuando se incurre en ellos (devengo) en lugar de cuando entra o sale tesorería de la empresa. Precisamente para resolver las anteriores limitaciones, se procede a elaborar el estado de cash flow con el fin de mostrar los inflows y los outflows, derivados ambos de tres actividades que son: las ordinarias, las de financiación y las de inversión. En cuanto a la confusión de la terminología que se relaciona con este factor, podemos decir que el cash flow estático y el cash flow dinámico son conceptos diferentes entre sí, pero también con respecto al cash fund, el cual representa a aquellos fondos de caja que se componen de efectivo o activos casi líquidos, como la caja que es un activo realizable. Por otra parte, el operating fund es ni más ni menos que el activo circulante o capital de maniobra. En el caso del cash position, nos referimos a este cuando queremos ver el exceso del activo circulante sobre el pasivo circulante, o bien, el exceso de capital permanente sobre el activo fijo. Esta magnitud por diferencia, es también conocida como activo circulante neto o capital circulante neto. El cash flow en algunos casos también se ha llegado a considerar como un criterio de rentabilidad. Aquellos analistas que lo utilizan como tal, basan su cálculo sobre los beneficios netos reales, incluyendo el dividendo en acciones ordinarias, y excluyendo los resultados extraordinarios y los que no son atribuibles a las acciones ordinarias (como las dotaciones para previsiones de cargos diferidos de más de un año, teniendo en cuenta además aquellos ajustes por amortizaciones). Al final de este proceso, el índice de rentabilidad (autofinanciación) queda expresado como: beneficios netos más 23 El tecnicismo de amortización se utiliza para activos fijos intangibles, en tanto la depreciación se utiliza para activos fijos tangibles. ___________________________________________Capítulo 6: Las Variables Independientes 235 amortizaciones / capital invertido, es decir, este factor se vuelve a considerar desde un concepto estático. En opinión de la Federación Europea y la Federación Americana de Analistas Financieros, se ha recomendado no considerar al cash flow como un índice de rentabilidad, por lo cual este criterio no es de amplia aceptación. CUADRO 6.8. DIFERENTES MAGNITUDES DE LA LIQUIDEZ ESTATICA Y DINAMICA. OBSERVACIONES CONCEPTO OTRAS NOMBRES EN ESPAÑOL OTROS NOMBRES EN INGLES COMPONENTES Fondo de Caja Activos Líquidos Fondo de Tesorería Activos Exigibles Cuentas por Cobrar (a Clientes y Deudores) + pagos anticipados en caso de incumplimiento Activo Circulante (Inventarios + Cuentas por Cobrar a clientes y deudores) 1er Criterio: Caja + Bancos + Inversiones Financieras Temporales (cartera de renta) 2o Criterio: Beneficios Netos + Amortizaciones Impuestos (recursos generados) Caja, bancos, cuentas por cobrar, inversiones temporales, inventarios, otros activos circulantes Exceso de Activo Circulante sobre (-) Pasivo Circulante Exceso de Capital Permanente sobre (-) Activo Fijo Cash Fund Caja + Bancos Activos Disponibles Activos Rápidos Tesorería Recursos Generados Cash flow Es una Fuente de fondos. Las otras fuentes son las obligaciones e inversiones. Esta cifra se estima mejor a través del Estado de Cash flow (boletín B-11 del IMCP, México; FASB Statemet no. 95; USA) Activo Circulante Capital de Maniobra Operating Fund Activo Circulante Neto o Capital Circulante Neto Capital de Trabajo Circulante Neto Capital Circulante Fondos Fondo Circulante Fondo de Maniobra Fondo de Rotación Working Capital Cash Position Fund Fund Flow Es la capacidad de Pago a corto plazo o los fondos de la compañia. Esta cifra se obtiene a traves del Estado de Origen y Aplicaciön de Fondos (boletín B-12 del IMCP; APB Opinion No. 19, USA) *Es común que el concepto de fondos se considere como activo circulante neto DIFERENTES MAGNITUDES DEL FACTOR LIQUIDEZ Activos Líquidos Activos Exigibles Activo Disponibles Tesorería Activo Circulante Activo Circulante Neto FUENTE: Elaboración propia. ___________________________________________Capítulo 6: Las Variables Independientes 236 A partir del reconocimiento del IASC, FASB, SEC, entre otros organismos de prestigio mundial, en México también se consideró como básico el estado de cash flow. Para ello, el Instituto Mexicano de Contadores Públicos promulgó el Boletín B-11: “El Estado de Cash flow”24, con el objetivo de exigir a las empresas su inclusión como un estado financiero básico. Este estado tiene como objetivo inicial, mostrar el origen de los fondos en su concepto de tesorería, así como las aplicaciones que se llevan a cabo en dos o más ejercicios. Normalmente este documento se presenta por cinco años futuros, es decir, es un estado proforma. Por otra parte, el FASB ya había considerado que el estado de cash flow debía sustituir al estado de “cash position”, pues el primero proporcionaba información más relevante en cuanto a la mejor determinación de la liquidez y la solvencia. Algunos puntos importantes que se tomaron en cuenta con relación al cash flow, fueron que este factor debía contar con estándares adecuados antes de utilizarlo dentro del análisis financiero. Para ello los datos contables tenían que ser: claros, confiables y válidos. Por otra parte, era importante definir claramente que se entendía por "fondos" y como se presentaban éstos en los reportes de cada una de las empresas, pues el criterio podía ser totalmente diferente entre ellas en cuanto a la "medición de fondos"; lo cual reducía la relevancia de la información financiera. Para alcanzar este objetivo, los estándares contables de los estados financieros sobre el estado de cash flow se especificaron en el “Satement No. 95, permitiendo con esto un formato estandarizado que incrementó la relevancia de la información financiera. Según Carmona y Carrasco (1993), el concepto de “fondo” tiene actualmente tres significados distintos que son: a) como cantidad de dinero en efectivo o tesorería; b) como fondo de maniobra; y c) como activo total. En el primer caso, cuando el análisis del origen y aplicación de los fondos se considera bajo el concepto de tesorería, el analista debe desarrollar un estado de cash flow. En cambio, cuando el análisis de los fondos se interpreta como fondo de maniobra con el objetivo de obtener un indicador de solvencia, se lleva a cabo la medición de sus orígenes y aplicaciones, es decir, se analizan las variaciones que se operan en el fondo de maniobra para complementar la información estática del balance general, entonces se tiene que proceder a desarrollar un estado de orígenes y aplicaciones de fondos. Por último, cuando se utiliza el concepto de “fondos” como sinónimo del activo total, debemos considerar, además de la tesorería, al capital productivo. En este caso también podemos desarrollar el estado de orígenes y aplicaciones de fondos, aunque con algunas restricciones en cuanto a las transacciones que se presentan. Por ejemplo: es posible tomar en cuenta las aplicaciones al capital provenientes de las reservas, pero no es correcto reconocer las revaloraciones del activo fijo o los ajustes internos de valoración o emisión de algunos tipos de acciones como las liberadas. Ante estos tres hechos o posibilidades, la estandarización llevada a cabo por los organismos contables y financieros, ha permitido un análisis financiero más sistemático de los flujos de efectivo, proporcionando algunas ventajas a través del uso correcto del concepto de cash flow. Lo que a su vez a llevado a evaluar mejor la liquidez y la solvencia. En cambio, con otras medidas de liquidez, tales como el capital de maniobra o el capital de trabajo, sólo se logra obtener magnitudes estáticas e “infladas" por grandes partidas de inventarios, cuentas por cobrar, etc., que oscurecen la verdadera capacidad de pago de la empresa. En el caso de México, para 1990 la Comisión de Principios de Contabilidad sustituyó el Boletín B11: “Estado de flujo de Efectivo”, por el Boletín B-12: “Estado de Cambios en la Posición 24 Otros nombres que recibe este estado financiero son: Estado de Tesorería, Estado de Flujo de Efectivo, Estado de Flujo de Fondos y Estado de Flujos de Fondos a Largo Plazo. ___________________________________________Capítulo 6: Las Variables Independientes 237 Financiera” (cuya base era el capital de trabajo25). La razón de tal sustitución se debió a que el estado con base en los flujos de efectivo se apegaba únicamente a valores nominales. Aunque ambos estados tienen información válida, las bases de su preparación y su significado son en ocasiones diferentes, derivado principalmente por el reconocimiento de los efectos de la inflación en la información financiera. Esta información cuando se produce en moneda constante y existe una baja inflación, el cambio en las partidas monetarias del balance general equivale al flujo de efectivo generado o invertido en dichas partidas. Pero cuando la inflación es alta, los estados financieros deben presentarse en moneda constante o costes actuales para no perder su utilidad y razonabilidad (Boletín B-10, IMCP). A través de la elaboración del estado de cambios en la situación financiera, el IMCP se fijó como principal objetivo: que las empresas mostrasen en moneda constante los recursos generados y aplicados en la operación, así como los principales cambios ocurridos en la estructura financiera dentro de un período, para que posteriormente se reflejaran dichos cambios al final del ejercicio contable como un aumento o disminución de la cifra de cash flow e inversiones temporales. Actualmente la estructura de este estado, integra tres eventos o variables muy importantes para la empresa que son: a) el beneficio o pérdida neta; b) las variaciones en la estructura financiera; y c) el aumento o disminución de recursos durante el período. Por otra parte, el cambio a moneda constante de las partidas monetarias del balance, involucra tanto el flujo de efectivo como su respectiva depreciación o beneficio que la inflación origina en ese cash flow, y que se conoce como: “efecto monetario”. Así, el cambio en las partidas monetarias, de presentar un flujo de efectivo, pasa al de generación o aplicación de recursos en moneda constante. En términos generales, el Boletín B-12 surgió como respuesta a la necesidad de informar sobre los cambios ocurridos en la estructura financiera de la empresa bajo un entorno inflacionario, agrupando sus conceptos correctamente mediante la comparación entre el balance inicial y el balance final (éste último expresado en moneda constante). Con esto se reflejaba mejor el impacto final en el incremento o decremento del efectivo y las inversiones temporales. La presentación del estado de cambios en la situación financiera, expresado en unidades monetarias de cierre del período, cumple así con el objetivo de proporcionar información relevante y condensada para: a) evaluar la capacidad de generación de recursos; b) medir la capacidad de pago de obligaciones y dividendos; c) determinar las diferencias entre el beneficio neto y los recursos generados con los recursos aplicados en la operación; d) determinar la cuantía de las necesidades para obtener financiamiento, y por último; e) analizar y evaluar los cambios ocurridos en la situación financiera de la empresa, producto de las transacciones y decisiones de inversión y financiación a través del período contable. Con respecto al desarrollo de la ecuación contable que nos permite llegar al concepto dinámico del cash flow y al estado de cambios en la posición financiera, debemos partir de la idea de que el término “recurso” es sinónimo de activo circulante neto o capital de trabajo26. Este concepto representa la situación financiera de la empresa, pero además, incluye la capacidad de pago a corto plazo. Partiendo de la fórmula fundamental del balance general, se obtiene la fórmula de origen y aplicación de recursos, es decir: 25 Este estado financiero también es conocido como: Estado de Origen y Aplicación de Recursos; Estado de Origen y Aplicación de Resultados; Estado de Origen y Aplicación de Capital de Trabajo. 26 En finanzas, “recursos” también es sinónimo situación financiera y capacidad de pago a corto plazo. ___________________________________________Capítulo 6: Las Variables Independientes 238 CUADRO 6.8. Ecuación Contable del Estado de Origen y Aplicación de Recursos. FASE 1 1. Fórmula General del Balance: Activo = Pasivo + Capital 2. Fórmula Detallada del Balance: Activo Circulante + Activo Fijo + Activo Diferido = (Pasivo Circulante + Pasivo Fijo + Pasivo Diferido) + Capital FASE 2 3. Fórmula General del Capital de Trabajo: Capital de Trabajo = Activo Circulante – Pasivo Circulante = Liquidez positiva o negativa Entonces: Liquidez Positiva = + Capital de Trabajo + Activo Fijo + Activo Diferido = (Pasivo Fijo + Pasivo Diferido) + Capital => Capital de Trabajo + Activo no Circulante = Pasivo no Circulante + Capital O bien: Liquidez Negativa = Activo Fijo + Activo Diferido = ( -Capital de Trabajo + Pasivo Fijo + Pasivo Diferido) + Capital => Activo no Circulante = - Capital de Trabajo + Pasivo no Circulante + Capital FASE 3 4. Obtención de la Ecuación Fundamental del Estado de Origen y Aplicación de Recursos: Capital de Trabajo = Pasivo no Circulante + Capital - Activo no Circulante En donde, si aumenta el Capital de Trabajo se obtiene: “origen de recursos”, o bien, cuando el Capital de Trabajo disminuye es que hubo “aplicaciones de recursos” HAY ORIGEN DE RECURSOS Es decir: - Activo no Circulante (desinversiones en capital productivo) AUMENTA EL CAPITAL DE TRABAJO CUANDO: + Pasivo no Circulante (obtención de capital ajeno: “apalancamiento”) + Capital Social (obtención de capital propio) HAY APLICACION DE RECURSOS Es decir: + Activo no Circulante (inversiones en capital productivo) DIMSINUYE EL CAPITAL DE TRABAJO CUANDO: - Pasivo no Circulante (pago de obligaciones al capital ajeno) + Capital Social o Reservas (pago a las acciones: dividendos) FUENTE: Elaboración Propia. Con base en el cuadro anterior podemos ver por qué diversos analistas opinan que la información más importante que debe contener el estado de cambios en la situación financiera, para llevar a cabo un buen análisis dinámico, será aquella que indique si la empresa es o no capaz de generar recursos que sean producto de sus operaciones normales (ventas y compras). Por eso, al analizar este estado debemos observar con atención los siguientes dos supuestos que se presentan: a) Siempre que aumenta el capital de trabajo, se genera un aumento en el pasivo no circulante, en el capital contable, y/o disminuye el activo no circulante; como por ejemplo: los préstamos a largo plazo, los beneficios del ejercicio, la venta de activos fijos, etc. ___________________________________________Capítulo 6: Las Variables Independientes 239 b) Siempre que disminuye el capital de trabajo se genera una disminución en el pasivo no circulante, en los fondos propios, y/o aumenta el activo no circulante; como por ejemplo: la liquidación de créditos diferidos, las pérdidas del ejercicio, la compra de activos fijos, entre otros. Para finalizar este breve análisis sobre las fuentes de información que se relacionan con el factor del cash flow, se ha creído oportuno hacer una breve descripción del Estado de Origen y Aplicación de Fondos (Cash Position) 27, el cual nos muestra los orígenes y las aplicaciones de dichos fondos en su concepto de fondo de maniobra en un período pasado, presente o futuro; es decir, tiene un enfoque dinámico. El objetivo principal de este estado es informar de cómo se han financiado las actividades y de cómo se han utilizado los recursos financieros de la empresa, pero sin pretender dar la información relativa a las necesidades de su capital. En la práctica este estado sirve de conexión entre el balance general al comienzo del período, el balance general al cierre del período y el estado de resultados. Para lograr llevar a cabo correctamente ese enlace, las compensaciones que se llevan a cabo deben ser mínimas, ya que éstas pueden oscurecer el significado de las cifras individuales más importantes. Así mismo, las cifras sobre las que se elabora el estado, deben ser exactamente identificables en los otros estados financieros básicos o en las notas explicativas. En el caso de que sean necesarios ajustes a las cifras, se deben aportar detalles que faciliten su rápida localización. Sin embargo, es importante aclarar que aunque el balance general y el estado de resultados no reflejan las variaciones del activo y del pasivo durante el año, ni tampoco el efecto resultante de los fondos líquidos netos, cosa que sí hace el estado de flujo de fondos, en ningún momento éste último reporte puede sustituirlos como base de datos para el análisis financiero, pues únicamente se limita a una selección, reclasificación y resumen de la información que ofrecen los dos primeros, para mostrar que movimientos de fondos han tenido lugar durante el ejercicio. Esto último lleva a que este estado tenga como principal limitación para el análisis del cash flow, el no poder realmente recoger los movimientos de los flujos de tesorería. Por eso, el análisis de “fund flow” (como también se le conoce), se completa con el análisis del estado de cash flow, el cual sí muestra los movimientos de las cuentas de caja y bancos. Aunque el estado de flujos de fondos, al derivarse de dos balances de una misma empresa, no contiene en teoría nada que no pueda ser extraído directamente de ellos, sí sirve para resaltar ciertos puntos importantes que se requieren en un análisis financiero eficiente, como son los dos siguientes: a) Mostrar cómo han llegado los fondos a la empresa de fuentes internas (como el beneficio) y de fuentes externas (como la emisión de acciones y obligaciones), así como cuál ha sido el uso que ha hecho la dirección de ellos. El buen uso de fondos significa generalmente que las partidas de capital circulante o fondo de maniobra se mantienen al nivel más bajo, pero siendo compatibles con la buena marcha de la empresa. Por eso, se dice que este estado muestra el grado de éxito de la dirección en la consecución de un uso eficaz de fondos. b) Debe mostrar claramente los fondos generados o absorbidos por la explotación y la forma en que se ha aplicado el superávit de liquidez, o bien, la forma en que se ha cubierto el déficit de liquidez, distinguiendo entre el corto y largo plazo. Para ello, el estado debe distinguir entre la aplicación de fondos para la compra de activo fijo nuevo y de aquellos fondos destinados a aumentar el capital circulante de la empresa. 27 Otros Nombres que recibe este informe son: Estado de Posición de Fondos, Estado Informativo de Fondos, Estado del Movimiento de Fondos y Cuadro de financiación anual. ___________________________________________Capítulo 6: Las Variables Independientes 240 CUADRO 6.9. PRINCIPALES ORIGENES Y APLICACIONES DE FONDOS PRINCIPALES ORIGENES DE FONDOS PRINCIPALES APLICACIONES DE FONDOS • Beneficio más amortizaciones antes de impuestos • Impuestos y dividendos pagados en el año. y dividendos. • Ingresos por emisión de acciones y obligaciones. • Pago por amortización de acciones y obligaciones. • Ingresos por venta de activos fijos. • Pagos por compra de activos fijos. • Aumentos de pasivo circulante (crédito de • Pago de perdidas de años anteriores menos amortizaciones. proveedores) • Disminuciones del activo circulante • Disminución del pasivo circulante. • Emisión de acciones ordinarias con derecho • Aumentos del pasivo circulante. preferente de suscripción ( ingreso en efectivo para la empresa) Nota: No se deben de considerar los siguientes puntos en los orígenes: las revaloraciones de activo fijo, no se anota ningún hecho que sea mero ajuste interno de valoración y la emisión de acciones liberadas no figura en este apartado pues no hay ingreso de fondos. Fuente: Elaboración Propia. Para concluir podemos decir que la liquidez debe analizarse tanto desde un enfoque estático como desde un enfoque dinámico. Para ello, los numerosos estudios hasta ahora llevados a cabo han utilizado al principio únicamente el factor de liquidez, para posteriormente incluir el factor de cash flow, aunque en su concepto tradicional o estático. En este trabajo se han incluido varios ratios de cash flow para determinar si con ello aumenta la capacidad del factor de liquidez. Sin embargo, numerosos estudios, como el de Bukovinsky (1993), indican que con dicha inclusión no necesariamente se incrementa la exactitud del modelo e incluso hasta se llega a considerar que los factores de liquidez son irrelevantes, ya que están orientados hacia el corto plazo mientras que la quiebra o el fracaso empresarial es un proceso a mediano y largo plazo. Con respecto a los ratios de cash flow, ya desde los estudios pioneros de Beaver (1966), este autor opinaba que se podía esperar que los datos de cash flow tuvieran una especial relevancia en la predicción de una quiebra. En el caso de Bukovinsky (1993) incluyó en su trabajo para medir al cash flow a los siguientes dos grupos de ratios: Ratio de cash flow operativo / pasivo circulante medio (R44 del modelo). Este ratio es una medida dinámica de la liquidez que supera la naturaleza estática del coeficiente de liquidez y fue propuesto por Casey y Bartczack. Ratios para medir las actividades o rendimientos de la operación (R45, 46, 47 ,48 del modelo). Según Bukovinsky, estos ratios sirven para medir los diferentes aspectos sobre la capacidad para generar cash flow y el uso que se da a la tesorería en actividades de operación. Las empresas sanas comúnmente muestran un buen cash flow de operación y por consiguiente deben tener menos confianza en otras fuentes de tesorería. Una pobre generación de cash flow de operaciones puede indicar que la empresa está muy cerca del fracaso o insolvencia. 6.7. FACTOR DE SOLVENCIA. Por decirlo de una forma análoga: así como la rentabilidad contiene a la productividad, y ésta a su vez a la eficiencia; la solvencia contiene a la liquidez, y ésta a su vez a la tesorería. Por eso, la solvencia es uno de los términos más importantes para definir al éxito o al fracaso empresarial dentro de los estudios predictivos, e incluso se llega a considerar que la verdadera causa de que una empresa cese sus actividades, no se debe en muchas ocasiones a la falta de rentabilidad, sino a la de solvencia. Al respecto, Gabas (1990) explica que el factor de solvencia puede tener dos enfoques: a) como solvencia financiera, que es la solidez que tiene la empresa para cumplir sus obligaciones de pago; y b) como solvencia económica, que es la capacidad de generación de beneficios. ___________________________________________Capítulo 6: Las Variables Independientes 241 Ambos conceptos normalmente son los que definen y evalúan a una empresa como solvente. Sin embargo, Gabas también apunta que existe un predominio en la utilización del enfoque financiero cuando se llega a una situación de “insolvencia”. Es decir, se entiende regularmente que hay insolvencia cuando existe una incapacidad para realizar pagos, y no cuando se presenta la incapacidad para generar beneficios, pues en este último caso se interpreta más como un problema de rentabilidad; y por supuesto que la insolvencia y la falta de rentabilidad no son sinónimos, aunque estén ambos factores correlacionados. Para Gabas (1990: p.17), el análisis de los conceptos de solvencia e insolvencia no se debe limitar únicamente al enfoque financiero, sino que también debe analizarse desde el enfoque económico, pues considera que “la expresión evaluación o medida de la solvencia se refiere a la cuantificación o expresión en términos cuantitativos del nivel de éxito o fracaso empresarial, incluyendo la posibilidad de realizar comparaciones entre la situación en varias fechas de una empresa y de distintas empresas entre sí”. Por otra parte, este mismo autor considera que la expresión “evaluación del éxito empresarial”, o bien, “evaluación o clasificación de las empresas”, representan expresiones genéricas. En cambio, al referirse a la “evaluación del fracaso empresarial”, esta expresión tiene un carácter mas específico que se refiere sobre todo a estudios de empresas quebradas. Pero en cualquier caso, el análisis de la solvencia es considerado como sinónimo del análisis del éxito empresarial. Ampliando las anteriores ideas sobre el factor de la solvencia, algunos analistas consideran que en realidad el fracaso se da cuando una empresa no cumple sus objetivos propuestos, y no necesariamente cuando desaparece en el momento del fracaso, pues generalmente ésta tiende a vivir un proceso denominado crisis, la cual se compone de dos importantes etapas que son: el fracaso económico y el fracaso financiero. El fracaso económico consiste en obtener una rentabilidad inferior al coste de oportunidad. Si esta etapa se prolonga, entonces los ingresos tienden a ser inferiores a los gastos, y de no corregirse tal estado se llega a la insolvencia técnica, que es la primera etapa del fracaso financiero. Por otra parte, el término de insolvencia técnica se presenta en el momento en que no se tiene liquidez para cumplir con los pasivos vencidos. Cuando la empresa se encuentra en esta situación, si no se supera dicho estado, los pasivos exigibles tienden a ser superiores a los activos totales, y por consecuencia el capital contable será negativo, poniendo en peligro la continuidad de la empresa. También la insolvencia técnica es considerada como el momento y la frontera entre el fracaso económico y el fracaso financiero. En esta fase es donde se produce la cesación de pagos y de no erradicarse se llega a la última etapa de la crisis denominada: “insolvencia definitiva”. Para Altman (1993, p.4) el fracaso financiero viene determinado por el fracaso económico, y en ocasiones aunque se conozca su existencia durante años, por la falta de una jurisprudencia efectiva y oportuna no se declara la insolvencia técnica. En este caso las empresas continúan su actividad aunque sin ninguna posibilidad de éxito empresarial. Por ejemplo, en los trabajos de Argenti28 se expone el caso del Reino Unido. Según este estudio, aquí el número de empresas que se liquidan cada año es reducido, aunque una de cada diez de éstas se encuentran prácticamente en una situación de fracaso o insolvencia económica dada su baja rentabilidad, la cual posteriormente provoca insolvencias financieras en lapsos inferiores a 2.5 años. El mismo Altman considera que la insolvencia técnica puede llegar a presentarse bajo dos condiciones que son: a) con deterioro económico previo (fracaso económico), y b) sin deterioro económico previo (éxito empresarial). Con respecto a esto, Bathory (1984) opina que el fracaso empresarial se presenta básicamente con la insolvencia que tiene tres momentos o etapas que son: a) la Insolvencia Aguda: que es la falta de liquidez a corto plazo para el pago de pasivos vencidos; b) la Insolvencia Crónica: que se refiere a la falta de liquidez para pagos de pasivos que comprenden dos o más ejercicios económicos; y c) la Insolvencia Terminal: que es la falta de capacidad para financiar cambios permanentes en el estado de situación financiera. 28 Op. cit. por Lizarraga. ___________________________________________Capítulo 6: Las Variables Independientes 242 6.7.1. RELACION ENTRE LA INSOLVENCIA Y EL TERMINO CESACION DE PAGOS. Desde un punto de vista jurídico, podemos ver que la cesación en la mayoría de las veces tiene una estrecha relación con la insolvencia. La cesación o suspensión de pagos es un concepto técnico y jurídico, producto del derecho comparado que alude y presupone un estado patrimonial, y sobre todo descansa en un concepto de insolvencia. Por eso la Ley de Quiebras y Suspensión de Pagos Mexicana (LQSPM: p. 19) indica que no se debe de partir del concepto de cesación de pagos, sino del concepto de insolvencia, el cual sí constituye el “basamento económico de la quiebra”. Esto indica que no es posible la detección de la insolvencia únicamente desde una apreciación externa de tipo económico y financiero. La misma ley ha establecido una serie de hechos de quiebra cuya apreciación es sólo parcialmente externa y objetiva con el fin de presumirse una quiebra. Es en este sentido que el artículo 2º de la LQSPM ha definido a la cesación de pagos como “la insolvencia presumida por el juez salvo prueba en contrario”. El factor de solvencia es muy importante matizarlo cuando se aborda desde un enfoque concursal, pues el incumplimiento de pagos en general no debe confundirse con la insolvencia o con la cesación de pagos, ya que puede existir incumplimiento genérico en el pago de los pasivos vencidos, sin que exista necesariamente insolvencia y sin que el juez pueda establecer la cesación de pagos, o bien, se puede estar en cesación de pagos, sin que exista incumplimiento generalizado en el pago de los pasivos vencidos. Con esto se descarta la idea de que la cesación de pagos sea necesariamente sinónimo de quiebra (al menos para efectos jurídicos). En el caso de México, LQSPM reconoce que existen dos tipos de cesación de pagos que son: la cesación de pagos directa (que es a través de una presunción del mismo empresario) y la cesación de pagos indirecta (que la presumen los acreedores principales). En ocasiones algunas quiebras se basan en el hecho que se presentó alguno de estos tipos de cesación de pagos, sin embargo, dicha declaración podría ser destruida si se presentan pruebas en su contra. Además, estas pruebas no tienen el objetivo de negar la existencia de los hechos o síntomas de una quiebra, sino consisten en aportar elementos o información de tipo financiero y económico acerca de que se cuenta con un activo disponible capaz de hacer frente a las obligaciones líquidas y vencidas, negando con esto que exista un estado de quiebra que deba formalizarse en ese momento. Esto se logra a través de un acuerdo entre los deudores y acreedores, en donde se unifican criterios para valorar a la empresa en cuestión. Con respecto a los ratios de solvencia, éstos principalmente miden la porción de activos financieros por deuda de terceros. También miden la capacidad para cubrir intereses de la deuda y compromisos inmediatos, así como la capacidad del servicio de la deuda. La medición de este último aspecto es considerada muy importante para la predicción de quiebras, pues los ratios tratan de determinar el estado de solvencia o insolvencia, y la capacidad de pago de los intereses y el principal por parte de la empresa. Otros autores consideran que los ratios de solvencia miden principalmente tres aspectos que son: a) la capacidad de pago para cumplir con obligaciones a largo plazo; b) la capacidad que tiene la empresa para endeudarse; y c) la extensión con que la empresa ha sido financiada por medio de deudas (apalancamiento). En general, en los ratios de solvencia se distinguen dos grandes grupos: a) aquellos que miden la protección al pasivo; y b) aquellos que miden la protección al activo. Pero sin duda que el ratio más representativo de este factor es aquel que mide la solvencia global. Normalmente se considera que con este ratio se obtiene un indicador sobre las garantías que tiene la empresa para cumplir sus principales compromisos. Cuando el ratio es inferior a la unidad, puede existir una situación de crisis o hasta de quiebra. Cuando es igual, indica una garantía límite, y en el caso de que sea mayor a la unidad indica que los compromisos financieros están garantizados con los bienes del activo. A continuación ampliamos un poco más su definición. ___________________________________________Capítulo 6: Las Variables Independientes 243 Ratio de Solvencia Global (R51 del modelo): pasivo total / activo total. Este coeficiente se considera el más importante de los ratios de endeudamiento y mide la proporción de activos financiados por deuda total. El coeficiente indica que recursos ajenos tiene invertidos la empresa en cada unidad monetaria del activo total. Es la situación opuesta del ratio de independencia financiera, por lo tanto, cuanto mayor es el coeficiente más depende la empresa de los recursos ajenos. Los coeficientes extremos son: cercano a cero cuando existe dependencia negativa, o bien, cercano a uno cuando existe dependencia absoluta por ausencia de recursos propios. Ratio de Estructura Financiera (R52 del modelo): valor de mercado de los fondos propios / valor contable de los pasivos. Este ratio utilizado en el modelo Altman (X4) exige un mercado cotizado para la empresa, y para este autor es una medida en donde los activos pueden disminuir su valor antes de que las deudas los superen y se presente el fracaso. Calculando su numerador en base a valores contables, el ratio constituye una medida clara de endeudamiento. Su expresión original está alterada precisamente por la heterogeneidad de las cotizaciones, pero para el caso de su aplicación en empresas que no cotizan, se opta por utilizar únicamente valores contables. Para Altman el capital contable es medido a través de la combinación del valor de mercado de todas las acciones (preferentes y comunes) con respecto al pasivo (que incluye al circulante, fijo y diferido). Este indicador le mostró que tanto los activos pueden disminuir su valor (al considerar el valor de mercado del capital contable más el pasivo). También Altman propuso como alternativa, el utilizar otro ratio que es muy efectivo como predictor y era el ratio: capital neto (activo neto - capital contable) / pasivo total (valor en libros). Sin embargo, algunos analistas consideran que las acciones preferentes en realidad deben considerarse como deuda ajena pues su dividendo es acumulativo y no participan de las pérdidas. 6.8. FACTOR DE ENDEUDAMIENTO. El factor de endeudamiento se puede definir como aquel que presenta la situación de la estructura de capital, la cual se determina en principio a partir de la relación entre los fondos ajenos y los fondos propios. Como sabemos, los fondos ajenos tienen un rendimiento garantizado y además se sabe con exactitud el tiempo de su reembolso y el tipo de interés devengado, situación que se ignora en el caso de los fondos propios. El comportamiento del factor de endeudamiento indica que a medida que su proporción es más significativa dentro de la estructura de capital, más altos son los gastos fijos. Esto puede llevar a un exceso de dependencia del exterior y a la pérdida del control de la empresa por parte de los accionistas, lo cual a su vez conlleva a un riesgo sobre el capital propio. En cambio, el endeudamiento en proporciones adecuadas, representa una sana financiación para el desarrollo de la empresa, pues representa un origen de fondos más barato con respecto al capital propio. Otra ventaja que representa un endeudamiento razonable, es que en épocas de inflación la empresa distribuye el riesgo sistemático entre los accionistas y los acreedores. También es importante al analizar este factor, constatar hasta que punto efectivamente varía el coste de capital ante las diferentes estructuras de capital, pues existen opiniones encontradas al respecto. De acuerdo con Miller y Modigliani (1958)29, en un mercado perfecto el coste de capital de una empresa no se ve afectado, excepto por la deducción fiscal de los intereses. En general, los ratios de endeudamiento miden los diferentes componentes de la estructura del capital con respecto al total de esta magnitud. También se utilizan para determinar que otras deudas tiene la empresa con el fin de saber el grado de apalancamiento financiero que existe. Este último término, que simplifica la utilización de la deuda para aumentar la rentabilidad esperada del capital propio, se mide a través del ratio pasivo a largo plazo / pasivo a largo plazo más capital propio. También se 29 Miller and Modigliani (1958): “The cost of Capital: Finance and Theory of Investement”; American Economic Review; July:p.261-297 ___________________________________________Capítulo 6: Las Variables Independientes 244 puede utilizar la relación entre los activos totales y el capital propio que los financia. En este caso, cuantos más activos logre financiar la empresa sobre la base del capital propio, más alto será el coeficiente de apalancamiento financiero. Así, las empresas que logren hacer un uso más eficiente del apalancamiento financiero, incrementarán su tasa de rentabilidad sobre la base de los recursos propios. Al igual que en los anteriores factores que ya hemos analizado, en el caso de una economía que presenta altas tasas de inflación, es importante tener en cuenta que dentro de la estructura de capital existen partidas en donde los coste históricos y los costes actuales son muy diferentes entre sí. En el caso del análisis del endeudamiento, la mayoría de las cuentas que componen los fondos propios deben ser reexpresadas, según lo indica el Boletín B-10. Al revisar los antecedentes históricos sobre los modelos predictivos, se ha visto que en varios estudios los autores incluyen en un mismo factor a la solvencia y al endeudamiento, pues consideran que el objetivo de ambos es medir el grado de liquidez a largo plazo de la empresa. Sin embrago, en nuestro caso hemos optado por separar a estos dos conceptos para su posterior contrastación estadística. 6.9. SELECCION PRELIMINAR DE LAS VARIABLES INDEPENDIENTES ANTE LA AUSENCIA DE DATOS. A continuación hemos intentado seleccionar aquellas variables independientes que más influyen en el desarrollo económico y financiero de la empresa. Esto se hizo una vez que realizamos una revisión bibliográfica exhaustiva sobre un considerable número de artículos clásicos de esta línea de estudios, así como a través de la consulta de textos especializados en el uso de los ratios. Lo anterior nos llevó a elegir setenta y un ratios que dividimos en siete factores. Estas variables contenidas en la información contable de la base de datos se ha utilizado en numerosos trabajos, pues dichos ratios son considerados lo suficientemente relevantes para que al estimarse permitan al analista aplicar varios modelos de análisis financiero y estadístico con fines predictivos. Hipotéticamente la serie de variables independientes tiene que aportar conclusiones rigurosas, con base en técnicas y relaciones complejas. Sin embargo, se debe tomar en cuenta que existen casos en donde considerando una sola variable independiente, ésta puede aportar un rigor similar o ligeramente inferior en lugar de utilizar varias. Por eso a partir del conjunto original de 71 ratios, seleccionamos un segundo grupo de 21 ratios, eliminando aquellos que tenían serias deficiencias en cuanto a su cálculo o ausencia de datos, o bien, las cuentas con las que se integraban no presentaban la suficiente información en cuanto a su uso exacto; tal fue el caso de la partida denominada cuentas por cobrar. Esta cuenta se utilizó no sólo para registrar aquellas deudas a favor de la empresa por concepto de ventas a crédito, sino que también se observó que integraba otras operaciones como deudas de terceros con la empresa o pagos anticipados que se efectuaron por concepto de servicios aún no erogados. También la reducción de las variables independientes a 21 ratios obedeció a las limitaciones del tamaño muestral de la base de datos que comprende ocho años divididos en trimestres, lo que nos lleva a un total de 32 trimestres por cada una de las cinco empresas seleccionadas; lo que a su vez nos lleva a un total de 160 casos obtenidos del total de la muestra a lo largo de los ocho años (7.27 casos por variable). Según Hair (2000: p.88), para aplicar correctamente el análisis multivariable del factorial, el investigador no debe utilizar una muestra inferior a 50 casos u observaciones, y preferiblemente el tamaño muestral debe ser superior a 100 o más casos, o bien, como regla general el mínimo de observaciones a tener en cuenta tiene que ser de por lo menos un número de observaciones cinco veces mayor con respecto al número de variables analizadas. En cuanto a la utilidad relativa de los ratios en los modelos univariables, ésta sólo puede ser medida en términos absolutos. Sus estimaciones son difíciles de interpretar cuando a la misma empresa se le ___________________________________________Capítulo 6: Las Variables Independientes 245 aplican diferentes modelos univariables. En el caso de los modelos multivariables, la ventaja radica en poder analizar simultáneamente a un conjunto de ratios. Sin embargo, su desventaja está en que cada investigador para estimar sus modelos selecciona un grupo de variables independientes con diferentes unidades temporales, diferentes tamaños de empresas clasificadas en diversos sectores, y con bases de datos heterogéneas (tanto de estados financieros como de ratios). Esto provoca que los resultados sean difícilmente comparables y generalizables. En cuanto a las relaciones empíricas entre los ratios, hasta la fecha no existe suficiente consistencia entre los diferentes modelos predictivos. Esto se debe principalmente a problemas tales como: la inexactitud de los diferentes modelos propuestos, los diferente criterios de selección y clasificación de los ratios, las distintas ponderaciones que los investigadores dan a las variables independientes, la diferencia de las poblaciones de ratios entre los modelos y a las relaciones empíricas que éstos mantienen. Para constatar estos problemas, Jiménez (1996) intentó desarrollar una clasificación de ratios, asociándolos a los diferentes factores propuestos en varios trabajos predictivos. La clasificación que obtuvo permitió observar que de los treinta y siete ratios contables incluidos en los modelos seleccionados, diez correspondían al factor retorno de la inversión; quince eran de endeudamiento, ocho de apalancamiento, y siete de cobertura de deuda, siete eran de liquidez, y cinco correspondían a la intensidad de capital. Los anteriores resultados le sugirieron al autor que existe una inestabilidad que se debe básicamente a la existencia de relaciones empíricas entre los ratios. Algunos de los primeros estudios sobre quiebras también han sido criticados por su falta de teoría para guiar la selección de las variables predictivas. Varios de estos estudios, incluidos los de Altman (1968), Edmister (1972), Deakin (1972) y Ohlson (1980), entre muchos otros, han utilizado ratios basados sobre su amplia aceptación en la literatura. Otros estudios, como los de Beaver (1966) y Blum (1974), seleccionaron a los ratios basados sobre la teoría de la empresa de Helfert. Sin embargo, la gran mayoría de trabajos simplemente han considerado los ratios de otros investigadores sin un previo análisis multivariable de éstos, pues su fin principal radica en la aplicación de técnicas estadísticas predictivas y no reductivas. En general, la selección al azar de los predictores puede dar como resultado información poco importante acerca de la condición financiera de la empresa al no incorporar datos sobre todas las facetas de su actuación. Esto no representa ningún problema, siempre y cuando el propósito de los modelos se dirija a la explicación o capacidad de predicción de un tipo particular de información, o bien, al ensayo de un método estadístico en particular como es el caso de este estudio. Dentro de estos supuestos de partida, incluso mucha información financiera detallada puede solamente llegar a confundir la interpretación del modelo. Otro problema creado por la selección al azar de los ratios, es el potencial de multicolinealidad que puede darse dentro del modelo. Los modelos multivariables que utilizan ratios financieros son muy susceptibles de presentar problemas de multicolinealidad, dado que los ratios generalmente son combinaciones de la muestra del conjunto de datos o medidas contables. La multicolinealidad puede resultar en inexactitud, así como en estimaciones inestables de los coeficientes del modelo y sus variabilidades. Además, los valores relativos de las variables no pueden ser determinados porque diversas variables independientes pueden estar calculadas con atributos semejantes (Blum: 1974). Con respecto a esto, Johanson (1970: p.1168) critica la frecuente selección de variables independientes colineales en los estudios que utilizan la técnica del MDA, pues opina que el supuesto de mutualidad de ratios financieros necesarios para el análisis discriminante multivariable no es dominante. Para él, el uso de altas correlaciones de múltiples ratios es redundante e introduce inestabilidad dentro de los coeficientes de las funciones para las diferentes muestras, además de que genera una gran cantidad de errores para estos coeficientes. Por su parte Horrigan (1965) sostiene que los problemas presentes de colinealidad son también oportunidades para el investigador, pues cuando se presenta este fenómeno con los ratios financieros, permite al analista contar con la máxima ___________________________________________Capítulo 6: Las Variables Independientes 246 información contenida en los ratios (aunque sea redundante) para posteriormente ser capturados y reducidos a un pequeño número de factores a través de técnicas multivariables. De cualquier forma, Horrigan (1965) previene que los ratios deben ser cuidadosamente seleccionados para evitar la multicolinealidad. Ya, algunos intentos fueron hechos en los estudios primarios sobre las quiebras para evitar la multicolinealidad. Por ejemplo, Altman (1968) analizó las correlaciones entre las variables independientes antes de seleccionar las variables finales para su modelo. Sin embargo, su método fue cuestionado porque únicamente analizó las correlaciones entre dos variables en un momento del tiempo. Los análisis de las correlaciones bivariables no son considerados tan adecuados como el análisis de las correlaciones multivariables. En el caso de Edmister (1972) o Rose y Giroux (1984), han utilizado la técnica de selección “stepwise” para determinar cuales ratios deben integrarse al modelo, basados sobre la contribución relativa de cada uno de ellos y su correlación con las variables ya dentro del modelo. La técnica “stepwise” generalmente ha ayudado a limitar la multicolinealidad, aunque se reconoce que ésta es un tanto arbitraria pues el investigador, según Edmister (1972), debe decidir que nivel de correlación es aceptable. Para analizar los 71 ratios con respecto a sus factores, inicialmente éstos los dividimos en siete componentes, pero posteriormente agrupamos sus respectivos ratios en tres nuevos factores considerando que a nivel teórico varios de ellos guardan una mayor relación entre sí, quedando incluidos en el primer factor los ratios de rentabilidad, productividad y eficiencia (ratios R1 al R27); en el segundo grupo quedaron comprendidos los ratios de liquidez y cash flow (ratios R28 al R50); y por último, en el tercer grupo se relacionaron los ratios de solvencia y endeudamiento (ratios R51 al R71). De esta forma se superó el requisito de cinco casos por variable, aunque por la presencia de datos ausentes en gran número de ratios, la selección de las 21 variables finales para aplicar el análisis de componentes principales se tuvo que llevar a cabo por simple inspección (Ver cuadro 6.10). Es importante aclarar que se presentaron datos ausentes en gran número de ratios, que combinados con la limitación en cuanto a los datos disponibles de empresas que cotizan en Bolsa, impidieron llevar a cabo la aplicación del análisis factorial sobre el conjunto total de ratios. Sin embargo, quedó establecido un marco teórico importante de variables independientes que puede ser utilizado más adelante una vez que se superen las dificultades del tamaño muestral. Para ello, actualmente estamos llevando a cabo una actualización y ampliación de la base de datos original en la Universidad de las Américas de Puebla, utilizando el sistema de información “ECONOMATICA” y las más recientes bases de datos que está proporcionando la Bolsa Mexicana de Valores. Por otra parte, esta misma base de datos se está también ampliando longitudinalmente, considerando los estados financieros intermedios mensuales para aplicar el análisis factorial por empresa. Esto nos permitirá alcanzar en el corto plazo un total de 96 casos obtenidos durante los ocho años que comprendió el primer estudio que presentamos en la investigación doctoral. Además, al actualizar el cuarto trimestre del año 2000, contaremos para finales de este año con un total de 11 años, es decir, 132 casos por empresa. Esto representará un total de 660 casos pertenecientes a la muestra original de 5 empresas. Por otra parte, también estamos trabajando en la ampliación de la muestra, al emparejar el número de empresas sanas con el número de empresas fracasadas. Esto nos dará en una primera etapa una muestra de 5 empresas de servicios sanas y una muestra de 5 empresas fracasadas, con una unidad temporal de 1990 al 2000, es decir: un total de 440 casos trimestrales y 1320 casos mensuales. A continuación presentamos el número total de los ratios originales, y posteriormente se presentan los 21 ratios que finalmente se seleccionaron para aplicar el análisis factorial. (Ver Cuadro 6.11.). ___________________________________________Capítulo 6: Las Variables Independientes 247 CUADRO 6.10. MODELO INICIAL PROPUESTO EN LA PRIMERA FASE MINIMO DE CASOS REQUERIDOS (5 POR VARIABLE) TOTAL DE CASOS DE LA MUESTRA (Período1990-1997: Trimestral) PROMEDIO DE CASOS POR VARIABLE FACTORES NO. DE RATIOS Rentabilidad, Productividad y Eficiencia Liquidez y Cash Flow 27 (R1 al R27) 135 160 5.92 23 (R29 al R50) 115 160 6.95 Solvencia y 21 105 160 7.61 Endeudamiento (R51 al R71) TOTAL 71 160 Nota: La aplicación de este modelo con 71 ratios no fue posible dada la ausencia de datos en gran número de variables. MODELO FINAL APLICADO EN LA PRIMERA FASE DE LA INVESTIGACION MINIMO DE CASOS REQUERIDOS (5 POR VARIABLE) TOTAL DE CASOS DE LA MUESTRA (Período 1990-1997: Trimestral) PROMEDIO DE CASOS POR VARIABLE FACTORES NO. DE RATIOS Rentabilidad, Productividad y Eficiencia Liquidez y Cash Flow Solvencia y Endeudamiento 8 (R1, R4, R9, R11, R12, R13, R14, R15) 40 160 20 6 (R28, R30, R35, R36, R38, R40) 30 160 26.6 8 (R51, R52, R56, R57, R58, R64, R70) 35 160 22.8 TOTAL 21 160 Nota: La primera fase de la investigación tuvo como objetivo principal obtener los resultados finales del trabajo de tesis doctoral. En la segunda fase y a partir de los resultados obtenidos, un total de 10 estudiantes de la UDLA-P actualmente trabajan para perfeccionar el modelo aquí propuesto. ___________________________________________Capítulo 6: Las Variables Independientes 248 CUADRO 6.11. MODELO PROPUESTO PARA LA SEGUNDA FASE Muestra de 5 Empresas (4 sanas y 1 fracasada) FACTORES NO. DE RATIOS MINIMO DE CASOS REQUERIDOS (5 POR VARIABLE) TOTAL DE CASOS DE LA MUESTRA (Período1990-2000: Trimestral) PROMEDIO DE CASOS POR VARIABLE Rentabilidad, Productividad y Eficiencia Liquidez y Cash Flow Solvencia y Endeudamiento TOTAL 27 (R1 al R27) 135 220 8.1 23 (R29 al R50) 21 (R51 al R71) 71 115 220 9.5 105 220 220 10.4 MODELO PROPUESTO PARA LA SEGUNDA FASE (INVESTIGACION A FUTURO) Muestra Emparejada de 5 Empresas Sanas y 5 Empresas Fracasadas FACTORES NO. DE RATIOS MINIMO DE CASOS REQUERIDOS (5 POR VARIABLE) TOTAL DE CASOS DE LA MUESTRA (Período1990-2000: Trimestral) PROMEDIO DE CASOS POR VARIABLE Rentabilidad, Productividad y Eficiencia Liquidez y Cash Flow Solvencia y Endeudamiento TOTAL 27 (R1 al R27) 135 440 16.2 23 (R29 al R50) 21 (R51 al R71) 71 115 440 19.1 105 440 440 20.9 ___________________________________________Capítulo 6: Las Variables Independientes 249 CUADRO 6.11. (1/3) SELECCIÓN INICIAL DE RATIOS FINANCIEROS APLICADOS AL ANÁLISIS PRIMARIO AUTORES QUE UTILIZANRON EL RATIO BMV (Bolsa Mexicana de Valores) Taffler. Pg9/s1 No. de Ratio 1. RATIOS DE RENTABILIDAD. Rentabilidad de la Explotación o Económica. 1er criterio: beneficio neto antes de intereses e impuestos / media del activo total (recursos propios de explotación y financieros) Rentabilidad de la Explotación o Económica. 2do. Criterio (considerando al beneficio extraordinario: (beneficio neto antes de intereses e impuestos +/- otros ingresos y gastos extraordinarios) / (activo total – otros activos financieros y cargos diferidos) Rentabilidad con Base a la Improductividad: Beneficio neto antes de intereses e impuestos / activo total – cargos diferidos Rentabilidad de la Empresa 1er Criterio: beneficios netos después de intereses antes de impuestos / activo total Rentabilidad de la Empresa. 2do. Criterio: beneficio neto después de impuestos antes de intereses/ capital contable + exigible financiero (pasivo a corto y largo plazo que paga intereses. Rentabilidad Financiera: beneficio neto después de intereses e impuestos / activo total Rentabilidad Financiera: beneficio neto antes de intereses e impuestos / activo total R1 R2 R3 R4 R5 R6 R7 R8 R9 R10 R11 R12 R13 R14 R15 R16 R17 R18 R19 R20 R21 R22 R23 R24 R25 R26 R27 Por su aceptación en la literatura. (pg9+pg6)/ s1 (s7+s18) Por su aceptación en la literatura Pg9/(s1-s18) Por su aceptación en la literatura (Pg20 +pg10) / s1 Por su aceptación en la literatura. (pg20+pg6+pg8) / (s33+s23+s28) BMV, Beaver (R2), , Deakin, Dambolena y Khory. Pg20/s1 Altman (X3). (pg9+pg6+pg8) / s1 Rentabilidad Financiera con Base de Activo Amortizable: Beneficio neto después de intereses e impuestos / activo fijo. Rentabilidad Financiera con Base en el Capital Propio: Beneficio neto después de intereses e impuestos / capital contable Rentabilidad cuya base de inversión es el pasivo fijo más el capital propio: beneficios netos después de intereses antes de impuestos / (pasivo fijo + capital contable) Rentabilidad Financiera con Base en el Activo Bruto: Beneficios netos antes de intereses e impuestos / activo total bruto Rentabilidad Acumulada: beneficios netos no distribuidos / activo total Por su aceptación en la literatura Pg20 / (s12+s18) Fitzpatrick, Dambolena y Khory Pg20 /s33 Por su aceptación en la literatura Pg20 / (s27+s33) Modelo Dupont Pg20 / (s12+s16) Altman (X2). S42 / s1 2. RATIOS DE PRODUCTIVIDAD Ratio de Margen Neto de Beneficios o Tasa de Margen Neto: beneficio neto después de Modelo Dupont interese e impuestos / ventas netas Pg20 / pg1 Modelo Dupont, BMV, Altman Ratio de Rotación de Activos: ventas netas / activo total (capital total invertido) (X5), Zavgren, Casey y Bartzack Pg1 /s1 Tasa de Margen Bruto: Beneficio neto antes de intereses e impuestos / ventas netas pendiente Ratio de rotación de inventarios: coste de ventas / inventarios Ingresos de explotación / activo fijo (inversión fija) Beneficios netos / activo fijo (inversión fija) Por su aceptación en la literatura Pg2 /s6 Por su aceptación en la literatura Pg1 / s12 Gabas. Pg20 / s12 3. RATIOS DE EFICIENCIA Ventas netas / tesorería Ventas netas / cuentas por cobrar Ventas netas / inventarios Ventas netas / capital de trabajo Ventas netas / activo fijo Ventas netas / activo diferido Ratio de Rotación: Ventas netas / promedio de activos totales Ventas netas / pasivo circulante Resultado por posición monetaria / resultado neto Por su aceptación en la literatura Pg1 / s3 Por su aceptación en la literatura Pg1 /s4 Dambolena y Khory. Pg1 / s6 Dambolena y Khory. Pg1 / s72 Zavgren. Pg1 / s12 Por su aceptación en la literatura Pg1 / s18 Libby, Casey. Pg1 / s21 Por su aceptación en la literatura Pg1 / s21 BMV. S70 / pg20 ___________________________________________Capítulo 6: Las Variables Independientes 250 CUADRO 6.11. (2/3) SELECCION INICIAL DE RATIOS FINANCIEROS APLICADOS AL ANALISIS PRIMARIO No. de Ratio 4. RATIOS DE LIQUIDEZ Ratio o Coeficiente de Capital Circulante: activo circulante / pasivo circulante AUTORES QUE UTILIZANRON EL RATIO BMV. S2 / s21 R28 R29 R30 R31 R32 R33 R34 R35 R36 R37 R38 R39 R40 R41 Ratio de Cobertura de Gastos de Explotación o Prueba del Acido: tesorería + inversiones + BMV. (s3+s4+s5) / s21 cuentas por cobrar / pasivo circulante Ratio o Coeficiente de Tesorería: tesorería + equivalentes / pasivo circulante Por su aceptación en la literatura S3 / s21 Ratio o Coeficiente de Rotación de Cuentas por Cobrar: ventas netas a crédito / promedio BMV. Pg1 / s4 de cuentas x cobrar Ratio o Coeficiente de Inventarios: coste de ventas / promedio de inventarios BMV. Pg2 / s6 Tesorería / activo total Activos rápidos (inventarios + cuentas por cobrar a clientes y deudores) / activo total Activo circulante / activo total Deakin, Zavgren, Casey. S3/s1 Beaver, Deakin. ( s4+s5+s6) / s1 Beaver, Edmister, Deakin, Casey y Bartczak. S2/s1 Altman (X1), Winakor y Smith, Merwin, Beaver, Deakin, Edmister, Ohlson, Takahasi y Kurokawua. S72 / s1 BMV, Edmister, Zavgren. (s4+s5+s6) / s21 BMV, Taffler. S2/s20 Deakin. (s4+s5+s6) / pg1 Deakin. S2 / pg1 Beaver, Deakin, Edmister, Taffler (s2-s6)-s21/pg4 Capital de trabajo / activo total Activo rápidos (inventarios + cuentas por cobrar a clientes y deudores) / pasivo circulante Activo circulante / pasivo total Activo rápidos (inventarios + cuentas por cobrar a clientes y deudores) / ventas netas Activo circulante / ventas netas Ratio de Retorno de Capital o Intervalo de Crédito: (activo circulante –inventarios) – pasivo circulante / gastos de explotación – (amortizaciones + provisiones) 5 RATIOS DE CASH FLOW R42 R43 R44 R45 R46 R47 R48 R49 R50 Cash flow operativo / activo total Cash flow operativo / pasivo total Cash flow operativo / pasivo circulante medio Cash flow operativo / ventas netas Cash flow operativo / beneficios netos Cash flow operativo / cash flow total Flujo derivado del resultado neto / ventas netas Cash flow operativo / inflows totales Cash flow tradicional / pasivo total Takahasi y Kurokawua. C3 / s1 Casey y Bartczack. C3/s20 Casey y Bartczack. C3 / s21 Bukovinsky. C3 / pg1 Bukovinsky. C3 / pg20 Bukovinsky. C3 / c1 BMV. C3/ pg1 BMV. C3 / (c6 + c7) Beaver, Deakin, Blum (pg20 + c13) / s20 ___________________________________________Capítulo 6: Las Variables Independientes 251 CUADRO 6.11. (3/3) SELECCIÓN INICIAL DE RATIOS FINANCIEROS APLICADOS AL ANÁLISIS PRIMARIO No. de Ratio 6. RATIOS DE SOLVENCIA Ratio de Solvencia Global: pasivo total / activo total AUTORES QUE UTILIZANRON EL RATIO R51 R52 R53 R54 R55 R56 R57 R58 R59 R60 R61 R62 R63 R64 R65 R66 R67 R68 R69 R70 R71 Por su aceptación en la literatura S20 / s1 Ratio de Estructura Financiera: valor de mercado de los fondos propios / valor contable de Altman (X4) los pasivos S33 / s20 Ratio de Cobertura Financiera: beneficio antes de provisiones / costes financieros Por su aceptación en la literatura Pg9 / (pg6 + pg8) Ratio de Cobertura Efectiva: beneficios antes de provisiones + depreciaciones / provisiones Por su aceptación en la literatura + intereses ((pg9+ c13) / (pg6+pg8+pg10) Ratio de Protección al pasivo (1): Pasivo circulante / capital contable Edmister, Dambolena y Khory S21 / s33 Ratio de Protección al pasivo (2): Pasivo fijo / capital contable Por su aceptación en la literatura S12 / s33 Ratio de Protección al Pasivo (3): Pasivo total / capital contable Dambolena y Khory, Casey y Bartzack. S20 / s33 Ratio de Protección al Activo (1): Activo circulante / capital contable Por su aceptación en la literatura S2 / s33 Ratio de Protección al Activo (2): Activo fijo y diferido / capital contable Por su aceptación en la literatura S12 / s33 Activo total / capital contable Por su aceptación en la literatura S1 / s33 Capital de trabajo / capital contable Por su aceptación en la literatura S72 / s33 Pasivo fijo / capital de trabajo Por su aceptación en la literatura S27 / s72 7. RATIOS DE ENDEUDAMIENTO Ratio de Dependencia Financiera o Endeudamiento: pasivo total / activo total Ratio de Independencia Financiera: capital contable / activo total Ratio de Estructura de Capital: pasivo total / capital total Ratio de Nivel de Endeudamiento: pasivo circulante / activo total Ratio de Apalancamiento: Pasivo fijo / capital contable Pasivo fijo / activo fijo Pasivo en moneda extranjera / pasivo total Activo total / capital contable (capital propio) Capital contable / pasivo total BMV, Beaver, Deakin, Ohlson, Dambolena y Khory, Weston S20 / s1 Takahasi y Kurokawua. S33 / s1 BMV, Taffler. S20 / s33 Taffler. S21 / s1 Por su aceptación en la literatura S27 / s33 BMV. S27 / s8 BMV. (s52+s59) / s20 Por su aceptación en la literatura S1 / s33 Fitzpatrick, Merwin, Altman, Blum S33 / s20 Fuente: Elaboración propia ___________________________________________Capítulo 6: Las Variables Independientes 252 CUADRO 6.12. SELECCIÓN DE RATIOS FINANCIEROS APLICADOS AL ANÁLISIS PRINCIPAL O FINAL AUTORES QUE UTILIZANRON EL RATIO BMV (Bolsa Mexicana de Valores) Taffler. Pg9/s1 Por su aceptación en la literatura (Pg20 +pg10) / s1 Fitzpatrick, Dambolena y Khory Pg20 /s33 Modelo Dupont Pg20 / (s12+s16) Altman (X2). S42 / s1 No. de Ratio 1. RATIOS DE RENTABILIDAD. Rentabilidad de la Explotación o Económica. 1er criterio: beneficio neto antes de intereses e impuestos / media del activo total (recursos propios de explotación y financieros) Rentabilidad de la Empresa 1er Criterio: beneficios netos después de intereses antes de impuestos / activo total Rentabilidad Financiera con Base en el Capital Propio: Beneficio neto después de intereses e impuestos / capital contable Rentabilidad Financiera con Base en el Activo Bruto: Beneficios netos antes de intereses e impuestos / activo total bruto Rentabilidad Acumulada: beneficios netos no distribuidos / activo total R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 2. RATIOS DE PRODUCTIVIDAD Y 3. EFICIENCIA Ratio de Margen Neto de Beneficios o Tasa de Margen Neto: beneficio neto después de Modelo Dupont interese e impuestos / ventas netas Pg20 / pg1 Modelo Dupont, BMV, Altman Ratio de Rotación de Activos: ventas netas / activo total (capital total invertido) (X5), Pg1 /s1 Tasa de Margen Bruto: Beneficio neto antes de intereses e impuestos / ventas netas pendiente 4. RATIOS DE LIQUIDEZ Ratio o Coeficiente de Capital Circulante: activo circulante / pasivo circulante Ratio o Coeficiente de Tesorería: tesorería + equivalentes / pasivo circulante Activo circulante / activo total Capital de trabajo / activo total Activo circulante / pasivo total BMV. S2 / s21 Por su aceptación en la literatura S3 / s21 Beaver, Edmister, Deakin, Casey y Bartczak. S2/s1 Altman (X1) S72 / s1 BMV, Taffler. S2/s20 5. RATIOS DE CASH FLOW Cash flow tradicional / pasivo total Beaver, Deakin, Blum (pg20 + c13) / s20 6. RATIOS DE SOLVENCIA Ratio de Solvencia Global: pasivo total / activo total Por su aceptación en la literatura S20 / s1 Ratio de Estructura Financiera: valor de mercado de los fondos propios / valor contable Altman (X4) de los pasivos S33 / s20 Ratio de Protección al pasivo (2): Pasivo fijo / capital contable Por su aceptación en la literatura S12 / s33 Ratio de Protección al Pasivo (3): Pasivo total / capital contable Dambolena y Khory, Casey y Bartzack. S20 / s33 Ratio de Protección al Activo (1): Activo circulante / capital contable Por su aceptación en la literatura S2 / s33 7. RATIOS DE ENDEUDAMIENTO Ratio de Independencia Financiera: capital contable / activo total Activo total / capital contable Takahasi y Kurokawua. S33 / s1 Por su aceptación en la literatura S1 / s33 Fuente: Elaboración propia ____________________________________________Capítulo 7: Otros Elementos del Modelo 253 CAPITULO 7 OTROS ELEMENTOS DEL MODELO Una vez que ya hemos analizando ampliamente los primeros tres elementos estructurales de los modelos predictivos (la estructuración de la base de datos, la determinación conceptual de la variable dependiente y la determinación de las variables independientes), pasaremos ha analizar brevemente los restantes elementos que componen el modelo. Dichos elementos a los que nos referimos son los siguientes: a) la unidad de análisis; b) la unidad geográfica c) la unidad temporal (tiempo o período de la base de datos); y d) la selección de la muestra. 7.1. LA UNIDAD DE ANALISIS. La unidad de análisis en los modelos predictivos comprende a las empresas muestreadas. En este punto lo más importante es seleccionar empresas comparables entre sí, y para esto se requieren dos elementos fundamentales que son: a) la definición del tamaño de las empresas; y b) la definición del sector al que pertenecen éstas. Con respecto al segundo punto, seleccionamos al sector servicios de la Bolsa Mexicana de Valores. Aquí están clasificadas un total de ocho empresas, de las cuales excluimos tres de ellas por no pertenecer a la actividad hotelera, pues nuestro objetivo a largo plazo es analizar únicamente empresas hoteleras para perfeccionar mejor el modelo predictivo. Las empresas seleccionadas como sanas fueron: Aristos, Calinda, Posadas, Realtur. La empresa fracasada fue Situr, la cual presentó dos criterios negativos que fueron: un capital contable deficitario y beneficios continuos negativos. Sobre el tamaño de las empresas existen acuerdos generalizados para clasificar a éstas como grandes, medianas o pequeñas. Las características más típicas que definen al tamaño son: el importe de los activos totales, el volumen de las ventas y el importe de los beneficios. Además, en el caso de este estudio y con relación a las características que se tienen que tomar en cuenta para tener un conocimiento más completo sobre las dimensiones de las empresas que se van a comparar, se consideraron otros dos criterios adicionales de la Bolsa Mexicana de Valores que son: el pasivo total y el capital contable. La razón de incluir las últimas dos variables es con el fin de obtener elementos más objetivos en cuanto al tamaño real que tiene la empresa en términos económicos y financieros, pues el analista puede determinar mejor el tamaño con base a la proporcionalidad que existe entre las fuentes de financiamiento propias y ajenas (estructura de capital), así como a la aplicación de éstas en inversión financiera e inversión productiva. Con respecto a algunos de los principales factores que son influidos por el sector al que pertenece la empresa, están los dos siguientes: la rotación de los activos y el tamaño de los activos fijos. El período de rotación de las existencias es muy importante, pues éste se comporta de acuerdo al sector al que pertenece la empresa. Por ejemplo, en el sector comercial se registran índices de rotación superiores a los de la construcción. Además, si consideramos que el índice de rotación forma parte del ratio de rentabilidad, y por otra parte, la cuenta de inventarios representa una de las fases más importantes de ciclo de explotación, entonces se puede deducir que el índice de inventarios es una variable independiente que afecta directamente a la liquidez, la tesorería y la solvencia de la empresa. Al aplicar el análisis gráfico a las cinco empresas para ver el comportamiento de los inventarios a través del ratio X5 de Altman (ventas netas / activo total), observamos que existe una estacionalidad similar en todas ellas, según se puede apreciar en el siguiente gráfico. Esto indica que con respecto a los inventarios las empresas sí son comparables entre sí. ____________________________________________Capítulo 7: Otros Elementos del Modelo 254 .5 .4 .3 AR14 .2 CR14 PR14 RR14 0.0 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 SR14 .1 Me an AÑO En el caso del tamaño de los activos fijos, es bien conocido que sectores como el de la construcción presentan una estructura en su activo fijo del 90% aproximadamente con respecto al total de sus activos, mientras otros sectores como el de los servicios presentan una inversión en activos financieros de aproximadamente el 40%. En el caso del sector bancario, normalmente su inversión financiera llega a ser hasta del 80% con respecto a su inversión total. Lo anterior nos indica claramente la importancia de la segmentación de los sectores para una correcta aplicación de los modelos predictivos como el de Altman, en donde cuatro de las cinco variables independientes que determinan la “Z-Score”, tienen como denominador al activo total. En el caso de nuestra muestra, los cuatro hoteles sanos presentaron una media general del 89.05% de sus activos fijos con respecto al activo total. Pero en el caso del hotel fracasado, su activo fijo fue del 48.23% con respecto al activo total. Esto puede marcar una diferencia significativa a tomar en cuenta a la hora de ampliar la muestra de hoteles sanos y fracasados, pues se considera que el efecto del tamaño de la empresa se manifiesta directamente en la estructura del activo. Con respecto al pasivo, las empresas grandes tienen en general un endeudamiento ajeno más elevado, sin embargo, en la muestra seleccionada el pasivo total fue menor del 30% en los hoteles Aristos y Calinda, del 44.60% en Posadas, del 60.69% en Realtur, y por último, en el hotel Situr su pasivo total representó el 100% del financiamiento ajeno al tener un capital contable negativo. Esto confirmó nuestro punto de vista de considerar como fracaso empresarial a aquellos hoteles con capital contable negativo. Con respecto a los beneficios y su relación con las ventas, no se obtuvo un indicador que caracterizara el tamaño de la empresa, excepto que en las fracasadas existe un beneficio negativo, y por lo tanto, no se puede determinar un porcentaje de beneficios con respecto a los ingresos totales. En el caso de las empresas sanas la relación porcentual de los beneficios con respecto a sus ventas totales fue la siguiente: Aristos y Calinda 9%, Posadas 19% y Realtur 60% . ____________________________________________Capítulo 7: Otros Elementos del Modelo 255 CUADRO 7.1. CRITERIOS PARA DETERMINAR LA UNIDAD DE ANALISIS TAMAÑO DE LA EMPRESA Activo Total Activo Fijo Financiamiento Total Pasivo Total Capital Contable Ventas Netas Beneficios ARISTOS % 100 96.69 100 25.67 74.33 100 9.82 CALINDA % 100 86.74 100 29.61 70.39 100 9.26 POSADAS % 100 81.07 100 44.60 55.40 100 19.09 REALTUR % 100 91.71 100 60.69 39.31 100 60.32 SITUR % 100 48.23 100 100 (–25.37) 100 Perdida 7.2. LA UNIDAD GEOGRAFICA. La unidad geográfica se refiere a la selección del país, región y sector al que pertenece la empresa. Hasta la fecha la unidad geográfica donde se ubica la empresa no presenta grandes problemas, ya que al no existir aún una homologación en la presentación de la información financiera y una misma unidad monetaria entre los países, los investigadores han optado por seleccionar muestras pertenecientes a un único país. En un futuro cercano será interesante ampliar la unidad geográfica a varios países por su significativo avance en la armonización de sus criterios contables y la adopción de una unidad monetaria única como es el caso de la Unión Europea. En este punto hemos observado que la determinación correcta de la unidad geográfica en los diferentes estudios se ha realizado con base en los siguientes dos criterios: a) aquellos que están dirigidos a un sector muy concreto, y b) los estudios que abarcan varios sectores pero con características financieras homogéneas. En ambos casos normalmente se excluyen de la muestra las empresas financieras, aseguradoras y los bancos, ya que tienen características particulares. En resumen podemos decir que para que la muestra sea más representativa y puedan llevarse a cabo generalizaciones, la unidad geográfica debe seleccionarse considerando aspectos tan importantes como: a) determinación correcta del país y región; b) determinación correcta del sector y subsectores macroeconómicos en que opera la empresa; y c) fijación de las condiciones necesarias para obtener el tamaño de la empresa. En esta investigación y con respecto a la determinación del sector y subsectores, como ya apuntamos, se seleccionaron sólo cinco empresas hoteleras grandes que operan en todo el país y que cotizan en Bolsa. Al reducir la muestra sólo a un subsector muy específico, partimos de la base de que en economías muy inestables algunos subsectores tienen comportamientos más dinámicos que otros, e incluso pueden beneficiarse de dichas inestabilidades en períodos a corto y mediano plazo. CUADRO 7.2. CRITERIOS PARA DETERMINAR LA UNIDAD GEOGRAFICA LOCALIZACION DE LA EMPRESA 3 4 REGION SECTOR A NIVEL NACIONAL SERVICIOS A NIVEL NACIONAL SERVICIOS A NIVEL NACIONAL SERVICIOS A NIVEL NACIONAL SERVICIOS A NIVEL NACIONAL SERVICIOS 1 EMPRESA ARISTOS CALINDA POSADAS REALTUR SITUR 2 PAIS MEXICO MEXICO MEXICO MEXICO MEXICO 5 SUB-SECTOR HOTELERO HOTELERO HOTELERO HOTELERO HOTELERO ____________________________________________Capítulo 7: Otros Elementos del Modelo 256 7.3. LA UNIDAD TEMPORAL. La unidad temporal comprende el período de tiempo de la base de datos. Aquí el investigador selecciona el número de años para obtener indicadores predictivos sobre el futuro éxito o fracaso de un conjunto de empresas. Normalmente estos períodos son anuales y oscilan de los tres hasta los diez años. El período de cinco años es un promedio muy común en los trabajos que se han desarrollado desde los años sesenta. Algunos investigadores han comenzado a recomendar que dentro de esos períodos se obtengan también informes financieros trimestrales y no sólo anuales para observar mejor las tendencias en los cambios de los ratios. Esto lleva a que de alguna manera la unidad temporal se amplie y compense algunos aspectos negativos de aquellas muestras que sean pequeñas, como fue nuestro caso. Por eso obtuvimos informes trimestrales comprendidos entre 1990 y 1997. Sin embargo, hemos de apuntar que al existir distintos criterios sobre el número de años y trimestres en los períodos seleccionados es indudable que continuará presentándose un problema para la consistencia del modelo. Según Fernández (1986: p.116), al considerar la unidad temporal para la selección de la muestra, se presentan serios problemas para el investigador cuando debe definir el período de la base de datos de las empresas fracasadas, pues como se apunta acertadamente el estudio del fracaso empresarial es un problema complejo, y más que una situación puntual es una sucesión de etapas que implica una interacción de factores secuenciales en el tiempo. En general, podemos decir que los dos problemas principales a resolver a la hora de determinar la unidad temporal son los siguientes: a) La dificultad de una definición representativa y objetiva del fracaso. Este punto que se desarrolló con amplitud en el inciso sobre los problemas para la definición de la variable dependiente, implica que mientras no sepamos con certeza qué es el fracaso empresarial en términos cuantitativos y cualitativos, menos sabremos cuándo se inicia dicho fenómeno. b) La dificultad para establecer la fecha concreta del fracaso. Este problema, derivado del anterior, resulta de vital importancia, pues sirve de referencia para que el analista establezca los momentos de tiempo anteriores al fracaso, a partir de donde inferirá la capacidad de predicción. Aquí el problema radica en que el fracaso no se presenta en un momento repentino, sino en una sucesión progresiva de enfermedades financieras que desembocan en la quiebra. De las investigaciones consultadas, hemos concluido que en general éstas presentan dos tipos de unidades temporales. El primer tipo contiene períodos de tiempo para las bases de datos que van de uno hasta los dos años previos al evento. El segundo grupo está representado por aquellas bases de datos con períodos de tres o más años previos al evento. En el contexto del fracaso empresarial, el término evento se considera como la entrada al sistema concursal, el cual puede desembocar en la reestructuración o en la liquidación de la empresa con problemas de solvencia y continuidad. Continuando con el problema de la determinación de la fecha, suele existir la opinión de algunos investigadores de que ésta es fundamental. Sin embargo, en la práctica tal vez este objetivo no sea del todo alcanzable, pues la mayoría de las empresas operan con desfases en sus cierres contables trimestrales y anuales. La Bolsa Mexicana de Valores sabe de esta realidad, y por lo tanto, permite la entrega previa de estados financieros no consolidados ni auditados para proporcionar al inversor una información financiera previa. Posteriormente se da un período que suele llegar hasta los seis meses para presentar la información final ya consolidada y auditada. Con respecto a la información anual, el ejercicio técnicamente se cierra el 31 de diciembre, sin embargo, la legislación mexicana al igual que muchas otras del mundo, da como plazo hasta el 31 de marzo para la entrega final de la declaración anual del impuesto sobre la renta. Esta declaración contiene en realidad importantes ajustes a varias de las principales cuentas que se toman para el análisis financiero final. Por otra parte, en este trimestre también se concluye el ciclo anual de la auditoíia interna de las empresas. Aquí, el auditor interno junto con el contralor general y el tesorero, ____________________________________________Capítulo 7: Otros Elementos del Modelo 257 preparan aquellas reclasificaciones y ajustes a los estados financieros finales del año que no se incluyeron en el cierre anual por diversos motivos, pero que sin embargo, son necesarios para alcanzar la razonabilidad y confiabilidad de las cifras. Esta última operación técnica e interna de la empresa, y cuyo producto final son las bases de datos contables, es también el inicio de los trabajos centrales de la auditoría externa, cuyo objetivo se centra en llegar a la cifra final más real de beneficios para el reparto de dividendos a los accionistas y el reparto de beneficios a los trabajadores (“Participación de los trabajadores en las utilidades de la empresa”). En general, durante el mes de agosto se da la conclusión de la auditoría externa para el año anterior inmediato de operaciones. Esto culmina con la entrega del dictamen del auditor, en el cual se incluyen las propuestas de reclasificaciones y ajustes importantes para ciertas partidas que inevitablemente modificarán los ratios financieros. Como se puede deducir con base a lo anteriormente expuesto, la práctica contable condiciona y dificulta la determinación de la fecha puntual que se trata de alcanzar rigurosamente en los modelos predictivos. Esto lo podemos asegurar por dos razones básicamente: a) primero no es viable que un investigador o un ejecutivo pueda determinar una fecha puntual del fracaso de una empresa, y menos aún en una serie amplia de empresas muestreadas; b) segundo, lo anterior nos puede llevar a sugerir que las fechas del fracaso no se deben establecer con base a una determinada emisión de información financiera, sino con base a un período que contenga el cierre final de cada año. Por lo tanto, deberíamos de estar abiertos a la idea de que dicho cierre puede variar de uno hasta seis meses. Los períodos de variabilidad superiores a los tres meses regularmente representan signos de problemas para la producción de su información financiera, y en los casos más extremos también pueden ser signos de evidente fracaso empresarial. Según algunos estudios que hemos consultado a lo largo de esta investigación (ejemplo: Ohlson:198, p. 144; Lizarraga:1993, p.234), el problema temporal ha sido considerado como un elemento primordial para establecer la fecha puntal del fracaso. Esta idea se basa en que es necesario que los estados financieros sean publicados con anterioridad a la fecha del fracaso. Hasta este punto coincidimos con dichos autores siempre que el elemento central se enfoque principalmente para distinguir el cambio de proceso y técnica contable que sufre una empresa que se considera a llegado al estado de fracaso definitivo, es decir, que ha pasado de la contabilidad del devengo hacia la contabilidad liquidatoria. También se ha podido analizar que el problema temporal se ha entendido tal vez de forma errónea como una simple metodología que busca principalmente una delimitación de fechas para obtener en cada ratio mayor capacidad de predicción cuando la empresa va hacia el fracaso. Sin embargo, el establecimiento de una fecha representativa para estimar la capacidad de predicción hasta el momento no se ha logrado. Este error o limitación metodológica en parte se debe a que repetidas veces se llega a datos ajustados con relación a una fecha, y no a la inversa, es decir, a una fecha ajustada con relación a los datos más representativos del estado evolutivo del fracaso empresarial. Autores como Lizarraga (1993) reconocen que el fracaso es antes que nada un proceso lento y complejo, y por lo tanto, todo lo que se deriva de ello también suele ser lento y complejo, como es el caso de la elaboración y aplicación de la técnica contable. Al determinar mejor los períodos reales de los cierres contables, no es prioritario el preocuparse sobre los resultados de los ratios, pues éstos los podemos volver a calcular basados en las cuentas y partidas finales ya ajustadas. Ciertos investigadores opinan que si el fracaso se da en el año anterior inmediato, se debe considerar un año previo al fracaso, es decir, dos años anteriores al análisis financiero. Esto se debe a que normalmente se considera que durante el año del fracaso se abandona la contabilidad del devengo. En nuestro caso esta situación no se presentó pues la única empresa considerada como fracasada estaba en suspensión de pagos, y por lo tanto, su situación la obliga a continuar aplicando la contabilidad del devengo y presentar oportunamente la información financiera. Una ventaja para seleccionar empresas en suspensión de pagos, es que se pueden consultar sus estados financieros trimestrales del “año actual del fracaso” y no sólo del “año anterior al fracaso” ____________________________________________Capítulo 7: Otros Elementos del Modelo 258 o “del segundo año anterior al fracaso”. Esto es importante si consideramos que son precisamente los últimos trimestres en donde están los datos más interesantes para llevar a cabo el análisis entre las empresas sanas y en crisis. 7.4. LA MUESTRA. La estadística inferencial establece que si obtenemos una muestra representativa de la población, entonces con los resultados es posible llevar a cabo generalizaciones sobre el conjunto total de sus elementos. En el caso de las muestras de los modelos predictivos se procura que sus características sean definidas lo más específicamente para conocer el alcance exacto de los resultados, aunque en repetidas ocasiones no se establecen límites para determinar qué se entiende por población. Según Lizarraga (1993: p.97), esto es con el fin de evitar la heterogeneidad de poblaciones que daría como resultado diferentes valores en los ratios si no se consideraran elementos tales como el sector y el tamaño al que pertenecen la muestra de empresas. Aquí el principal problema radica en la dificultad de conseguir al mismo tiempo la muestra representativa de empresas fracasadas y la anulación de los efectos negativos originados por las disparidades entre los elementos de la muestra. También en los trabajos predictivos es común que la selección de la muestra se realice de la siguiente forma: para la submuestra de empresas fracasadas se consideran a las empresas quebradas y los datos se obtienen de la información pública, sin ningún otro tipo de análisis sobre los estados financieros. Con respecto a la submuestra de empresas con éxito empresarial, se consideran a las empresas “sanas” y se eliminan a las empresas con dificultades financieras, pues se considera que estas últimas tienden a similares comportamientos con respecto a las empresas fracasadas. Un cuestionamiento importante que presenta esta posición es que no se indica en dónde quedan comprendidas aquellas empresas que han llegado a un estado de suspensión de pagos o una un estado de crisis diferente al de la quiebra, y que además, representan una parte significativa de la población. Mora (1994), en su estudio abordó este problema y recomendó tener en cuenta la relación de las submuestras entre empresas sanas y quebradas, pues consideró que ambas tienen diferentes porcentajes con relación a la población original, es decir, siempre existen más empresas sanas en la población. Con base en ello propuso una situación ideal que consiste en la selección aleatoria tanto de empresas sanas como de empresas quebradas. Con relación a las muestras no aleatorias, esta investigadora considera que existe una probabilidad de que una observación forme parte de la muestra con relación al valor de la variable dependiente. Es decir, en una submuestra del 50% de empresas quebradas y una submuestra del 50% de empresas sanas, la empresa quebrada tendrá siempre más probabilidades de formar parte de la muestra. Zmijewski (1984), considera que en los casos de los modelos Logit y Probit, todos los coeficientes están afectados por la no aleatoriedad de la muestra, y por lo tanto, el hecho de que la selección de la muestra no sea aleatoria no supone una variación significativa en los resultados de las investigaciones. Mora(1994: p. 207), coincide con esta posición de Zmijewski cuando apunta que al seleccionarse una muestra aleatoria de la población, puede dar lugar a que la submuestra de empresas quebradas esté constituida por empresas de diferente tamaño y sector con respecto a la submuestra de empresas sanas, y por lo tanto, las diferencias entre los valores de las variables independientes de las muestras podrían atribuirse también a diferencias sectoriales y de tamaño, y no sólo al hecho de si la empresa está quebrada o sana. Considerando lo anterior, en este estudio optamos por seleccionar un tamaño de empresa y sector específico para definir una población homogénea. Sin embargo, al llevar a cabo esto asumimos el problema que se origina por la disponibilidad de suficientes observaciones y elementos de la muestra para efectuar las inferencias estadísticas multivariables. En este último supuesto el analista debe evaluar las ventajas y desventajas, pues la selección de pocas empresas puede llevar a la necesidad de sólo aplicar el método del caso, o bien, utilizar sólo algunos estadísticos multivariables que nos complementen el análisis univariable. ____________________________________________Capítulo 7: Otros Elementos del Modelo 259 El último supuesto fue que asumimos como punto de partida al seleccionar sólo cinco hoteles que cotizaran en bolsa y presentaran similares criterios en cuanto a la producción de su información financiera. Con esto se consideró que sí se puede obtener una muestra de empresas que presenten una armonización contable similar y estén ubicadas en unidades geográficas similares, aunque claro, reconociendo en todo momento las otras limitaciones que se presentan con una muestra pequeña. Por ejemplo, Zmijewski (1984) sostiene que se tiene que eliminar de la muestra a empresas que no tienen un conjunto completo de datos, aunque con este criterio también se obtiene una muestra sesgada, además de que las empresas con grandes probabilidades de quiebra son precisamente aquellas que tienden a producir reportes financieros incompletos. Sin embargo, también este autor considera que este sesgo parece no afectar las inferencias estadísticas o las tasas de clasificación en su conjunto, y más aún si la muestra es grande (lo cual no es nuestro caso) Por otra parte Zmijewski (1984), opina que la aproximación a las características de la población, en cuanto a la proporción de empresas en quiebra, es necesaria para reducir el sesgo inherente en una selección basada en muestras. Para algunos analistas los estudios que utilizan el emparejamiento producen coeficientes sesgados para las variables independientes. Para este autor dichos coeficientes son completamente diferentes con respecto a aquellos que se obtienen cuando se utiliza una técnica apropiada para la diferenciación entre la muestra y las características de la población que es utilizada. Por eso Zmijewski considera que el sesgo hace más difícil de fijar el efecto de las variables individuales. Por otra parte, también considera que el sesgo es mucho menor cuando la proporción de empresas en quiebra de la muestra se aproxima a la proporción de empresas en quiebra de la población.1 En general y ante estos problemas Zmijewski (1984) examinó conceptual y empíricamente dos vías para estimar las muestras en los modelos predictvos. La primera alternativa se refiere a seleccionar a las empresas de una muestra, observando primero la variable dependiente y basándose sobre el conocimiento de la probabilidad de que una empresa entre en dicha muestra con base en los atributos de la variable depenediente (topic of choice–based sample biases). La segunda alternativa es utilizando “datos completos”. Sus resultados le mostraron claramente a Zmijewski que la utilización de alguna de estas vías en general no afecta las inferencias estadísticas o los porcentajes de clasificación del modelo financiero predictivo. Por otra parte, Wong y Young (1995) en su estudio advierten que es muy frecuente que en muchas de las muestras se incluyan empresas privadas, empresas que son propiedad del gobierno o empresas que están subsidiadas; sin tomar en cuenta que existe una estructura financiera muy diferente entre cada una de ellas por la forma de su financiamiento propio y ajeno, así como el sector al que pertenecen. Además, como ya lo apuntaban Baidya y Ribeiro (1979), en gran medida esta diversidad de empresas está condicionada de forma diferente por las variables macroeconómicas del país donde están ubicadas. Sin embargo, en el trabajo de estos últimos autores, para la muestra se seleccionaron empresas que se dedicaban a fabricar vestidos, productos metálicos, productos de madera, productos de pulpa y papel, motores de vehículos, productos de plástico, metales básicos y empresas constructoras. Como en anteriores ocasiones, hemos de apuntar lo heterogéneo de este tipo de muestras, que posteriormente se refleja en una base de datos con criterios contables muy diferentes, pues al tener sobre todo inventarios y activos muy diversos, los sistemas de valuación y amortización son poco comparables. La conclusión a la que llegamos en cuanto a la muestra fue que es mejor no llevar a cabo para este trabajo una muestra aleatoria dada la escasez de datos. Además, se consideró que al principio de cualquier trabajo no se debe establecer como requisito indispensable efectuar un proceso de emparejamiento, pues hemos visto que varios estudios revelan que el emparejamiento entre las empresas fracasadas con las empresas sanas, aunque sea de su mismo sector y tamaño, no necesariamente proporcionan mayor representatividad ni incorporan elementos significativos o 1 Los artículos clásicos de Zmijewsky y Lo, abordan ampliamente el problema de la selección y características de la muestra ____________________________________________Capítulo 7: Otros Elementos del Modelo 260 variables explicativas determinantes en los modelos predictivos. Ohlson (1980) ya había apuntado esto al proponer por primera vez que las muestras se podían seleccionar sin el emparejamiento y sin necesidad de cumplir las diferentes proporciones existentes entre los grupos de empresas de la población. También nos hemos basado en el hecho de que siempre es mayor el número de empresas sanas con respecto a las fracasadas, y esto sí que tiene un efecto de distorsión en el momento en que se aplica un muestreo aleatorio con el posterior emparejamiento, ya que siempre las posibilidades tenderán a ser mayores para que salga seleccionada una empresa fracasada con respecto a una empresa sana en cada una de las submuestras. Por último, se observó que en el caso de las empresas fracasadas resulta muy difícil de tener acceso a la información contable, pues en los juzgados o en los registros mercantiles, así como en la propia empresa, existe poca disponibilidad para dar a conocer este tipo de información. Además, aun cuando se logra acceder a las anteriores instancias, predomina una gran burocracia y el acceso generalizado a las bases de datos resulta poco efectivo dada la falta de estos. A partir de esto, y volviendo a recordar que estamos iniciando un amplio estudio a largo plazo sobre un sector en específico, se consideró más conveniente acudir a la Bolsa Mexicana de Valores (BMV), en donde la información contable además de que por ley es pública y se obtiene a precios muy accesibles, existen criterios muy concretos en cuanto a las empresas que forman los grupos de sanas y fracasadas. Nuestra muestra seleccionada consiste en cinco hoteles que pertenecen al sector servicios y forman parte de un total de 240 empresas que representan la población total que cotiza en la Bolsa Mexicana de Valores. En el caso del hotel Situr, esta empresa actualmente está en suspensión de pagos, por lo que sus acciones no se negocian en el mercado bursátil. Sin embargo, continúa inscrita en la BMV, presentando hasta la fecha estados financieros trimestrales de acuerdo a los criterios de la Comisión Nacional Bancaria y de Valores. 7.5. LA BASE DE DATOS. El énfasis teórico que se le dio al tema de las bases de datos en el presente trabajo se debe a que se consideró como uno de los elementos más importantes para el éxito del desarrollo del modelo factorial. Joy y Tollefson (1975: p.27) consideran que las validaciones de los modelos deben realizarse en muestras que tengan bases de datos distintas a las utilizadas en su estimación y posteriores en el tiempo, pues para estos autores es fundamental la reestimación de los modelos creados con anterioridad para que los actuales usuarios tengan la confianza de que son óptimos para los datos y períodos en los que se van emplear. En nuestro caso, para mejorar el instrumento de medición en cuanto a la estimación correcta de cada una de las posibles variables independientes, partimos de bases de datos con períodos amplios (ocho años) dada la limitación de la muestra. Sin embargo, mejoramos la calidad de la información con respecto a otros trabajos pues hemos incluido cifras reexpresadas, lo cual da mayor comparabilidad a través del tiempo entre los balances y estados de resultados utilizados. Cabe aclarar que utilizamos el criterio anglosajón para la presentación e interpretación de los estados financieros. En el Continente Americano, donde predomina la escuela anglosajona para la presentación de los estados financieros, en el Balance General la sección correspondiente al financiamiento está dividida en los siguientes dos apartados: a. El pasivo total. Son deudas a corto plazo (pasivo circulante) y deudas a largo plazo (pasivo fijo). Estas partidas están representadas por las obligaciones o bonos y son denominadas como fuentes de financiamiento ajenas o externas. b. El Capital Contable. Está constituido por las aportaciones de los accionistas (capital social), el resultado del ejercicio (beneficio o pérdida del año actual, los resultados de los ejercicios anteriores (beneficios o pérdidas acumuladas), las reservas de capital (que pueden ser legales, estatutarias y voluntarias), y el superávit ganado (que puede ser por donación, reexpresión y/o revaluación). Estos ____________________________________________Capítulo 7: Otros Elementos del Modelo 261 conceptos son derechos de propiedad u obligaciones ante terceros en caso de que se presente el fracaso empresarial y están representados por acciones. En términos financieros el capital contable representa las fuentes de financiamiento propias. Por último, presentamos a continuación tres cuadros que dan una idea específica sobre la clasificación sectorial de la Bolsa Mexicana de Valores, así como de la fuente de donde obtuvimos la base de datos para el presente trabajo. Esto lo consideramos importante dado que el enfoque de este estudio se dirige principalmente a la mejora de las variables independientes de un modelo predictivo, y como hemos indicado a lo largo de la investigación: los estados financieros representan el fundamento básico para desarrollar las funciones lineales, aunque sin olvidar que se requiere trabajar simultáneamente con los otros elementos que hemos explicado antes de llevar a cabo las estimaciones finales para la reducción de variables y clasificación de las empresas en sanas y fracasadas. ____________________________________________Capítulo 7: Otros Elementos del Modelo 262 CUADRO 7.3. CLASIFICACION SECTORIAL DE LAS EMPRESAS QUE COTIZAN SEGÚN LA BOLSA MEXICANA DE VALORES SECTOR 1. EXTRACTIVO SUBSECTOR 1.1. INDUSTRIA MINERA 2.1. INDUSTRIA SIDERURGICA 2.2. INDUSTRIAS QUIMICAS 2.3. INDUSTRIA ELECTRONICA 2.4. CELULOSA Y PAPEL 2.5. IMPRENTA EDITORIAL 2.6. PRODUCCION DE METAL 2.7. PRODUCCION MINERALES NO METAL 2.8. MAQUINARIA Y EQUIPO DE TRANSPORTE 2.9. ALIMENTACION, TABACO Y BEBIDA 2.10. TEXTIL, VESTIDO Y CUERO 2.11. OTRAS INDUSTRIAS DE TRANSFORMACION 3.1. INDUSTRIA CEMETERA 3.2. CONSTRUCCION 3.3. MATERIAL DE CONSTRUCCION 4.1. CASAS COMERCIALES 5.1. TRANSPORTE 5.2. COMUNICACIONES EMPRESAS QUE COTIZAN 3 1 8 5 5 1 3 1 7 14 6 2 5 2 4 18 2 2 2. TRANSFORMACION 3. CONSTRUCCION 4. COMERCIO 5. COMUNICACIONES Y TRANSPORTES 6. SERVICIOS 6.1. OTROS SERVICIOS CONSORCIO ARISTOS GRUPO HOTELERO BRISAS GRUPO CALINDA GRUPO POSADAS GRUPO SITUR REAL TURISMO GRUPO VIDEO VISA MEDICA SUR 7. VARIOS 8. SERVICIOS FINACIEROS 7.1. CONTROLADORA HOLDING 7.2. OTROS 8.1. INSTITUCIONES NACIONALES DE CREDITO 8.2. CASAS DE BOLSA 8.3. INSTITUCIONES DE SEGURO 8.4. GRUPOS FINANCIEROS 8.5. LISTADO PREVIO 8.6. EMPRESAS CON OBLIGACIONES 16 11 20 13 10 73 BASES DE DATOS FINANCIERAS Y BURSATILES MEDIANTE PUBLICACIONES DE LA BOLSA MEXICANA DE VALORES TIPO DE INFORMACION NOMBRE DEL DOCUMENTO PUBLICACIONES FINANCIERAS ANUARIO FINANCIER0 ( VER ANEXO 1) INDICADORES FINANCIEROS: TRIMESTRAL ( VER ANEXO 2) INFORMACION FINANCIERA TRIMESTRAL (VER ANEXO 3) COMPLEMENTO A LA INFORMACION FINANCIERA TRIMESTRAL INFORMACION FINANCIERA MENSUAL INFORMACION SOBRE ASAMBLEAS (ANUALES Y EXTRAORDINARIAS ) COMPLEMENTO A LA INFORMACION SOBRE ASAMBLEAS PUBLICACION DIRECTA EMISORA: AVISO A LOS ACCIONISTAS Y COSTO FISCAL DE LAS ACCIONES ANUARIO BURSATIL INDICADORES BURSATILES: MENSUAL (VER ANEXO 4) BOLETIN SEMANAL BOLETIN BURSATIL CAPITALES (DIARIO) BOLETIN BURSATIL DINERO Y METALES (DIARIO) INVERSION Y FINANZAS (SEMESTRAL) PUBLICACIONES BURSATILES REVISTA Fuente: Elaboración propia. ____________________________________________Capítulo 7: Otros Elementos del Modelo 263 CUADRO 7.4. ANEXOS EMITIDOS POR LA BOLSA MEXICANA DE VALORES (BMV) TIPO INFORMACION I INFORMACION GENERAL ANEXO 1 ANUARIO FINANCIERO ACTIVIDAD ECONOMICA POR EMISORA PRODUCTOS PRINCIPALES POR EMISORA INDICE POR CLAVE O EMISORA INDICE O RAZON SOCIAL LISTADO CRUZADO DIRECTORIO DE CASAS DE BOLSA II BASE DE DATOS INDICE DE PRODUCTIVIDAD COMPORTAMIENTO SECTORIAL GLOBAL DE EMPRESAS COMERCIALES, INDUSTRIALES Y DE SERVICIOS ESTADOS FINANCIEROS POR SECTOR: CONTIENE EL 4 TRIMESTRE NOTAS TIPO DE INFORMACION ANEXO 2 INDICADORES FINANCIEROS TRIMESTRALES INDICE POR EMISORAS LISTADOS CRUZADOS DIRECTORIO DE CASAS DE BOLSA INDICE DE PRODUCTIVIDAD COMPORTAMIENTO SECTORIAL DE EMPRESAS COMERCIALES, INDUSTRIALES Y DE SERVICIOS INFORMACION FINANCIERA TRIMESTRAL POR EMISORA NOTAS I INFORMACION GENERAL II BASE DE DATOS TIPO DE INFORMACION ANEXO 3 INFORMACION FINANCIERA TRIMESTRAL RELACION DE INFORMACION PUBLICA CARATULA DEL DOCUMENTO (ESPECIFICA PERIODO DEL TRIMESTRE) INTEGRACION DEL CAPITAL SOCIAL PAGADO: CARACTERIZTICAS DE LAS ACCIONES DATOS POR ACCION:INFORMACION CONSOLIDADA DATOS POR ACCION: INFORMACION SIN CONSOLIDAR RAZONES FINANCIERAS RAZONES Y PROPORCIONES: INFORMACION CONSOLIDADA RAZONES Y PROPORCIONES: INFORMACION SIN CONSOLIDAR ESTADO DE SITUACION FINANCIERA CONSOLIDADO ESTADO DE RESULTADOS CONSOLIDADO ESTADO DE CAMBIOS EN LA SITUACION FINANCIERA CONSOLIDADO ESTADO DE SITUACION FINANCIERA SIN CONSOLIDAR ESTADO DE RESULTADOS SIN CONSOLIDAR ESTADOS DE CAMBIOS EN LA SITUACION FINANCIERA SIN CONSOLIDAR INFORME DEL DIRECTOR GENERAL NOTAS COMPLEMENTARIAS A LA INFORMACION FINANCIERA RELACION DE INVERSIONES EN ACCIONES INMUEBLES, PLANTA Y EQUIPO CREDITOS BANCARIOS Y BURSATILES BALANZA DE DIVISAS Y POSICION EN MONEDA EXTRANJERA CEDEULA DE INTEGRACION Y CALCULO DE RESULTADO POR POSICION MONETARIA OBLIGACIONES Y/O PAGARE DE MEDIANO Y LARGO PLAZO INSCRITOS EN BOLSA PLANTAS, CENTROS COMERCIALES, DE DISTRIBUCION Y/O SERVICIO MATERIAS PRIMAS DIRECTAS DISTRIBUCION DE VENTAS POR PRODUCTO INFORMACION GENERAL INFORMACION DE ANALISIS FINANCIERO (RATIOS) INFORMACION FINANCIERA TRIMESTRAL CONSOLIDADA INFORMACION FINANCIERA TRIMESTRAL SIN CONSOLIDAR ANEXOS ( 11 ) Fuente: Elaboración propia ____________________________________________Capítulo 7: Otros Elementos del Modelo 264 CUADRO 7.5. ANEXOS EMITIDOS POR LA BOLSA MEXICANA DE VALORES (BMV) TIPO DE INFORMACION ANEXO 4 INDICADORES BURSATILES MENSUALES MERCADO DE DINERO NOMBRE DEL DOCUMENTO INDICE DE LIQUIDEZ: 28 Y 91 DIAS/PLAZO RENDIMIENTO DE DISTINTAS ALTERNATIVAS DE INVERSION EN EL MERCADO DE DINERO 2.1. DATOS IMPORTANTES DEL MES 2.2. INDICES DE PRECIOS: IPCNOMINAL IPCDEFLACTADO (HISTORICO) MUESTRA DE INDICE DE PRECIOS 2.3. VALOR DE MERCADO Y : MULTIPLO PRECIO/UTILIDAD MULTIPLO PRECIO/VALOR EN LIBROS RENDIMIENTO DE DISTINTAS ALTERNATIVAS DE INVERSION DE RENTA FIJA OPERACIONES REPRESENTATIVAS DEL MES RENDIMIENTOS DE SOCIEDADES DE INVERSION PRINCIPALES VARIABLES POR EMISORA VOLATILIDAD DE LAS PRINCIPALES EMISORAS E INDICES SPREADS I INDICADORES DEL MERCADO DE VALORES RENTA VARIABLE (ACCIONES) 3. RENTA FIJA (OBLIGACIONES) INDICE DE BURSATILIDAD INDICADORES DE SENSIBILIDAD INDICADOR DE LIQUIDEZ DE LAS EMISORAS DE ALTA Y MEDIA BURSATILIDAD TASAS PROMEDIO DE DIVIDENDOS COMPORTAMIENTO DE LAS COTIZACIONES OPERATIVIDAD POR EMISORA Y SERIE NUEVAS COLOCACIONES REALIZADAS EN 1997 COLOCACIONES PO CASA DE BOLSA II ESTADISTICAS DE RENTABILIDAD, BURSATILIDAD Y DE RIESGO DE LAS EMISORAS PAGARE CON RENDIMIENTO LIQUIDABLE AL VENCIMIENTO ACEPTACIONES BANCARIAS PAPEL COMERCIAL 3.1. MERCADO DE DINERO MONTOS EMITIDOS POR INSTRUMENTO III MERCADO PRIMARIO MONTOS COLOCADOS REDIMIDOS Y EN CIRCULACION 4.1. MENSUAL RESULTADO DE SUBASTAS CALIFICACIONES DEL PAPEL COMERCIAL COMPORTAMIENTO DE LA COTIZACION DE LOS CERTIFICADOS DE PLATA IV MERCADO DE DINERO TASAS PROMEDIO PONDERADAS ESTADISTICAS OPERATIVAS DEL MERCADO DE DINERO Y METALES 3.1. IMPORTE A PRECIO DE MERCADO (MENSUAL) CETES BONOS AJUSTABLES DEL GOBIERNO FEDERAL BONOS DE TESORERIA DE LA FEDERACION DERECHOS DECRETADOS V MERCADO DE CAPITALES MONTOS EMITIDOS POR DERECHOS DECRETADOS IMPORTE MAXIMO Y MINIMO DEL MERCADO MERCADO INTERMEDIO SALDO EN CIRCULACION DE RENTA FIJA ESTADISTICAS OPERATIVAS DEL SATO INDICADORES PARA LA COBERTURA COMPORTAMIENTO DE TITULOS OPCIONALES OPERATIVIDAD DE TITULOS OPCIONALES COTIZACION DE OPCIONES TELMEX COMPORTAMIENTO DE LOS PRINCIPALES INDICADORES DEL MUNDO: MERCADO MUNDIAL;METALES Y MONEDAS;TASAS DE INTERES INTERNACIONALES EMISORAS DE LIBRE SUSCRIPCION NUEVAS COLOCACIONES DE EMPRESAS MEXICANAS EN EL EXTRANJERO PRINCIPALES VALORES COTIZADOS EN EL EXTERIOR REPATRIACION DE CAPITALES OPERACIONES DE ARBITRAJE FONDO MEXICO COMPOSICION DE LA CARTERA RESUMEN GENERAL DE VENTAS EN CORTO PARTICIPACION POR EMISORA EN LAS VENTAS EN CORTO DE 1997 X DIRECTORIO DE CASAS DE BOLSA CAPITALIZACION, SUSCRIPCION, CANJE Y DIVIDENDOS EN EFECTIVO 2.1. CAPITALIZACION, SUSCRIPCION, CANJE Y DIVIDENDOS EN EFECTIVO VI MERCADO DE PRODUCTOS DERIVADOS OPERATIVIDAD ACUMULADA EN EL ANO RELACION ENTRE MERCADOS RESUMEN DE MERCADOS WARRANTS DE VALORES MEXICANOS EN EL EXTERIOR INVERSION EXTRANJERA EN MERCADO DE DINERO INVERSION EXTRANJERA EN RENTA VARIABLE: ACCIONES INVERSION EXTRANJERA EN TITULOS OPCIONALES: OBLIGACIONES INVERSION EXTRANJERA EN MERCADO INTERMEDIO INVERSION EXTRANJERA EN FONDO NEUTRO INVERSION EXTRANJERA EN SOCIEDADES DE CREDITO INVERSION EXTRANJERA EN EL MERCADO DE RECIBOS AMERICANOS DE DEPOSITO ADR’S VII MERCADOS INTERNACIONALES E INVERSION EXTRANJERA VIII RESUMEN GENERAL DE VENTAS EN CORTO IX RESUMEN OPERATIVO POR CASA DE BOLSA PARTICIPACION POR CASA DE BOLSA EN LAS VENTAS EN CORTO XI NOTA METODOLOGICA Fuente: Elaboración propia. _____________________________________________Capitulo 8: Desarrollo Empírico 265 CAPITULO 8 DEFINICION DEL METODO DE ANALISIS FINANCIERO Y ESTADISTICO. 8.1. ANALISIS PREVIO O PRIMARIO. Considerando todas las limitaciones propias del análisis financiero tradicional y que se ha denominado como análisis previo o primario, aplicaremos únicamente y de forma empírica un segundo tipo de análisis denominado análisis factorial, el cual al basarse en métodos multivariables se relaciona más con los modelos predictivos que hemos revisado en los antecedentes históricos (capítulo 2). Para el análisis primario se utilizan varias de las técnicas tradicionales como las siguientes: el análisis vertical (porcientos integrales) el análisis horizontal (aumentos y disminuciones), el análisis histórico a través de tendencias y comparaciones, y el análisis proyectado o estimado. El análisis previo o primario se basa en una metodología simple y con serias limitaciones aunque utilice el método de ratios, pues se enfrenta con múltiples problemas de window dressing. Sin embargo, su utilización en múltiples estudios está justificada por el hecho de que nos permite una primera aproximación al estado económico y financiero de las empresas muestreadas. A continuación se presenta un breve comentario sobre los procedimientos y objetivos principales de cada una de las anteriores técnicas, aunque esto sólo se hizo con el fin de presentar la estructura conceptual completa de los modelos de análisis financiero más recientes (ver cuadro 8.1.) CUADRO 8.1. UNIDAD DE ANÁLISIS TIPO DE METODO PARA APLICAR UN ESTADO FINANCIERO ANALISIS VERTICAL DOS ESTADOS FINANCIEROS ANALISIS HORIZONTAL UNA SERIE DE ESTADOS FINANCIEROS ANALISIS HISTORICO O ANÁLISIS DE PERFILES ESTADOS FINANCIEROS PROFORMA O PRESUPUESTOS ANALISIS PROYECTADO La interpretación de los porcientos integrales, producto del análisis estático o vertical, está encaminado a mostrar de forma elemental la estructura de la empresa o de sus resultados, y se lleva a cabo de dos formas: literal y gráfica. En cuanto al análisis horizontal, que también recibe el nombre de procedimiento de variaciones, su fin es comparar los conceptos homogéneos a dos fechas distintas, obteniendo a partir de una cifra comparada y una cifra base, una diferencia positiva, negativa o neutra. La aplicación correcta de este tipo de análisis se tiene que basar principalmente en los tres siguientes puntos: a) Conceptos homogéneos entre la cifra comparada y la cifra base. Esto da como resultado la estimación correcta de las variaciones y su aplicación se dirige a cualquier tipo de estados financieros. b) Las normas de valuación. Es otro punto importante a considerar, pues las normas de valuación deben ser las mismas entre los estados financieros sujetos al análisis. También las tasas de amortización y depreciación deben ser constantes y se debe considerar la evolución de las tasas impositivas y partidas que se consideren deducibles fiscalmente. c) Reexpresión de los estados financieros. En cuanto a las cifras, en caso de existir variaciones significativas en los índices de inflación, se tienen que deflacionar las partidas no monetarias para eliminar el efecto de la depreciación monetaria y obtener cifras constantes y actualizadas, en lugar de cifras históricas o nominales. _____________________________________________Capitulo 8: Desarrollo Empírico 266 La aplicación del análisis horizontal generalmente se realiza como un análisis previo y complementario del análisis histórico. Con respecto al análisis histórico, éste sigue las mismas reglas que el análisis horizontal. De hecho es el mismo sólo que con la variante de que compara más de dos estados financieros. Otros nombres y tipos que recibe este análisis son: procedimiento de variaciones absolutas, procedimiento de variaciones relativas, y procedimiento de variaciones de índices (en los últimos dos casos es cuando no se toman en cuenta los valores absolutos). El principal objetivo del análisis histórico es determinar la evolución absoluta y relativa (positiva, negativa o nula) de las distintas cuentas homogéneas de más de dos estados financieros. La base de su procedimiento consiste en incluir conceptos homogéneos, cifras base, cifras comparadas y las tendencias absolutas y relativas. Las cifras tienen que corresponder a estados financieros de la misma empresa y la magnitud de los períodos comparados debe ser igual. Tanto el análisis horizontal como el análisis histórico son procedimientos exploratorios que generalmente indican probables anormalidades, pero que no tienen una solidez y capacidad integral definitiva para la toma de decisiones. Por eso se recomienda llevar a cabo otros tipos de estudios con técnicas e instrumentos más avanzados para poder determinar causas reales que estén produciendo los resultados positivos o negativos en la empresa. Por último, el análisis proyectado o estimado tradicional se ha llevado a cabo a través del control presupuestal y otras técnicas muy conocidas como la del punto de equilibrio. Sin embargo, y como veremos a continuación, con el desarrollo tecnológico de las computadoras estos métodos han pasado a ser mas eficientes al complementarse con otras técnicas más estructuradas y complejas como las utilizadas en el análisis multivariable. (Ver cuadro 8.2 y 8.3) _____________________________________________Capitulo 8: Desarrollo Empírico 267 CUADRO 8.2. METODOLOGIA DEL ANALISIS E INTERPRETACION DE INFORMACION ECONOMICA Y FINANCIERA “El método de análisis, tomando como base la técnica de la comparación, se puede clasificar en forma enunciativa y no limitativa, de acuerdo al siguiente cuadro sinóptico” TIPO DE MÉTODO I METODO DE ANALISIS VERTICAL PROCEDIMIENTOS 1. PORCIENTOS INTEGRALES 2. RAZONES O RATIOS SIMPLES 3. RAZONES O RATIOS ESTANDAR OBJETIVO II METODO DE ANALISIS HORIZONTAL 4. AUMENTOS Y DISMINUCIONES Se aplica para analizar un estado financiero a fecha fija o correspondiente a un período determinado. Se aplica para analizar dos estados financieros de la misma empresa a fechas distintas o correspondientes a dos períodos o ejercicios. Se aplica para analizar una serie de estados financieros de la misma empresa a fechas o períodos distintos o de un grupo de empresas homogéneas a fechas o períodos iguales. Se aplica para analizar estados financieros proforma o presupuestos. III METODO DE ANALISIS HISTORICO 5. TENDENCIAS Y COMPARACION CUYO TIPO DE BASE PUEDE SER: 5.1. SERIE DE CIFRAS O VALORES 5.2. SERIE DE VARIACIONES 5.3. SERIE DE INDICES IV METODO DE ANALISIS PROYECTADO O ESTIMADO Fuente: Elaboración Propia 6. CONTROL PRESUPUESTAL 7. PUNTO DE EQUILIBRIO _____________________________________________Capitulo 8: Desarrollo Empírico 268 CUADRO 8.3. NOMBRE DEL PROCEDIMIENTO 1 .PORCIENTOS INTEGRALES OTROS NOMBRES PORCIENTOS COMUNES CONCEPTO Separa el contenido de los estados financieros en sus elementos o partes integrantes, a una misma fecha o período, con el fin de poder determinar la proporción que guarda cada una de las partes con el todo. Al todo se le asigna el valor relativo del 100%, y a cada una de sus partes su porciento relativo. REDUCCION A PORCIENTOS La aplicación de los porcientos integrales puede enfocarse a estados financieros estáticos, dinámicos, básicos, secundarios, etc. La comparación de los conceptos y cifras de una empresa con otras, a la misma fecha o período, permite determinar la probable anormalidad o defecto de la empresa que es objeto de estudio. 2 RATIOS SIMPLES Consiste en determinar el resultado o la relación entre dos cantidades. Los ratios simples tienen serias limitaciones, sin embargo, son una forma útil de recopilar o comprimir grandes cantidades de datos financieros y comparar su evolución durante varios períodos. Lo anterior permite al analista plantearse la pregunta adecuada aunque la respuesta requiera de técnicas más potentes. Consiste en determinar las diferentes relaciones de dependencia que existen al comparar geométricamente el promedio de las cifras de dos o más conceptos que integran el contenido de los estados financieros. La razón estándar se define como la interdependencia geométrica del promedio de las cifras obtenidas de una serie de datos de empresas dedicadas a la misma actividad. Es medida de eficiencia y control basada en una cifra media representativa, normal o ideal, se trata de igualar o superar. También a este tipo de ratios se les definen como el promedio de una serie de cifras o razones simples de estados financieros de una empresa, a distintas fechas o períodos, o bien, de varias empresas de igual tamaño y dedicadas a similar actividad a una misma fecha o período. El número de razones estándar es ilimitado y dependerá del criterio y sentido común del analista para determinar cuales son las de mejor utilidad. 3 RATIOS ESTANDAR 4 AUMENTOS Y DISMINUCIONES VARIACIONES Consiste en comparar los conceptos homogéneos de los estados financieros a dos fechas distintas, obteniendo de la cifra comparada y la cifra base, una diferencia positiva, negativa o neutra. Consiste en determinar las tendencias absoluta y relativa de las cifras de los distintos renglones homogéneos de los estados financieros de una empresa. Las cifras y tendencias relativas pueden ser positivas, negativas o neutras. 5 TENDENCIAS PORCIENTO DE VARIACIONES 5.1. BASE DE SERIE VALORES ABSOLUTOS: Ordena cronológicamente la serie de cifras absolutas de los distintos renglones homogéneos de los estados financieros. Este procedimiento da sólo una simple apreciación de los cambios absolutos de las cifras y toma como base a: 1) conceptos homogéneos; 2) cifra base (la de mayor antigüedad;, y 3)Cifras comparadas. 5.2. BASE DE SERIE DE VALORES RELATIVOS: Ordena cronológicamente las variaciones absolutas, relativas, o bien, las variaciones absolutas y relativas de los distintos renglones homogéneos de los estados financieros. También toma como base a los elementos descritos en el inciso 5.1. 5.3. BASE DE SERIE DE INDICES: Consiste en determinar la importancia relativa de la serie de cifras de los distintos renglones homogéneos de los estados financieros. También toma como base a los elementos descritos en el inciso 5.1. 6 CONTROL PRESUPUESTAL Consiste en confeccionar para un período definido, un programa de previsión, operación y administración financiera, basado en experiencias anteriores y en deducciones razonadas de las condiciones que se prevén para el futuro. Este procedimiento no es más que el conjunto de alternativas y recursos de que se vale el analista para planear, coordinar y dictar medidas para controlar todas las operaciones y funciones de una empresa con el fin de obtener el máximo de rendimiento con el mínimo de recursos. PUNTO CRITICO 7 PUNTO DE EQUILIBRIO Consiste en predeterminar un importe o cifra en que la empresa no sufra perdidas, ni obtenga beneficios, es decir, es el punto en donde las ventas son igual a los costes y gastos. Para obtener esta cifra es necesario se reclasifiquen los costes y gastos del estado de resultados en: coste fijos y costes variables. Una característica importante del punto critico es que nos reporta datos anticipados y es un procedimiento muy flexible para distintos tipos de empresas. Fuente: Elaboración Propia. _____________________________________________Capitulo 8: Desarrollo Empírico 269 8.2. ANALISIS PRINCIPAL O FINAL. Las limitaciones de los ratios dentro del análisis primario han llevado a no pocas investigaciones sobre el tema a la necesidad de utilizar otras técnicas de análisis más globales y de mayor alcance basadas en la estadística, como es el caso de los Modelos Univariables y Multivariables. La investigación empírica realizada con ambos modelos dentro del análisis de la solvencia se ha orientado principalmente hacia un caso particular: la predicción de quiebras (Gabas: 1990). Los modelos predictivos, que incluyen un conjunto de métodos estadísticos avanzados, se enfocan hacia el contenido de la información contable expresada en los ratios. Los modelos univariables utilizan una sola variable independiente mientras los multivariables, que son los más desarrollados, hacen uso de una combinación de variables independientes para analizar dinámicamente las actividades financieras y económicas de la empresa con el fin de reducir variables y predecir problemas de insolvencia o probabilidad de quiebra. Para el análisis principal o final, ya más complejo, se combinan varios de los modelos multivariables con el fin de contar con herramientas de más alcance que sirvan en la medición y predicción del fracaso o éxito de la empresa mediante la obtención de los indicadores empíricos globales o de síntesis requeridos. Sin embargo, a la fecha existen serios problemas en cuanto a los métodos estadísticos aplicados. En el caso que nos ocupa se ha seleccionado el análisis factorial de componentes principales, pues es el método multivariable que mejor nos permite perfeccionar la selección de la base de datos traducida a ratios. A lo largo de la revisión bibliográfica e histórica de los modelos predictivos que se ha llevado a cabo, se ha observado que entre los principales problemas estadísticos que éstos presentan están las dificultades en la distribución de las variables, la dispersión de grupos, la inadecuada reducción en el número de variables así como en la limitación de los factores, la elección incorrecta de las probabilidades poblacionales previas, la cuantificación incorrecta de los costes de error, la incorrecta interpretación de la significancia de los factores y de las variables independientes, entre otros. Con respecto al último punto, dentro del análisis discriminante existen serías dudas sobre la certeza de la contribución relativa de cada una de las variables independientes dentro de la función lineal, así como de su correcta interpretación. Para mejorar este aspecto se ha propuesto para la medición de los coeficientes, estimar “coeficientes estandarizados”. Sin embargo, esto no es posible realizarlo a través del análisis discriminante. Otra propuesta muy aceptada es seleccionar y reducir un conjunto original de factores aplicando métodos estadísticos reductivos, como el análisis de componentes principales. A partir de esta propuesta, nos enfocamos a desarrollar el método de componentes principales como parte central del análisis principal o final. 8.3. MODELO MULTIVARIABLE: COMPONENTES PRINCIPALES. ANALISIS FACTORIAL A TRAVES DE La justificación de la aplicación de métodos multivariables dentro del análisis financiero para determinar la probabilidad del fracaso o éxito empresarial, parte de la base de que se trata de un tema complejo al interactuar varios factores simultáneamente y combinados entre sí, como por ejemplo: la falta de liquidez con la falta de beneficios; o bien, una estructura financiera “sobreapalancada” y una estructura económica “sobrefinanciada” que puede llevar a la empresa a su liquidación. Sin embargo, aunque estos elementos son negativos y supuestos lógicos para que fracase cualquier empresa, el principal problema radica en determinar el peso específico o la contribución marginal que tienen cada uno de ellos dentro del modelo predictivo. Con base en lo anterior, una metodología adecuada exige la observación conjunta del desarrollo de éstos y otros factores. También es importante que se intente determinar un perfil sobre las características conjuntas de esas variables explicativas, las cuales se muestran de forma distinta en cada empresa en función de que el individuo observado presente o no tal condición (Lizarraga: 1996, p. 93). _____________________________________________Capitulo 8: Desarrollo Empírico 270 Entre las principales clasificaciones utilizadas en los modelos multivariables están las que los divide en: a) métodos descriptivos o exploratorios (no se establece ninguna hipótesis previa); y b) métodos explicativos o confirmatorios (se basan en un marco teórico para fundamentar y validar empíricamente una hipótesis). Otra importante clasificación, y que es la que hemos tomado en cuenta, es la que divide a los métodos en: a) métodos reductivos (análisis factorial, componentes principales, correlación canónica, análisis de clusters, análisis de correspondencias); y b) métodos de dependencia (análisis de la varianza, análisis de la covarianza, regresión múltiple, análisis discriminante, análisis de probabilidad condicional Logit y análisis de probabilidad condicional Probit). La selección adecuada de la técnica multivariable para un modelo predictivo está en función principalmente de la forma que presente la variable dependiente y la base de datos con la que se estiman las variables independientes. Por ejemplo, cuando la variable dependiente tiene una forma continua se utiliza la regresión. En cambio, cuando dicha variable presenta una forma categórica se puede utilizar el análisis discriminante, el análisis logit o el análisis probit. En cuanto a la regresión múltiple, cuya forma es continua, se considera como uno de los métodos multivariables más simples aunque de tipo muy general. Este método muestra en qué medida la variabilidad conjunta de las variables independientes explica la variación de la variable dependiente. Aquí el problema radica en que no siempre en los modelos predictivos la variable dependiente permite la asignación de valores de significación numérica de rango continúo, sobre todo en el instante de definir a la unidad temporal de las empresas fracasadas, pues el momento del fracaso no es exacto o puntual. Ante esta situación, que es muy común que se presente, numerosos trabajos de investigación se han encaminado a expresar a la variable dependiente como dicotómica, con el fin de limitar la complejidad del modelo y poder aplicar la técnica de regresión. Una vez llevado a cabo esto, es posible también utilizar otras técnicas importantes como el análisis discriminante, el análisis logit y el análisis probit. Estos dos últimos de hecho son variantes de la regresión que se pueden aplicar a variables categóricas. También algunos investigadores han considerado que el análisis discriminante es una adaptación de la regresión en los casos en que la variable dependiente es cualitativa. Sin embargo, cuando el problema no radica exactamente en la variable dependiente, sino en la selección de las variables independientes, se debe seleccionar un método reductivo. Es importante mencionar que en el caso de este estudio nos enfocamos a seleccionar el método reductivo del factorial, dado que lo que interesa es reducir el número de ratios y de factores a partir de una base de datos contable reexpresada, con el fin de obtener para posteriores etapas indicadores estándar de un sector productivo específico que cotice en la Bolsa Mexicana de Valores. Posteriormente, estos indicadores representarán un punto de partida para contrastarlos con otras empresas, que aunque no coticen en bolsa, pertenezcan al tamaño y sector de la muestra original seleccionada. Al final, el propósito es definir una función lineal muy específica para analizar el sector hotelero complejo mexicano, para lo cual dicha función incluiría las variables independientes más representativas para evaluar a este tipo de empresas. A partir de Spearman (1904) se estableció el inicio del análisis factorial cuando en su estudio sobre la inteligencia distinguió un factor general con respecto a un cierto número de factores específicos. Este autor había considerado como antecedentes teóricos las técnicas de regresión lineal propuestas por Galton (1888). Por otra parte, Pearson (1901) propuso el método de componentes principales como un primer paso previo para llevar a cabo las estimaciones del análisis factorial. Posteriormente, Hotelling (1933) aplicó el método de extracción de factores mediante la técnica de componentes principales, la cual hasta nuestros días se ha confirmado como una de las más aceptadas entre los diversos trabajos predictivos. La relación entre las correlaciones y las saturaciones de las variables en los factores fue expuesta por Thurstone (1947). Este autor introdujo la idea de la estructura simple , así como la teoría y el método de las rotaciones factoriales ortogonales y oblicuas con el objetivo de obtener una estructura factorial más sencilla para facilitar la interpretación de los factores. Por último, otra aportación importante relacionada con este tipo de análisis fue la de Keiser (1958), quien desarrolló una serie de procedimientos matemáticos mediante el método varimax para llevar a cabo las rotaciones ortogonales, pues antes de sus trabajos dichas rotaciones únicamente eran gráficas. _____________________________________________Capitulo 8: Desarrollo Empírico 271 Dentro del campo de estudio sobre el fracaso empresarial, el trabajo de Libby (1975) representó una de las primeras investigaciones en donde se aplicó el análisis factorial mediante el método de componentes principales antes de aplicar el análisis factorial común. Como sabemos, un problema que se presenta en los modelos predictivos es que al utilizarse numerosas variables independientes se origina la multicolinealidad y esto afecta negativamente a los coeficientes estimados e impide valorar la importancia relativa de cada ratio. El análisis factorial de componentes principales, que es una técnica estadística reductiva muy aceptada en los estudios predictivos, se utiliza en este trabajo como la técnica multivariable principal para tratar de limitar los anteriores problemas, reduciendo el conjunto de variables independientes a un pequeño conjunto de factores subalternos que agrupen las variables originales dentro de los conjuntos llamados simplemente: “componentes” o “factores”. En términos generales, la técnica factorial resume la información contenida en una matriz de datos con “V” variables, identificando un pequeño número de factores “F”, para lo cual “F < V”. El modelo matemático de esta técnica es el siguiente: CUADRO 8.4. MODELO MATEMÁTICO DE LA MATRIZ DE DATOS X ij=F1i a i1 + F2i a i2 +..........+Fki a ik + Ui Donde: Xij = Puntuación del individuo i en la variable j Fij = Coeficientes factoriales a = Puntuaciones factoriales u = Factor único Los factores comunes son variables independientes que representan las mejores variables originales en cuanto a la menor capacidad de pérdida de información y a la facilidad para su obtención. Con respecto a los factores únicos, estos son aquellos que no están correlacionados entre sí ni con ninguno de los factores comunes. En el supuesto, que sería ilógico, de que todos los factores posibles se incluyeran en la solución, toda la variabilidad de cada variable quedaría explicada, y por lo tanto, no habría ningún factor único. Por otra parte, dentro del análisis de componentes principales, la proporción de la varianza explicada por los factores comunes (comunalidad de la variable) en los estadísticos iniciales es igual a 1 para todas las variables. Antes de desarrollar el análisis de componentes principales, es importante considerar que para que se alcance una correcta aplicación del análisis factorial, en primer lugar es necesario cumplir dos condiciones básicas que son: a) La parsimonia. Su fundamento radica en que los fenómenos tiene que poder explicarse con el menor número de elementos posibles, es decir, el número de factores debe ser el mínimo sin por ello perder información importante. b) La interpretabilidad. Esto se refiere a que todos los factores tienen que tener capacidad de interpretación sustantiva. Con base en lo anterior, se afirma que un análisis factorial eficiente es aquel que proporciona una solución factorial sencilla e interpretable. Este tipo de análisis no es un fin en sí mismo (excepto cuando se aplica el análisis de componentes principales), sino que se utiliza como un paso previo al análisis definitivo y por eso su alcance radica en determinar qué variables forman diferentes grupos o factores mutuamente independientes para su posterior incorporación en el análisis final, manteniendo el mayor porcentaje de información contenida o varianza explicada por las variables independientes originales. _____________________________________________Capitulo 8: Desarrollo Empírico 272 Si partimos del principio fundamental del análisis factorial, el cual establece que la correlación observada entre las variables responde a que éstas comparten factores comunes, entonces es factible utilizar las correlaciones entre los factores y las variables, para estimar las correlaciones entre las variables. En cuanto al tipo de análisis factorial, éstos se pueden dividir en dos tipos que son: el exploratorio y el confirmatorio. En el primero no se conocen los factores a priori y éstos se determinan a través del método “eigenvalue”. En cambio en el segundo, los factores que se establecen a priori contienen a las variables independientes originales, siendo el número de estas últimas mayor que el número de factores seleccionados (“V > F”). En general, el análisis factorial exploratorio se aplica cuando se tiene un desconocimiento teórico del objeto de estudio, y por lo tanto, el analista no tiene que formular ninguna hipótesis con respecto a la distribución de los pesos factoriales, pues éstos se deducirán a partir de los datos cumpliendo con los principios de simplicidad y parsimonia. Aquí los factores tienden a ser generalmente sencillas reformulaciones tautológicas de las variables originales, sin embargo, la interpretación se vuelve más difícil para el analista al desconocer los efectos que produce la covariación. En cambio, en el análisis factorial confirmatorio sí se cuenta con información sobre las variables y sus intercorrelaciones, con lo cual se formulan hipótesis a priori que pueden ser contrastadas. Es decir, el análisis confirmatorio exige una hipótesis previa sobre el número de factores comunes, así como de las relaciones de dependencia entre cada variable con cada uno de los factores. Por ejemplo, en este estudio se seleccionaron algunas de las variables más representativas para medir la rentabilidad, la eficiencia, la productividad, la liquidez, el cash flow, la solvencia y el endeudamiento. A partir de esto, y estableciendo un marco teórico bien fundamentado, se explicaron las similitudes y diferencias teóricas que existen entre cada uno de los factores seleccionados. Posteriormente, aunque sí partimos de una base teórica que nos permitiera aplicar un análisis factorial confirmatorio, también incluimos un análisis factorial exploratorio para contrastarlos a ambos. Para ello, dentro del programa factorial del SPSS, en la extracción de factores se seleccionó primero la opción del “eigenvalue”, dándonos como resultado seis posibles factores. A continuación, para el análisis confirmatorio aplicamos cinco alternativas en cuanto al número de factores que consistieron en: tres, cuatro, siete, ocho y diez factores. Como sabemos todas estas variantes sobre el número de factores dan resultados exactamente iguales en cuanto a la matriz de datos y sus respectivas pruebas (KMO, MSA, test de esfericidad de Bartlett, el determinante, la gráfica “scree plot”, entre otros). Por otra parte, a partir de las comunalidades, el análisis de la varianza explicada, las matrices factoriales rotadas y sin rotar, entre otros, sí influye significativamente el número de factores previamente establecidos en los resultados obtenidos como lo veremos con más detalle en posteriores líneas. Según Batista y Martínez (1989), el análisis de componentes principales (ACP) puede enfocarse de dos formas distintas dependiendo de los objetivos del investigador. Primero se considera como una técnica multivariable con objetivos descriptivos para tratar matrices de grandes dimensiones, o bien, es una técnica para reducir la dimensión original de un conjunto de variables con el fin de alcanzar una mayor interpretabilidad de éstas, ya que existen variables latentes que son los componentes que se determinan mediante combinación lineal de las variables originales. El segundo enfoque es el que considera que los componentes principales son una técnica exploratoria de datos con el fin de entenderlos mejor y en donde no se pone ninguna restricción a éstos. También desde un enfoque geométrico, los componentes principales son una técnica para situar de forma óptima ejes de coordenadas. Cuando algunos investigadores consideran al ACP como una técnica igual a la del análisis factorial, se debe principalmente al hecho de que en el último tipo de análisis se pueden extraer los factores por el método de componentes, y aquí los resultados no son significativamente distintos. También el punto de inicio de ambos métodos es a partir de la matriz de correlaciones y esto lleva a considerarlos como modelos iguales por parte de algunos investigadores. Sin embargo, la diferencia radica en que Hotelling _____________________________________________Capitulo 8: Desarrollo Empírico 273 (1933) al intentar desarrollar el ACP, pretendió inicialmente resolver el problema de la extracción de factores como un paso previo al análisis factorial. Pero posteriormente cambió sus objetivos y dicha extracción se convirtió en el punto central. A partir de esto, el producto final en el ACP es: la matriz transformada, la matriz de componentes y la matriz de componentes rotada, cuyas columnas son los vectores propios de la matriz de correlaciones que definen a los componentes principales como combinación lineal de las variables observadas. El propósito de seleccionar el análisis factorial, utilizando la técnica del ACP, es porque representa un análisis exploratorio para determinar si un número pequeño de factores pueden explicar casi igual que si se utilizara el conjunto original de variables sin perder información importante. Este método es recomendado por Dillon y Goldstein (1984). También el ACP es uno de los métodos pioneros del análisis multivariable, y como ya se apuntó, consiste en transformar un conjunto de variables intercorrelacionadas en otro conjunto de variables no correlacionadas que se denominan factores, los cuales son una combinación lineal de las variables originales. Hotelling (1933) llegó a la conclusión de que el primer componente principal que se obtiene es el que resume mejor la información proveniente de la matriz de datos original, pues contribuye a explicar mejor la varianza total. A continuación, el segundo componente principal, que es independiente del primero, es aquel que resume mejor la información restante, y por lo tanto, aporta un máximo de la varianza residual resultante; y así sucesivamente se comportaran cada uno de los posteriores factores hasta llegar a explicar la varianza total (ver tabla 5). Cuando se considera el análisis factorial como un sinónimo del ACP, es posible seleccionar un número de factores significativos, presentando factores o componentes como variables iniciales para posteriormente reducirlos únicamente a aquellos que sean superiores a la unidad. Aquí el objetivo principal consiste en obtener el menor número de factores con la menor pérdida de información. Reducidas las variables independientes en pocos factores se procede a incorporarlas en un modelo de acuerdo a su peso correspondiente o loanding. Esto último tiene como objetivo indicar el grado de acercamiento de cada una de las variables independientes con respecto a su factor, reflejando la correlación entre dicha variable original y el factor obtenido o establecido previamente (si se aplicó el factorial confirmatorio). En el caso del análisis de componentes principales (“component loandings”), en ocasiones no se selecciona al ratio con mayor peso (loanding), pues la selección considera la dependencia muestral, y aunque ciertos ratios presenten pesos más bajos con respecto a otros, pueden en cambio tener más poder predictivo, la información que contienen es más fácil y fiable de obtenerse a través de los estados financieros, o bien, presentado las variables independientes pesos similares en varios de los factores, al eliminarse pueden facilitar la taxonomía y asignación respectiva del nombre dentro de dichos factores. Esto lo veremos de forma empírica cuando analicemos la matriz factorial rotada. 8.4.1. METODOLOGIA A SEGUIR PARA LA APLICACION DEL FACTORIAL. Tanto en el análisis factorial común como en el análisis de componentes principales (o de las demás variantes que existen) se presentan básicamente cuatro pasos a cumplir que son: a) Se calcula la matriz de correlaciones o de datos entre las variables a partir de la matriz de datos originales, y posteriormente se aplica un conjunto de pruebas para comprobar si dicha matriz es significativamente diferente de una matriz identidad. b) Se obtienen o extraen los factores iniciales y necesarios que representen a los datos originales. c) Se lleva a cabo la rotación de los factores iniciales y su representación gráfica para facilitar su interpretación. d) Se estiman las puntuaciones factoriales para cada individuo o empresa para que se utilicen en estimaciones posteriores. _____________________________________________Capitulo 8: Desarrollo Empírico 274 8.4.2. CALCULO DE LA MATRIZ DE CORRELACIONES ENTRE LAS VARIABLES. Para la aplicación del análisis factorial se requiere de inicio una matriz de datos1, también conocida como matriz de datos original, para que se transforme en una matriz de correlaciones (“determinant of correlation matrix”). A través de la matriz de correlaciones, que se calcula con todas las variables independientes para utilizarse como un input, se indica el grado de las intercorrelaciones, aunque aquí no aparecen las cargas factoriales del factor único. Para llevar a cabo esta tarea se recomienda efectuar un análisis de esta matriz con el fin de verificar si sus características responden a las exigencias del análisis factorial. Entre uno de los requisitos más importantes que debe cumplir la matriz de datos está el que las variables independientes tienen que estar altamente correlacionadas, y para esto se tiene que tomar en cuenta el determinante de la matriz. Si dicho determinante es muy bajo, entonces significa que existe variables con intercorrelaciones muy altas, y entonces es factible continuar con el análisis factorial. Sin embargo, el determinante no debe ser igual a cero, pues en este caso los datos no serían válidos. Para el caso de este estudio obtuvimos un determinante igual a 2.517E-15. Esto nos indica que dicho determinante es muy próximo a cero. También al comprobar si la matriz de correlaciones es una matriz identidad, es decir, que las intercorrelaciones entre las variables son ceros, se utiliza el “test de esfericidad de Bartlett”, el cual consiste en una estimación de “ji-cuadrado” a partir de una transformación del determinante de la matriz de correlaciones. Si las variables no están intercorrelacionadas, entonces el test de Bartlett presenta una nube de puntos en forma de esfera dentro del espacio. El test de esfericidad de Bartlett se basa en que el determinante de la matriz es un índice de la varianza generalizada de la misma. Esto quiere decir que un determinante próximo a cero indica que una o varias de las variables independientes pueden ser expresadas como una combinación lineal de otras variables independientes (Bizquerra: p. 295-296). Para llevar a cabo este análisis es necesario que los datos procedan de poblaciones con distribución normal multivariable. Según Miquel (1996), se pueden dar como válidos aquellos resultados que presenten un valor elevado del análisis y cuya fiabilidad sea menor a 0.05. En nuestro caso dicho análisis presentó una significancia muy inferior al límite de 0.05, pues fue de .000, lo cual nos indica que la matriz de datos es válida para continuar con el proceso del análisis factorial (ver tabla 2). El tercer análisis a tomarse en cuenta fue el índice “Kaiser – Meyer – Olkin” (KMO), que sirve para comparar las magnitudes de los coeficientes de correlación general o simple con respecto a las magnitudes de los coeficientes de correlación parcial 2. Si la suma de los coeficientes de correlación parcial elevados al cuadrado entre todos los pares de variables es bajo en comparación con la suma de los coeficientes de correlación al cuadrado, entonces el índice KMO estará próximo a uno y esto se considerará positivo e indicará que se puede continuar con el análisis factorial. Pero si se obtienen valores bajos con el índice KMO, entonces indica que las correlaciones entre pares de variables no pueden ser explicadas por las otras variables, y por lo tanto, no es factible llevar a cabo el análisis factorial ya que el índice KMO se alejará de cero. Esto se debe a que cuando las variables independientes tienen factores comunes, el coeficiente de correlación parcial entre pares de variables es bajo al eliminarse los efectos lineales de las otras variables. En el caso de la matriz de datos que estamos examinando, obtuvimos un KMO de .661. Considerando que los valores oscilan entre 0 y 1, según un baremo para interpretar dichos resultados, el resultado obtenido se considera como mediano o bueno (ver tabla 2). 1 En el análisis multivariable se utilizan tres tipos básicos de matrices que son: la matriz de datos o rectangulares; la matriz de correlaciones y varianzas o triangulares; y la matriz cuadrada. 2 Los coeficientes de correlación parcial indican la fuerza que existe entre dos variables, sin considerar la influencia de otras variables. _____________________________________________Capitulo 8: Desarrollo Empírico 275 Un cuarto análisis que se aplicó fue el del coeficiente de correlación parcial, que se utiliza como un indicador que muestra la fuerza de las relaciones entre dos variables eliminando la influencia de las otras variables. Este coeficiente es bajo entre pares de variables si las variables tienen factores comunes, ya que se eliminan los efectos lineales de las otras variables. Las correlaciones parciales representan estimaciones entre factores únicos, los cuales deben estar intercorrelacionados entre sí, y además deben tender a ser próximos a cero cuando se dan las condiciones para el análisis factorial (ver tabla 1.2.). Por otra parte, también existe un coeficiente de correlación parcial que es negativo y se denomina: coeficiente de correlación anti-imagen (“anti-image correlation”). Si la matriz contiene correlaciones anti-imagen, entonces indica que hay un elevado número de coeficientes altos que deben tomarse en cuenta antes de aplicar el factorial. Según Miquel (1996), en la matriz de correlación antiimagen se deben observar pocos valores elevados en términos absolutos y no debe haber un número elevado de coeficientes ceros, pues de lo contrario se recomienda no llevar a cabo el análisis factorial. En nuestro caso, la matriz de correlación anti-imagen mostró en general valores muy bajos y sólo se detectaron tres valores cero, lo que da un excelente indicador con respecto a la bondad o pertenencia para aplicar el factorial (ver tabla 3.2.). Otro análisis para comprobar la factibilidad de la aplicación del factorial es la diagonal de la matriz anti-imagen, la cual permite ver el valor de las medidas de adecuación que presenta cada variable y que conocemos como: “Measure of Sampling Adecuacy” (MSA). Este tipo de medida permite comprobar variable por variable, si es adecuado llevar a cabo el análisis factorial. Aquí se toma como valores mínimos y máximos respectivamente el 0 y el 1, siendo tanto mejor cuanto mayor sea el valor del MSA. En el caso de la matriz de correlaciones anti-imagen, de los 21 valores sólo se presentaron dos valores muy bajos que fueron: R35 = .36, y el R14= .26. (tabla 3.2.). Los resultados anteriores proporcionan otro indicador positivo sobre la matriz de datos. La conclusión sobre la primera etapa del análisis factorial es que se comprueban y superan satisfactoriamente todos los tipos de análisis sobre la pertinencia y validez de la matriz de datos. Dicha matriz quedó conformada por 5 ratios de rentabilidad (R1 , R 4 , R9 , R11, R 12), 3 ratios de productividad y eficiencia (R13, R 14, R15), 5 ratios de liquidez (R28, R30, R35, R36, R38), 1 ratio de cash flow (R 50), 5 ratios de solvencia (R51, R 52, R 56, R 57, R 58) y 2 ratios de endeudamiento (R64, R 70). Como se puede observar los ratios predominantes son los de rentabilidad, liquidez y solvencia. Esto coincide con el marco teórico tradicional de los modelos predictivos que consideran a estos tres factores como los más importantes dentro de la función lineal discriminante. Con esto podemos proceder a llevar a cabo la segunda etapa que consiste principalmente en la extracción de los distintos factores a través de la agrupación de las 21 variables originales en unas nuevas variables que denominaremos indistintamente como: “componentes” o “factores”, las cuales son combinaciones de las variables originales. 8.4.3. EXTRACCION DE LOS FACTORES REPRESENTEN A LOS DATOS ORIGINALES. INICIALES Y NECESARIOS QUE Utilizando el análisis factorial de componentes principales a partir de la matriz de correlaciones se obtiene la matriz factorial (“factor matrix”), que es una reproducción de la primera de forma simple. Cada columna de esta nueva matriz representa a un factor y el número de filas corresponde por igual al número de variables independientes. Con este output también obtenemos una tabla de comunalidades (ver tabla 4) y una tabla de la varianza total explicada (ver tabla 5). En el caso del análisis factorial confirmatorio, en ambas tablas se dan diferentes resultados de acuerdo al número de factores seleccionados previamente. Previo al análisis de las estimaciones de las comunalidades, primero es importante entender que la comunalidad es la proporción de la varianza explicada por los factores comunes. Las comunalidades iniciales dentro del análisis de componentes principales son siempre iguales a uno, por lo que este dato no representa información importante. En cambio, en los estadísticos finales la comunalidad sí tiene una significación importante. Esto se debe a que al final del proceso no queda explicada la varianza _____________________________________________Capitulo 8: Desarrollo Empírico 276 total de cada una de las variables debido a que sólo se ha conservado un pequeño conjunto de factores entre todos los posibles, y por lo tanto, la comunalidad de cada variable representará la proporción de varianza explicada por el conjunto de los factores finales resultantes. La comunalidad (h 2 ) de cada variable se estima a partir de la matriz factorial, y esto es igual a la suma de los cuadrados de las saturaciones o ponderaciones factoriales de cada una de las variables, es decir: CUADRO 8.5. FORMULA DE LA COMUNALIDAD h2 i = F2 1j + F2 2J +........... + f2 KJ La comunalidad puede oscilar entre cero y uno. Cuando obtenemos una comunalidad de cero quiere decir que los factores comunes no tienen ningún poder explicativo de la variabilidad de una variable. En cambio, si la comunalidad es uno, entonces la variable está totalmente explicada por los factores comunes que aparecen en la matriz factorial. Por último, la varianza que no queda explicada por los factores comunes se atribuye al factor único, el cual no aparece en la matriz factorial, y esto se puede expresar de la siguiente forma: CUADRO 8.6. EXPRESIÓN MATEMÁTICA DEL FACTOR UNICO 1 = h2 +U2 Donde: h2 = comunalidad U2 = factor único Si se logran obtener los factores o determinados grupos de variables correlacionadas para formar cada uno de los factores iniciales con un fundamento teórico sólido, se supera uno de los principales problemas para llevar a cabo la correcta aplicación del análisis factorial. También es importante mejorar la normalidad, pudiéndose alcanzar esto a través de transformaciones logarítmicas, o bien, reduciendo los valores extremos y mejorando la homocedasticidad de las distribuciones. Este último aspecto es un supuesto relativo principalmente a las relaciones de dependencia entre las variables. Con variables independientes métricas, la homocedasticidad se basa en la dispersión de la varianza de la variable dependiente a lo largo del rango de los valores de la variable independiente. En el caso de nuestro estudio, y por lo que respecta a la tabla de comunalidades, comentamos a continuación los eventos más importantes que observamos. Entre más factores se establecieron, se incrementó la comunalidad final de cada una de las variables originales. Es decir, si consideramos que la comunalidad es el porcentaje de las variables iniciales explicadas por las nuevas variables (factores), entonces cuando aumentamos el número de estas nuevas variables, también se incrementa la proporción de la varianza explicada. Por otra parte, se observó que al calcular las comunalidades por medio de los valores propios (“eigenvalue”), el cual dio como resultado 6 factores, la varianza explicada varió muy poco con relación a los resultados obtenidos a través del análisis factorial confirmatorio con 7 y 8 factores, a excepción de los ratios R30 y R50 en donde las diferencias fueron bastante notorias como se puede apreciar en el cuadro 8.7. CUADRO 8.7. RATIO EIGENVALUE 6 FACTORES 7 FACTORES 8 FACTORES 10 FACTORES R30 R50 .178 .228 .503 .688 .864 .722 .999 .999 _____________________________________________Capitulo 8: Desarrollo Empírico 277 Lo anterior indica que estos dos ratios se explican muy bien al establecerse entre 7 a 10 factores. En este último caso ambos ratios llegan a explicarse casi en su totalidad. Por otra parte, en el caso de los ratios R51 y R58, se obtiene una varianza explicada idéntica al estimar las comunalidades a través de un factorial exploratorio y un factorial confirmatorio con los 7 factores que establecimos a través de nuestro marco teórico, variando en muy poco la varianza explicada al incrementarse el número de factores como lo podemos observar en el cuadro 8.8. CUADRO 8.8. RATIO EIGENVALUE 6 FACTORES 7 FACTORES 8 FACTORES 10 FACTORES R51 R58 .952 .991 .952 .991 .954 .992 .964 .992 En cuanto al número de factores que explican en más del 85% a las variables originales, observamos que con 7 factores se obtuvieron mejores resultados en comparación con el “eigenvalue”. Con respecto a los resultados obtenidos con 7 y 8 factores, la diferencia fue mínima pues sólo se incrementaron los porcentajes de la varianza explicada en tres variables dentro del conjunto de 8 factores, según lo muestra el cuadro 8.9. CUADRO 8.9. RATIOS R12 R15 R28 R30 R36 R50 R57 Total de Ratios EIGENVALUE 6 FACTORES .795 .528 .636 .178 .775 .228 .769 7 7 FACTORES .798 .539 .651 .503 .794 .688 .783 7 8 FACTORES .817 .659 .744 .722 4 Por último, las comunalidades que obtuvimos con 3 y 4 factores fueron muy bajas en comparación con el “eigenvalue” y el análisis confirmatorio con 7 y 8 factores, ya que se obtiene respectivamente en el primero y segundo caso: 18 y 13 variables independientes con porcentajes menores al 85% (ver tabla 4). Esto nos vuelve a indicar que el número de factores adecuados para obtener la matriz factorial oscila entre 6 y 8 factores. Sin embargo, para obtener aún más evidencia empírica sobre esta hipótesis es necesario pasar a analizar la tabla de la varianza total explicada y su respectivo gráfico de sedimentación denominado: “scree plot”. La tabla de la varianza total explicada la podemos dividir para su análisis básicamente en dos partes. En la primera de ellas se encuentran los estadísticos iniciales de los factores seleccionados, en donde primero encontramos la lista de factores o componentes. En seguida se presentan los valores propios (“initial eigenvalues”) en valores absolutos (“total”) y valores relativos con sus respectiva acumulaciones (“% of variance” and “cumulative %”). Posteriormente, y para completar la primera parte de la tabla, se presenta la varianza explicada de todos los factores seleccionados en el análisis confirmatorio o en el análisis exploratorio. Esta parte de la tabla de ninguna forma se ve alterada en las estimaciones por la inclusión o exclusión de factores. Es importante destacar que en esta tabla los componentes ya no representan a los valores de las variables originales, sino a las variables independientes de acuerdo a su comunalidad final. Por otra _____________________________________________Capitulo 8: Desarrollo Empírico 278 parte, considerando la varianza acumulada de los factores seleccionados es posible obtener el grafico de sedimentación “scree plot” para facilitar la interpretación de la varianza explicada por cada factor. Por lógica podemos deducir que dicho gráfico tampoco se ve modificado por el número de factores seleccionados. Además, esta gráfica elimina todas aquellas variables con “eigenvalues” menores a uno. El “scree plot” representa en el eje de las “x” el número de los factores en orden ascedente, y en el eje de las “y” los valores propios (“eigenvalue”) en orden descedente. Como se puede observar en la tabla 2, el gráfico mostró que con 6 factores se puede explicar el 80.34% de la información total, pues a partir del factor 7 el punto de “quiebra” es casi horizontal, y esto le sugiere al analista que la información restante ya no es tan importante. Sin embargo, si analizamos la tabla 5 de la varianza total explicada, veremos que incluyendo el factor 7 y 8 se incrementa la varianza total explicada a un 84.87% y un 89.15% respectivamente, es decir, se puede obtener hasta un 8.81% de información explicada adicional. A partir de esto podemos decir que el número óptimo de factores se sitúa entre 6, 7 u 8. La segunda parte de la tabla sobre la varianza total explicada incluye la suma de cuadrados de los pesos rotados (“rotation sums of squared loandings”). En esta parte de la tabla se obtienen diferentes resultados dependiendo del número de factores seleccionados. Esto es debido a que la rotación varía de acuerdo a los factores que se incluyen en el análisis. Por ejemplo, el porcentaje de varianza explicada acumulada después de la rotación y centrándonos en el componente 3, disminuyó con el “eigenvalue” (54.15%), con 10 factores (52.58%), 8 factores (53.63%), 7 factores (53.97%), 4 factores (55.68%), y únicamente con 3 factores se igualó (58.75%). Ahora bien, si consideramos 4 componentes después de la rotación, obtendremos también disminuciones en cada caso, excepto cuando se llega al mismo número de componentes y de factores. Por ejemplo: con el “eigenvalue” obtuvimos un porcentaje de la varianza total explicada de 64.53%, con 10 factores del 62.27%, 8 factores del 63.69%, 7 factores 64.14% y con 4 factores del 67.52%, que es igual a la varianza total explicada antes de la rotación. Esta misma situación se repite también en el caso de los factores 7, 8 y 10 (ver tabla 5). Lo anterior indica que al utilizar más factores con respecto al “eigenvalue”, disminuirá la varianza total explicada parcial y acumulada hasta que coincidan el número de componentes y factores, que es el punto donde se iguala la varianza explicada después de la rotación, es decir, no se perderá información acumulada. Por otra parte hay que considerar que a partir del factor 7 en adelante, el componente tiene un “eigenvalue” menor a uno. Esto nos indica que en caso de seleccionar más de 6 factores, lo debemos hacer siempre y cuando el porcentaje de varianza explicada se incremente significativamente, de lo contrario no estaríamos utilizando eficientemente el factorial. Una vez analizadas las comunalidades, la varianza total explicada y el “scree plot”, procederemos a analizar la matriz factorial sin rotar. Los resultados que obtuvimos fueron los que a continuación explicamos. En primer lugar, para llevar a cabo la lectura de esta matriz dividimos en dos partes su análisis. En la primera parte observamos que existe una similitud en los pesos factoriales de todos los análisis confirmatorios (3, 4, 7, 8 y 10 factores) con respecto a los pesos factoriales que se obtienen a través del análisis exploratorio, siempre y cuando los primeros no excedieron en el número de factores que se obtuvieron a través del “eigenvalue”, que en este caso fue de 6 factores. También es importante aclarar que para facilitar la lectura de las matrices factoriales se utilizó una condición de sintaxis en el SPSS para eliminar valores absolutos menores a .40. Dicha restricción se estableció dentro del menú de opciones del análisis factorial denominada: “supress absolute values less than...”. En la segunda parte del análisis observamos que en el caso de que se presenten más de 6 factores, aparecen más valores en algunas de las variables independientes, los cuales pueden ser más altos o más bajos a los obtenidos por las variables dentro de los factores estimados en el “eigenvalue”. Por ejemplo: _____________________________________________Capitulo 8: Desarrollo Empírico 279 en la matriz con 10 factores, que es la más grande, aparecieron 6 nuevos valores que corresponden a las siguientes variables R28 = .479 (factor 10), R50 = .678 (factor 7), R50 = .526 (factor 9), R30 = .570 (factor 7), R30 = .601 (factor 8), R15 = .418 (factor 9). Al seleccionar 7 factores obtuvimos dos nuevos valores en dos ratios que fueron: R50 =.678 y R30 = .570, en ambos casos en el factor 7. Al considerar 8 factores, lógicamente obtuvimos los dos valores anteriores en las mismas variables y factores, pero además se obtuvo un valor adicional en el R30 = .601 dentro del factor 8 (ver área sombreada de la tabla 6). Por otra parte observamos, según lo muestra la tabla 6 y su anexo A, que previo a establecer el nombre del factor de acuerdo a los ratios que lo integran en cuanto a una mayor correlación, en el factor 1 se agruparon la mayor cantidad de ratios. Aquí predominaron 6 de rentabilidad y 5 de solvencia de un total de 13 ratios. En este caso el ratio de solvencia R57 fue el que obtuvo una mayor correlación con el factor (.802), le precedió el ratio de rentabilidad R9 = .783. A continuación se situaron diversos ratios con altas correlaciones como el R36 = .755 (liquidez), R51 = .751 (solvencia) y el R64 = .722 (endeudamiento). En el caso del factor 2 se agruparon un total de ocho ratios, cuatro de los cuales fueron de rentabilidad, uno de productividad y eficiencia, dos de solvencia y uno de endeudamiento. Aquí el R4= .669 (rentabilidad) fue el que obtuvo mayor correlación con el factor, seguido del R58 = .650 (solvencia), R1 = .638 (rentabilidad) y R70 = .635 (endeudamiento). En el factor 3 predominaron en cuanto a número y correlación más alta los ratios de liquidez (R35 = .865 y R38 = .737). En el caso del factor 4 no hubo un predominio en la correlación de determinado grupo de ratios, pues ésta fue muy similar entre los ratios que fueron: R51 = .502, R64 = .474 (solvencia), y R38 = .479 (liquidez). Para el factor 5 predominaron en número y correlación los ratios de productividad y eficiencia (R14 = .798, R15 = .403) y uno de liquidez (R28 = .531). Por último, y para dar por finalizada la descripción de los resultados del análisis exploratorio, en el factor 6 predominaron dos ratios: uno de rentabilidad (R12 = .661) y otro de cash flow (R50 = .412). Con base en los anteriores resultados, se puede deducir que a excepción de los factores 3 y 5 se presentó una combinación difícil de ratios dentro de los factores. Esto a su vez provoca problemas para asignarle al factor una denominación, esto de acuerdo al marco teórico financiero con el que llevamos a cabo la taxonomía para las variables independientes. A partir de esta situación procedimos a incrementar el número de factores a 7, 8 y 10 dentro de la matriz factorial sin rotar, con el fin de obtener más evidencia empírica sobre la correlación entre las variables independientes y los factores. En el primer caso se mejoró la correlación del ratio de cash flow R50 al incrementarse su correlación dentro del factor 7 a .678; además el R30 mostró una correlación superior a .40, que como se recordará es el límite mínimo establecido para los valores. Este ratio obtuvo correlaciones de .570 y .601 dentro del factor 7 y 8 respectivamente. Por último, al utilizar 10 factores se observó que no se obtuvo una mayor correlación con tres ratios que anteriormente ya habían dado significativas correlaciones (R28, R50, R15). En términos generales, en la matriz sin rotar las nuevas variables dentro del factor se conocen también se conoce como las “nuevas puntuaciones factoriales” o “constructos”. Para Hair (2000: p.770) el constructo es un concepto que el analista puede definir en términos conceptuales, pero que no puede ser directamente medido, ya que sólo representa las bases para formar relaciones causales en la medida en que son las representaciones más “puras” posibles de un concepto. También este mismo autor apunta que los constructos pueden definirse con diversos grados de precisión, que parten desde los conceptos más simples (como las cantidades o magnitudes monetarias) hasta conceptos más complejos y abstractos, como por ejemplo: las emociones, los gustos de los consumidores, entre otros. En conclusión, cualquiera que sea el nivel de especificidad del constructo, éste nunca podrá ser medido directa y perfectamente, aunque sí aproximarse a través de indicadores. Con base en lo antes descrito y para facilitar al analista la interpretación de dichas puntuaciones factoriales procedimos a rotar la matriz. A continuación explicamos en que consiste este proceso a través de utilizar la evidencia empírica de nuestro trabajo de investigación. _____________________________________________Capitulo 8: Desarrollo Empírico 280 8.4.4. ROTACION DE LOS FACTORES INICIALES Y SU REPRESENTACION GRAFICA PARA FACILITAR SU INTERPRETACION. La rotación obedece a que la estructura de los factores no es única, y por lo tanto, determinados grupos de factores que se estimaron originalmente, pueden llegar a modificarse y dar como resultado un nuevo grupo de factores que funcionen mejor para ciertos problemas particulares, o bien, para un modelo determinado. En cuanto a la representación gráfica de la matriz factorial rotada, ésta se utiliza para facilitar la interpretación, pues aunque la matriz factorial indica la relación entre los factores y las variables, aún así es difícil la interpretación de cada factor. En la gráfica cada eje contiene un factor y cada variable viene determinada por las ponderaciones factoriales. De esta forma, la rotación factorial busca la solución más sencilla e interpretable a través de hacer girar los ejes de las coordenadas que representan a los factores, hasta llegar a la máxima aproximación con respecto a las variables en que están saturados (ver tabla 11). Una vez llevada a cabo la rotación de factores en el espacio factorial, se transforma la matriz factorial inicial en otra matriz nueva, que es de más fácil interpretación y que se conoce como matriz factorial rotada o matriz de componentes rotados (“rotated factor matrix”). Esta última matriz es una combinación lineal de la primera, y por lo tanto, explica la misma cantidad de la varianza inicial. Para tratar de conseguir la interpretación más fácil, Bizquerra (1989), basándose en Thurston (1935), recomienda el principio de la estructura simple, el cual aunque rara vez se consigue, establece que la matriz factorial tiene que presentar características como las siguientes: a) Cada factor debe tener unos pocos “loandings” altos y los otros próximos a cero. Este aspecto se verá más adelante cuando se explique el peso de cada variable dentro del factor. b) Cada variable no tiene que estar saturada más que en un factor. c) No tiene que haber factores con la misma distribución. Esto quiere decir que dos factores que sean distintos tienen que tener también distribuciones distintas de cargas altas y bajas. Para llevar a cabo las rotaciones factoriales existen principalmente dos métodos que son: a) el método de rotaciones ortogonales; y b) el método de rotaciones oblicuas. Estos métodos se fundamentan en el principio de la estructura simple y en ninguno de ellos la rotación afecta a la bondad de ajuste de la solución factorial, pues aunque cambie la matriz factorial, las comunalidades permanecen inalteradas. Sin embargo, la varianza explicada por cada factor sí cambia pues ésta depende del método seleccionado. El método de rotaciones ortogonales se aplica a factores que no están correlacionados, y por lo tanto, conservan los ángulos rectos en la gráfica. Este método es el de más amplia aceptación y tiene varias versiones como por ejemplo: el método varimax, el método cuartimax (que simplifica las variables), o el método ecuamax (que a su vez es una versión del varimax y simplifica los factores). El método que tiene mayores ventajas es el varimax, pues éste se enfoca a maximizar la varianza de los factores y a minimizar el número de variables que tienen saturaciones altas en un factor. Esto es importante porque ofrece más facilidad para interpretar los resultados. Aquí en cada columna de la matriz factorial rotada se producen algunos “loandings” muy altos y los otros se aproximan a cero. Cuando se aplica el método de rotaciones ortogonales, la matriz de correlaciones entre factores es una matriz identidad. Como ya se indicó anteriormente, esto significa que tiene unos en la diagonal principal y todos los demás son ceros. En este caso las matrices de ponderaciones (“pattern”) y las matrices de correlaciones (“structure”) coinciden con la matriz factorial (“factor matrix”). En nuestro caso sí se obtuvo una matriz identidad satisfactoria en los diferentes factores que se seleccionaron (ver tabla 10). _____________________________________________Capitulo 8: Desarrollo Empírico 281 En cuanto a las rotaciones oblicuas, el método oblimín es considerado como uno de los mejores dentro de este tipo. Sin embargo, en ciertos casos no se logra obtener factores intercorrelacionados entre sí, pues las rotaciones no conservan los ángulos rectos y por eso son oblicuos. Por otra parte, en la rotación oblicua las ponderaciones factoriales no coinciden con las correlaciones entre el factor y la variable, puesto que los factores están intercorrelacionados entre sí. De ahí que la matriz factorial no rotada se convierta en dos matrices diferentes que son: la matriz de ponderaciones (“factor pattern”) y la matriz de correlaciones entre factores y variables (“factor structure matrix”). Con base en ello optamos por no llevar a cabo este proceso, ya que los estadísticos advierten que se tiene que tener cuidado con la interpretación de este tipo de rotación, pues la superposición de factores puede confundir la significación de los mismos. Para la estimación de las puntuaciones factoriales de cada empresa cuyo fin es utilizarse en estimaciones posteriores, o bien, en funciones lineales predictivas, partimos de que las puntuaciones factoriales permiten determinar en qué medida los factores se dan en las variables. Al tener el análisis factorial como objetivo básico reducir el conjunto de “v” variables a un grupo de “f” factores, entonces se deduce que “v > f”. Una vez que se consigue esto, lo que interesa al analista es saber que puntuaciones obtienen las variables en los factores, y por eso se procede a calcular las puntuaciones factoriales (“factor scores”) de cada variable a partir de la matriz factorial rotada que se basa en el siguiente modelo de regresión múltiple (cuadro 8.10). CUADRO 8.10 MODELO DE LA REGRESIÓN MULTIPLE Fij = Fi1 Z1 + Fi2 Z2 + .........Fir Zr = Sumatoria Fim Zm Donde: Fij = Puntuación factorial del individuo “j” en el factor “i” Zm= Puntuaciones individuales en cada variable con puntuaciones estandarizadas Cada Fim Zm = Es la ponderación factorial de la variable “m” en el factor “i” La puntuación factorial individual “F ij” se refiere a la puntuación que el individuo hubiera obtenido en el factor “i”. Las puntuaciones factoriales únicamente pueden estimarse cuando el input es una matriz de datos. Es decir, si partimos de una matriz de correlaciones no obtendremos puntuaciones factoriales. Además, las puntuaciones factoriales exactas únicamente se pueden calcular cuando se aplica el método de componentes principales para la extracción de factores, como es el caso de este trabajo. Los resultados que obtuvimos con la matriz de componentes rotados, y que pueden verse en la tabla 7 con sus respectivos anexos A y B, fueron los que continuación se explican. Al contrario de lo que pasa en la matriz de componentes sin rotar, en el caso de la matriz rotada se observa que los pesos factoriales de los ratios sí varían o se modifican dependiendo del número de factores seleccionados dentro del análisis confirmatorio. Por ejemplo, al estimar los 6 factores a través del “eigenvalue”, el ratio R50 no presentó ninguna correlación superior al 40% en ningún factor. Sin embargo, en esta matriz se mejoró considerablemente la interpretación de las variables independientes con respecto a los factores. En el factor 1 predominó un ratio de endeudamiento (R70 = .985). En el factor 2 las correlaciones más altas correspondieron a la rentabilidad (R4, R1, R11). Para el factor 3, aunque predominó un ratio de endeudamiento, este componente ya había obtenido en el factor 1 la correlación más alta con el R70, por lo tanto, procedimos a eliminar el R64 que era también de endeudamiento con el fin de dejar en el factor 3 únicamente los tres ratios de solvencia. Dos de estos ratios presentaron una alta correlación (R51 = .939, R52 = .861). En el factor 4 se presentaron sólo 2 ratios de liquidez con una alta correlación (R38 = .994, R35 = .920). Hasta aquí la clasificación de los componentes de rentabilidad, liquidez, solvencia y endeudamiento no presentó mayor problema a través del análisis factorial exploratorio. Pero en cambio, al llegar al _____________________________________________Capitulo 8: Desarrollo Empírico 282 análisis del factor 5 y 6 no se obtuvo una interpretación clara de los factores de productividad y eficiencia, así como de los de cash flow. Con base en ello, procedimos a realizar el análisis confirmatorio con 7, 8 y 10 factores, dando como resultado en todos los casos una estabilidad en el comportamiento de los factores 1, 2, 3 y 4. Es decir, el factor 1 comprende al endeudamiento, el factor 2 a la rentabilidad, el factor 3 a las solvencia, y el factor 4 a la liquidez. En el factor 5 predominó el ratio R12 que representa a la rentabilidad acumulada y a la variable independiente X2 que Altman utiliza en su función lineal discriminante. Considerando la importancia de este ratio, optamos por denominar al factor 5 como de rentabilidad acumulada, ya que los otros dos ratios que se clasificaron en este factor y que eran de productividad y liquidez (R15 y R16) presentaron una correlación baja muy significativa. Además, en el caso de la productividad, ésta se explicó sin problemas dentro del factor 6 al presentar una correlación muy alta (R14 = .885) y representar también a la variable independiente X5 del modelo Altman (Ver tabla 7 anexo B). Por último, el R50 que fue la única variable independiente que representó a la variable original del cash flow, mejoró sus correlaciones al aumentar el número de factores en el análisis confirmatorio. Así en el factor 7 se obtuvo una correlación de .737, con lo cual procedimos denominar a dicho factor como de cash flow. Al analizar el análisis confirmatorio con 8, 9 y 10 factores, observamos que los factores finales se explican mejor. En cambio, al seleccionar sólo 3 y 4 factores concluimos que resulta insuficiente el espacio factorial para las correlaciones de las variables independientes en cada uno de los factores. Si observamos los anexos A y B de la tabla 7, y consideramos el marco teórico propuesto inicialmente, donde establecimos a priori 7 componentes, veremos que estos coinciden con el fundamento empírico que se obtuvo a través del análisis factorial. Ahora bien, al analizar los resultados empíricos que obtuvimos con las variables independientes que se incluyen en el modelo discriminante de Altman, veremos que sólo dos variables independientes aparecieron en este trabajo como factores finales (X2 = R12 y X5 = R14). En conclusión determinamos que dentro del sector hotelero complejo que cotiza en la Bolsa Mexicana de Valores, podemos llevar a cabo una función discriminante con los siete factores que se muestran en el cuadro 8.11. _____________________________________________Capitulo 8: Desarrollo Empírico 283 CUADRO 8.11. RESULTADOS FINALES DEL ANALISIS FACTORIAL NUMERO Y NOMBRE DEL FACTOR FACTOR 1: ENDEUDAMIENTO FACTOR 2: RENTABILIDAD FACTOR 3: SOLVENCIA FACTOR 4: LIQUIDEZ FACTOR 5 : RENTABILIDAD ACUMULADA FACTOR 6: PRODUCTIVIDAD Y EFICIENCIA FACTOR 7: CASH FLOW CORRELACION ENTRE EL RATIO Y EL FACTOR R70: capital contable / pasivo total 0.985 R4: beneficios netos antes de impuestos / 0.949 activo total R51: pasivo total / activo total 0.942 R38: activo circulante / pasivo total 0.965 R12: beneficios netos no distribuidos / activo 0.846 total R14: ventas netas / activo total 0.885 RATIO SELECCIONADO R50: cash flow tradicional / pasivo total 0.737 Para concluir este capítulo y proponiendo un enfoque diferente, podemos sugerir a que aquellos investigadores que quieran utilizar el análisis factorial para el tratamiento de bases de datos contables, con el fin de determinar los factores más importantes que presente un sector específico, deberían utilizar este método con un enfoque menos estadístico y más apegado al análisis e interpretación de los estados financieros. Para ello recomendamos que una vez que se hayan obtenido los resultados del análisis factorial se proceda a interpretarlos principalmente con base en los siguientes tres indicadores: 1. La puntuación de cada factor. Aunque este punto ya ha sido explicado de forma más detallada en el capítulo 8, podemos agregar que la puntuación de cada factor es el resultado de una combinación lineal de un determinado factor con relación a cada una de las variables independientes inicialmente introducidas en el análisis. 2. El valor propio de un factor (“Eigenvalue”). Indica el porcentaje de varianza del total de las variables explicadas por dicho factor. Los elementos de Fi al cuadrado de la matriz factorial son los valores propios (“eigenvalues”) y representan el índice de varianza de la variable explicada por cada factor. Si se suman los cuadrados de las Fi de cada factor ubicados en la columna, se obtiene una medida de la varianza de la matriz R que viene explicada por ese factor. Las saturaciones factoriales de la matriz factorial únicamente pueden tener como máximo el valor uno. Si se presenta este supuesto, entonces la variabilidad de la variable quedará explicada totalmente por el factor. Esto quiere decir que el valor más alto que puede obtenerse en el eigenvalue de un factor es igual al número de variables, y como consecuencia de esto, los eigenvalues se pueden transformar en un porcentaje de la varianza explicada. 3. El peso de cada variable con respecto a un factor (“Loading”). Indica el grado de acercamiento entre dichas variables y el factor, o bien, el peso que cada variable asigna a cada factor. Los elementos pueden interpretarse como índices de correlación entre el factor y la variable, es decir, son correlaciones cuando los factores no están correlacionados entre sí (factores ortogonales). Estos coeficientes se conocen como: saturaciones factoriales (“factor loanding”), pesos o cargas. Cuando se obtienen variables con saturaciones altas dentro del factor, esto significa que las variables están muy asociadas a ese factor. Esto se debe a que las ponderaciones factoriales son en realidad coeficientes de regresión estandarizados en la ecuación de regresión múltiple, siendo las variables originales las variables independientes, y los factores las variables dependientes. Así, cuando se tienen variables independientes con saturaciones factoriales altas en un factor pero bajas en el resto de los otros factores, se dice que estas variables están saturadas en dicho factor, y sólo entonces es cuando la _____________________________________________Capitulo 8: Desarrollo Empírico 284 aplicación del análisis factorial tiene justificación. Normalmente, una variable con un componente con valor o peso de 0.50 o más es considerada importante, en cambio variables con un peso menor de 0.50 no son consideradas relevantes. MATRIZ DE CORRELACIONES CON 21 VARIABLES Correlation Matrix R1 R1 R4 R9 R11 R12 R13 R14 1 0,938 0,325 0,807 0,152 0,761 0,275 0,267 0,056 0,056 0,000 0,304 0,090 0,032 0,317 0,343 0,111 0,306 0,063 0,296 0,078 1 0,325 0,877 0,269 0,798 0,268 0,408 0,099 0,070 0,041 0,377 0,130 0,040 0,267 0,314 0,150 0,340 0,091 0,224 0,110 1 0,388 0,022 0,334 0,024 0,139 0,172 0,070 0,018 0,445 0,157 0,010 0,456 0,325 0,892 0,461 0,889 0,477 0,912 1 0,173 0,790 0,110 0,352 0,033 0,068 0,134 0,487 0,028 0,027 0,295 0,313 0,163 0,495 0,190 0,238 0,174 1 0,186 0,198 0,415 0,167 0,142 0,220 0,458 0,183 0,056 0,019 0,045 0,152 0,265 0,059 0,108 0,102 1 0,184 0,401 0,052 0,065 0,030 0,462 0,176 0,017 0,402 0,374 0,174 0,490 0,136 0,361 0,149 1 0,024 0,302 0,062 0,025 0,116 0,028 0,020 0,085 0,013 0,088 0,185 0,098 0,078 0,085 1 0,100 0,112 0,038 0,320 0,101 0,014 0,193 0,250 0,090 0,202 0,043 0,180 0,058 RENTABILIDAD R4 R9 R11 R12 R13 R14 R15 TABLA 1.1. R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 PRODUCTIVIDAD Y EFICIENCIA 1 0,158 0,268 0,264 0,353 0,003 0,178 0,018 0,151 0,231 0,093 0,148 0,132 1 0,119 0,169 0,176 0,010 0,088 0,007 0,053 0,094 0,031 0,026 0,048 1 0,045 0,904 0,123 0,205 0,381 0,093 0,059 0,179 0,233 0,008 1 0,207 0,050 0,558 0,351 0,451 0,842 0,411 0,449 0,431 1 0,090 0,150 0,064 0,197 0,181 0,054 0,112 0,096 1 0,099 0,147 0,012 0,054 0,037 0,107 0,020 CASH FLOW 1 0,851 0,328 0,695 0,349 0,967 0,325 1 0,234 0,522 0,279 0,891 0,231 1 0,462 0,950 0,347 0,985 1 0,448 0,637 0,447 1 0,372 0,984 1 0,346 ENDEUDA 1 SOLVENCIA LIQUIDEZ R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 TABLA 1.2. Sig. (1-tailed) COEFICIENTE DE CORRELACION PARCIAL R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,000 0,000 0,000 0,028 0,000 0,000 0,000 0,242 0,239 0,500 0,000 0,130 0,342 0,000 0,000 0,082 0,000 0,215 0,000 0,163 0,000 0,000 0,000 0,000 0,000 0,000 0,107 0,188 0,302 0,000 0,051 0,310 0,000 0,000 0,029 0,000 0,125 0,002 0,083 0,000 0,392 0,000 0,380 0,040 0,015 0,191 0,409 0,000 0,024 0,451 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,014 0,000 0,083 0,000 0,341 0,197 0,045 0,000 0,364 0,368 0,000 0,000 0,020 0,000 0,008 0,001 0,014 0,009 0,006 0,000 0,017 0,037 0,003 0,000 0,010 0,242 0,405 0,286 0,027 0,000 0,231 0,087 0,099 0,010 0,000 0,258 0,205 0,352 0,000 0,013 0,416 0,000 0,000 0,014 0,000 0,043 0,000 0,030 0,381 0,000 0,218 0,375 0,072 0,363 0,399 0,143 0,437 0,134 0,010 0,109 0,163 0,142 0,104 0,080 0,317 0,000 0,102 0,429 0,007 0,001 0,129 0,005 0,295 0,011 0,235 0,023 0,000 0,000 0,000 0,484 0,012 0,412 0,028 0,002 0,121 0,031 0,049 0,068 0,016 0,013 0,448 0,133 0,464 0,253 0,120 0,347 0,370 0,275 0,285 0,000 0,061 0,005 0,000 0,121 0,231 0,012 0,001 0,461 0,004 0,264 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,129 0,029 0,209 0,006 0,011 0,248 0,080 0,114 0,106 0,032 0,441 0,249 0,323 0,089 0,402 0,000 0,000 0,000 0,000 0,000 0,000 0,001 0,000 0,000 0,000 0,002 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 a Determinant = 2.517E-15 Extraction Metthod: Principal Component Analysis MATRIZ DE CORRELACIONES CON 21 VARIABLES TABLA 2 Scree Plot 8 7 6 5 KMO and Bartlett's Test Kaiser-Meyer-Olkin Measure of Sampling Adequacy. Bartlett's Test of Sphericity df Sig. Approx. Chi-Square 0,661 5081,59 210 0 4 3 Eigenvalue 2 1 0 1 3 5 7 9 11 13 15 17 19 21 Component Number Inverse of Correlation Matrix R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 16,564 15,543 4,664 2,167 0,304 2,185 1,231 30,505 4,048 12,832 0,430 3,165 2,284 2,716 1,545 0,581 0,212 0,188 1,416 0,140 4,110 1,778 22,080 3,930 5,441 5,673 22,223 32,972 15,258 0,096 4,592 2,524 1,177 2,081 0,223 3,324 1,087 3,268 0,399 1,835 9,446 8,726 9,693 20,990 17,974 57,339 20,851 2,031 3,283 1,230 0,069 1,750 0,103 3,415 1,635 0,257 0,175 0,698 6,944 16,901 9,199 29,084 13,199 25,056 2,540 0,746 0,851 0,846 0,047 0,024 1,653 1,042 0,690 0,115 1,254 1,166 0,014 1,035 5,305 3,494 5,160 7,679 3,610 0,390 0,979 0,050 0,005 0,766 0,116 0,130 0,173 0,979 6,897 0,983 7,463 3,443 17,685 3,424 0,060 1,109 0,108 0,248 0,694 0,340 0,072 0,121 0,094 5,712 0,959 7,469 1,691 14,958 2,186 0,563 0,207 0,836 0,656 0,269 0,053 1,952 0,284 0,891 0,744 2,354 2,697 0,115 1,944 0,098 0,827 0,730 0,491 0,014 0,971 0,066 0,115 0,715 7,265 0,424 8,931 1,151 0,438 0,124 0,666 0,006 0,872 0,174 0,340 0,005 0,542 1,335 0,303 85,779 0,578 43,515 0,359 10,008 11,598 12,668 0,796 222,919 3,082 203,920 6,321 1,355 0,089 5,822 0,996 0,002 3,266 11,884 3,872 13,293 28,538 0,113 8,595 3,449 0,283 0,069 84,989 0,159 80,498 1,057 0,148 0,325 0,099 0,049 0,676 0,173 0,215 30,626 2,221 3,210 1,354 7,277 28,041 6,595 13,519 7,199 4,196 39,513 16,787 39,185 107,642 6,048 12,350 1,736 100,020 10,208 7,861 10,874 10,124 783,327 19,609 775,859 52,054 29,862 910,452 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 2,719 1,528 0,485 4,218 0,003 0,422 0,063 3,046 3,259 2,911 0,234 19,072 6,823 10,967 Extraction Metthod: Principal Component Analysis MATRIZ DE CORRELACIONES CON 21 VARIABLES Anti-image Matrices (anti-imagen covariance y anti-image correlaciones) Anti-image Covariance R1 R4 0,033 0,004 0,020 0,006 0,014 0,022 0,041 0,026 0,017 0,000 0,001 0,002 0,004 0,004 0,004 0,007 0,013 0,000 0,004 0,001 0,030 0,022 0,001 0,018 0,022 0,016 0,032 0,006 0,001 0,005 0,003 0,011 0,002 0,021 0,002 0,029 0,001 0,010 0,002 0,048 0,038 0,021 0,017 0,002 0,043 0,004 0,002 0,012 0,000 0,008 0,001 0,025 0,008 0,043 0,002 0,012 0,001 0,394 0,038 0,098 0,152 0,010 0,008 0,008 0,065 0,010 0,043 0,016 0,034 0,000 0,040 0,003 0,026 0,002 0,130 0,137 0,023 0,066 0,006 0,000 0,016 0,001 0,016 0,001 0,009 0,008 0,013 0,001 0,009 0,003 0,292 0,008 0,167 0,027 0,001 0,032 0,003 0,020 0,001 0,002 0,015 0,027 0,003 0,009 0,005 0,457 0,133 0,082 0,004 0,047 0,004 0,023 0,029 0,010 0,004 0,033 0,001 0,024 0,000 0,515 0,044 0,005 0,059 0,009 0,007 0,016 0,003 0,001 0,036 0,005 0,004 0,005 0,869 0,004 0,017 0,020 0,005 0,025 0,011 0,003 0,000 0,001 0,022 0,000 0,012 0,001 0,018 0,004 0,004 0,010 0,001 0,001 0,003 0,001 0,003 0,158 0,008 0,013 0,030 0,012 0,000 0,051 0,002 0,012 0,002 0,035 0,004 0,010 0,009 0,000 0,000 0,004 0,000 0,003 0,946 0,005 0,023 0,001 0,005 0,001 0,003 0,000 0,033 0,005 0,001 0,004 0,000 0,018 0,000 0,074 0,005 0,030 0,004 0,024 0,003 0,009 0,006 0,000 0,000 0,001 0,098 0,001 0,020 0,001 0,001 0,000 0,001 0,019 0,001 0,001 R9 R11 R12 R13 R14 R15 R28 TABLA 3.1. R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,060 0,031 0,009 0,006 0,007 0,017 0,022 0,075 0,047 0,025 0,003 0,000 0,001 0,004 0,006 0,015 0,002 0,001 0,001 0,008 0,001 Anti-image Correlation R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,733 0,691 0,200 0,117 0,047 0,194 0,163 0,452 0,269 0,111 0,112 0,000 0,019 0,015 0,135 0,218 0,069 0,018 0,167 0,232 0,089 0,719 0,128 0,509 0,049 0,207 0,224 0,333 0,201 0,098 0,004 0,014 0,048 0,025 0,134 0,088 0,385 0,223 0,035 0,142 0,133 0,728 0,582 0,010 0,289 0,238 0,139 0,260 0,036 0,062 0,075 0,107 0,068 0,058 0,447 0,146 0,528 0,131 0,434 0,331 0,637 0,279 0,259 0,146 0,010 0,275 0,021 0,081 0,142 0,011 0,037 0,028 0,414 0,357 0,631 0,228 0,401 0,182 0,568 0,169 0,289 0,359 0,021 0,014 0,112 0,260 0,081 0,070 0,142 0,199 0,001 0,203 0,119 0,304 0,107 0,760 0,704 0,095 0,254 0,017 0,000 0,110 0,008 0,046 0,011 0,096 0,240 0,111 0,096 0,172 0,212 0,263 0,022 0,430 0,054 0,014 0,149 0,034 0,038 0,012 0,014 0,298 0,162 0,144 0,127 0,268 0,578 0,273 0,131 0,061 0,176 0,034 0,035 0,239 0,052 0,058 0,157 0,057 0,253 0,003 0,451 0,066 0,064 0,208 0,066 0,010 0,126 0,013 0,008 0,161 0,186 0,042 0,212 R4 R9 R11 R12 R13 R14 R15 R28 TABLA 3.2. R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,599 0,044 0,046 0,116 0,005 0,147 0,044 0,031 0,001 0,018 0,172 0,009 0,360 0,025 0,879 0,038 0,195 0,341 0,132 0,027 0,860 0,046 0,730 0,829 0,101 0,034 0,418 0,108 0,000 0,407 0,169 0,213 0,175 0,457 0,021 0,291 0,176 0,005 0,004 0,568 0,004 0,499 0,735 0,026 0,086 0,009 0,015 0,024 0,023 0,007 0,786 0,109 0,056 0,077 0,047 0,702 0,039 0,659 0,189 0,357 0,384 0,633 0,353 0,847 0,182 0,043 0,023 0,319 0,718 0,088 0,472 0,105 0,605 0,097 0,919 0,649 0,137 0,612 Extraction Metthod: Principal Component Analysis COMMUNALITIES TABLA 4 R1 " R4 " R9 " R11 " R12 Productividad R13 " R14 " R15 Liquidez R28 " R30 " R35 " R36 " R38 Cash Flow R50 Solvencia R51 " R52 " R56 " R57 " R58 Endeudamiento R64 " R70 Rentabilidad Notas: Initial 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Eigenvalue 0,921 0,966 0,931 0,877 0,795 0,860 0,850 0,528 0,636 0,178 0,923 0,775 0,924 0,228 0,952 0,855 0,970 0,769 0,991 0,954 0,992 3 FACTORS 0,764 0,849 0,817 0,754 0,320 0,745 0,091 0,274 0,226 0,089 0,764 0,597 0,587 0,041 0,689 0,718 0,903 0,645 0,868 0,699 0,898 EXTRACCION 4 FACTORS 0,835 0,939 0,896 0,872 0,321 0,756 0,114 0,275 0,338 0,117 0,840 0,633 0,817 0,055 0,941 0,837 0,969 0,723 0,988 0,924 0,992 7 FACTORS 0,924 0,969 0,933 0,881 0,798 0,861 0,852 0,539 0,651 0,503 0,966 0,794 0,957 0,688 0,952 0,860 0,974 0,783 0,991 0,955 0,993 8 FACTORS 0,926 0,970 0,947 0,891 0,817 0,861 0,855 0,659 0,744 0,864 0,971 0,880 0,971 0,722 0,954 0,881 0,977 0,881 0,992 0,964 0,995 10 FACTORS 0,940 0,970 0,950 0,918 0,887 0,908 0,954 0,960 0,991 0,999 0,983 0,901 0,979 0,999 0,964 0,922 0,980 0,915 0,992 0,982 0,996 1. Entre más factores se establecen se incrementa la comunalidad de la variable 2. Variables independientes con comunalidades menores a un 85% utilizando 3 y 5 factores 3. Sólo se obtuvieron 7, 5 y 3 variables independenientes con 6, 7 y 8 factores respectivamente por debajo del 85% 4. Utilizando 10 factores todas las variables independientes presentan comunalidades por arriba del 88% Extraction Method: Principal Component Analysis. TOTAL VARIANCE EXPLAINED TABLA 5 Component Total Initial Eigenvalues % of Variance Cumulative % Extraction Sums of Squared Loadings Total % of Variance Cumulative % Rotation Sums of Squared Loadings EIGENVALUE Total % of Variance Cumulative % 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 6,668 3,117 2,554 1,841 1,382 1,311 0,951 0,900 0,868 0,499 0,334 0,155 0,113 0,104 0,095 0,051 0,024 0,015 0,011 0,005 0,001 31,751 14,841 12,161 8,769 6,579 6,244 4,528 4,285 4,132 2,378 1,590 0,740 0,540 0,497 0,454 0,242 0,115 0,072 0,053 0,026 0,003 31,751 46,592 58,753 67,522 74,101 80,345 84,873 89,158 93,291 95,668 97,259 97,999 98,538 99,036 99,489 99,732 99,846 99,918 99,972 99,997 100,000 6,668 3,117 2,554 1,841 1,382 1,311 0,951 0,900 0,868 0,499 31,751 14,841 12,161 8,769 6,579 6,244 4,528 4,285 4,132 2,378 31,751 46,592 58,753 67,522 74,101 80,345 84,873 89,158 93,291 95,668 4,049 3,760 3,564 2,180 1,883 1,437 19,279 17,906 16,971 10,379 8,965 6,844 19,279 37,185 54,157 64,536 73,501 80,345 Rotation Sums of Squared Loadings 10 FACTORS Total % of Variance Cumulative % 1 2 3 4 5 6 7 8 9 10 11 12 13 Rotation Sums of Squared Loadings 8 FACTORS Total % of Variance Cumulative % Rotation Sums of Squared Loadings Rotation Sums of Squared Loadings 7 FACTORS 4 FACTORS Total % of Variance Cumulative % Total % of Variance Cumulative % Rotation Sums of Squared Loadings 3 FACTORS Total % of Variance Cumulative % 3,986 3,721 3,336 2,035 1,661 1,294 1,042 1,010 1,007 0,999 18,983 17,717 15,888 9,688 7,911 6,160 4,964 4,808 4,794 4,756 18,983 36,700 52,588 62,277 70,187 76,347 81,311 86,118 90,912 95,668 3,991 3,788 3,485 2,112 1,852 1,425 1,037 1,033 19,005 18,039 16,593 10,059 8,820 6,784 4,938 4,921 19,005 37,044 53,637 63,696 72,516 79,300 84,238 89,158 4,030 3,692 3,613 2,136 1,860 1,444 1,048 19,191 17,579 17,203 10,172 8,859 6,878 4,991 19,191 36,770 53,973 64,145 73,004 79,882 84,873 4,141 4,122 3,431 2,485 19,718 19,629 16,338 11,836 19,718 39,348 55,686 67,522 5,007 4,762 2,569 23,841 22,678 12,234 23,841 46,519 58,753 COMPONENT MATRIX TABLA 6 R57 R9 R36 R51 R64 R56 R13 R70 R11 R58 R52 R4 R1 R35 R38 R30 R14 R28 R15 R12 R50 COMPONENT (EIGEN VALUE) 1 2 3 4 5 0,802 0,783 0,422 0,755 0,751 0,502 0,722 0,402 0,474 0,685 0,594 0,680 0,532 0,672 0,635 0,667 0,553 0,664 0,650 0,651 0,542 0,629 0,669 0,597 0,638 0,865 0,737 0,479 0,798 0,531 0,403 6 R57 R9 R36 R51 R64 R56 R13 R70 R11 R58 R52 R4 R1 R35 R38 R14 R28 R12 R50 R30 R15 1 0,802 0,783 0,755 0,751 0,722 0,685 0,680 0,672 0,667 0,664 0,651 0,629 0,597 2 0,422 COMPONENT (10 FACTORS) 3 4 5 6 7 8 9 10 0,402 0,594 0,532 0,635 0,553 0,650 0,542 0,669 0,638 0,865 0,737 0,421 0,443 0,502 0,474 0,479 0,798 0,531 0,661 0,412 0,403 0,678 0,570 0,526 0,601 0,418 0,479 0,421 0,443 0,661 0,412 COMPONENT (3 FACTORS) 1 2 3 R57 0,802 R9 0,783 0,422 R36 0,755 R51 0,751 R64 0,722 0,402 R56 0,685 0,594 R13 0,680 0,532 R70 0,672 0,635 R11 0,667 0,553 R58 0,664 0,650 R52 0,651 0,542 R15 R4 0,629 0,669 R1 0,597 0,638 R14 R35 0,865 R38 0,737 R12 0,443 R28 0,421 R30 R50 3 components extracted. 6 components extracted. 10 components extracted. R57 R9 R36 R51 R64 R56 R13 R70 R11 R58 R52 R4 R1 1 0,802 0,783 0,755 0,751 0,722 0,685 0,680 0,672 0,667 0,664 0,651 0,629 0,597 2 COMPONENT (7 FACTORS) 3 4 5 6 7 R57 R9 R36 R51 R64 R56 R13 R70 R11 R58 R52 R4 R1 0,422 0,502 0,474 0,402 0,594 0,532 0,635 0,553 0,650 0,542 0,669 0,638 1 0,802 0,783 0,755 0,751 0,722 0,685 0,680 0,672 0,667 0,664 0,651 0,629 0,597 2 COMPONENT (8 FACTORS) 3 4 5 6 7 8 0,422 0,502 0,474 0,402 0,594 0,532 0,635 0,553 0,650 0,542 0,669 0,638 COMPONENT (4 FACTORS) 1 2 3 4 R57 0,802 R9 0,783 0,422 R36 0,755 R51 0,751 0,502 R64 0,722 0,402 0,474 R56 0,685 0,594 R13 0,680 0,532 R70 0,672 0,635 R11 0,667 0,553 R58 0,664 0,650 R52 0,651 0,542 R15 R4 0,629 0,669 Extraction Method: Principal Component Analysis COMPONENT MATRIX TABLA 6 ANEXO A FACTOR 1 Nombre de los Componentes RENTABILIDAD PRODUCTIVIDAD Y EFICIENCIA LIQUIDEZ CASH FLOW SOLVENCIA ENDEUDAMIENTO TOTAL Cantidad 4 1 1 0 5 2 13 R57, R51, R56, R58, R52 R64, R70 13 Ratios R9, R11, R4, R1 R13 R36 Cantidad 4 1 0 0 2 1 8 FACTOR 2 Ratios R9, R11, R4, R1 R13 Cantidad 1 0 3 0 R56, R58 R70 8 1 1 6 FACTOR 3 Ratios R12 Cantidad 0 0 R35, R38, R28 1 0 R52 R64 6 1 1 3 FACTOR 4 Ratios Cantidad 0 2 R38 1 0 R51 R64 3 0 0 3 FACTOR 5 Ratios R14, R15 R28 3 FACTOR 6 Nombre de los Componentes RENTABILIDAD PRODUCTIVIDAD Y EFICIENCIA LIQUIDEZ CASH FLOW SOLVENCIA ENDEUDAMIENTO TOTAL Cantidad 1 0 0 1 0 0 2 2 R50 Ratios R12 Cantidad 0 0 1 1 0 0 2 FACTOR 7 Ratios FACTORES ADICIONALES CON RESPECTO AL ANÁLISIS EXPLORATORIO FACTOR 8 FACTOR 9 Cantidad 0 0 Ratios Cantidad 0 1 R30 0 1 0 0 1 2 2 R50 Ratios Cantidad 0 0 1 0 0 0 1 FACTOR 10 Ratios R15 R30 R50 1 0 0 0 R28 2 1 1 Extraction Method: Principal Component Analysis ROTATED COMPONENT MATRIX TABLA 7 R70 R58 R56 R9 R4 R1 R11 R13 R64 R51 R52 R57 R38 R35 R50 R12 R36 R15 R30 R14 Rotation converged in 7 iterations. COMPONENT (EIGEN VALUE) 1 2 3 4 5 6 0,985 0,971 0,963 0,894 0,952 0,926 0,896 0,826 0,941 0,939 0,861 0,637 0,944 0,920 0,000 nota 1 0,852 0,444 0,600 0,567 0,883 R70 R58 R56 R9 R4 R1 R11 R13 R64 R51 R52 R38 R35 R12 R36 R57 R14 R15 R30 R28 1 0,984 0,968 0,963 0,903 2 COMPONENT (10 FACTORS) 3 4 5 6 7 8 9 10 0,939 0,924 0,914 0,850 0,951 0,932 0,900 0,965 0,955 0,799 0,720 0,578 0,950 0,908 0,989 0,935 Rotation converged in 9 iterations. 0,546 COMPONENT (3 FACTORS) 1 2 3 R70 0,939 R58 0,931 R56 0,928 R9 0,872 R57 0,608 0,524 R64 0,577 0,452 0,402 R51 0,564 0,507 R36 0,544 0,519 R14 R4 0,902 R1 0,870 R11 0,861 R13 0,849 R52 0,413 0,528 0,519 R15 0,507 R35 0,870 R38 0,745 R12 0,482 R28 0,418 R30 Rotation converged in 5 iterations. R70 R58 R56 R9 R4 R1 R11 R13 R51 R64 R52 R57 R38 R35 R12 R15 R36 R14 R28 1 0,985 0,969 0,964 0,895 COMPONENT (7 FACTORS) 2 3 4 5 6 7 R70 R58 R56 R9 R4 R1 R11 R13 R15 R64 R51 R52 R57 R38 R35 R12 R36 R14 R28 1 0,984 0,968 0,963 0,902 COMPONENT (8 FACTORS) 2 3 4 5 6 7 8 0,949 0,930 0,884 0,821 0,942 0,939 0,859 0,653 0,965 0,946 0,846 0,595 0,593 0,885 0,627 0,959 0,931 0,888 0,824 0,410 0,942 0,936 0,860 0,611 0,970 0,949 0,408 0,797 0,732 0,850 0,682 0,565 0,467 COMPONENT (4 FACTORS) 1 2 3 4 R4 0,963 R11 0,910 R1 0,908 R13 0,821 R15 0,494 R14 R70 0,987 R58 0,976 R56 0,964 R9 0,893 R64 0,920 R51 0,917 R52 0,858 R57 0,626 R36 0,435 R50 R38 0,903 R35 0,851 R28 0,564 ROTATION METHOD: VARIMAX WITH KAISER NORMALIZATION ROTATED COMPONENT MATRIX TABLA 7 ANEXO A FACTOR 1 Nombre de los Componentes RENTABILIDAD PRODUCT. Y EFICIENCIA LIQUIDEZ CASH FLOW SOLVENCIA ENDEUDAMIENTO TOTAL Nombre de los Componentes RENTABILIDAD PRODUCT. Y EFICIENCIA LIQUIDEZ CASH FLOW SOLVENCIA ENDEUDAMIENTO TOTAL Nombre de los Componentes PRODUCT. Y EFICIENCIA LIQUIDEZ CASH FLOW SOLVENCIA ENDEUDAMIENTO TOTAL Nombre de los Componentes RENTABILIDAD PRODUCT. Y EFICIENCIA LIQUIDEZ CASH FLOW SOLVENCIA ENDEUDAMIENTO TOTAL Nombre de los Componentes RENTABILIDAD PRODUCT. Y EFICIENCIA LIQUIDEZ CASH FLOW SOLVENCIA ENDEUDAMIENTO TOTAL Cantidad (C) 1 0 1 0 5 2 9 Cantidad (C) 3 2 0 0 0 0 5 Cantidad 0 0 0 2 1 4 Cantidad (C) 1 0 0 0 2 1 4 Cantidad (C) 1 0 0 0 2 1 4 R58, R56 R70 4 FACTOR 1 Ratios R9 (C) 3 2 0 0 0 0 5 5 FACTOR 2 Ratios R4, R1, R11 R13, R15 (C) 0 0 1 0 3 1 5 R51, R52, R57 R64 5 FACTOR 3 R36 Ratios (C) 0 0 2 0 0 0 2 2 FACTOR 4 R38, R35 Ratios (C) 1 0 1 0 1 0 3 3 FACTOR 5 R57 R36 Ratios R12 (C) 0 1 1 0 0 0 2 2 FACTOR 6 R14 R28 Ratios (C) 0 0 0 1 0 0 1 1 FACTOR 7 R50 Ratios (C) 0 0 1 0 0 0 1 1 FACTOR 8 FACTOR 9 FACTOR 10 R30 Ratios R58, R56 R70 4 FACTOR 1 Ratios R9 (C) 3 1 0 0 0 0 4 4 FACTOR 2 Ratios R4, R1, R11 R13 (C) 0 0 1 0 3 1 5 R51, R52, R57 R64 5 FACTOR 3 R36 Ratios (C) 0 0 2 0 0 0 2 2 FACTOR 4 R38, R35 Ratios (C) 1 1 1 0 0 0 3 3 FACTOR 5 Ratios R12 R15 R36 (C) 0 1 1 0 0 0 2 2 FACTOR 6 R14 R28 Ratios (C) 0 1 1 0 0 0 2 2 FACTOR 7 FACTOR 8 R30 R50 Ratios R58, R56 R70 4 FACTOR 1 1 0 0 0 0 4 4 FACTOR 2 R13 0 1 0 3 1 5 R51, R52, R57 R64 5 FACTOR 3 R36 0 3 0 0 0 3 3 FACTOR 4 R38, R35, R28 1 1 0 0 0 3 3 FACTOR 5 R15 R36 1 1 0 0 0 2 2 FACTOR 6 FACTOR 7 R14 R28 5 FACTOR 1 Ratios (C) 1 0 0 0 2 1 4 R58, R56 R70 4 FACTOR 2 Ratios R9 (C) 0 0 1 0 3 1 5 5 FACTOR 3 Ratios (C) 1 0 3 0 0 0 4 4 FACTOR 4 FACTOR 5 FACTOR 6 R38, R35, R28 Ratios R12 R58, R56, R57, R51, R52 R70, R64 9 FACTOR 1 FACTOR 2 R36 Ratios R9 (C) 3 2 1 0 3 1 10 R57, R51, R52 R64 10 FACTOR 3 Ratios R4, R1, R11 R13, R15 R36 (C) 1 0 3 0 1 1 6 R52 R64 6 FACTOR 4 R35, R38, R28 Ratios R12 FACTOR 2 FACTOR 3 ROTATION METHOD: VARIMAX WITH KAISER NORMALIZATION ROTATED COMPONENT MATRIX TABLA 7 Nombre de los Componentes Cantidad (C) Ratios R9 (C) 3 1 0 0 R58, R56 R70 4 0 0 4 4 Ratios R4, R1, R11 R13 (C) 0 0 0 0 4 0 4 4 R64, R51,R52,R57 Ratios (C) 0 0 2 0 0 0 2 2 R38, R35 Ratios (C) 1 0 1 0 1 0 3 3 R57 R36 Ratios R12 (C) 0 1 0 0 0 0 1 1 R14 Ratios (C) 0 1 0 0 0 0 1 1 R15 Ratios (C) 0 0 1 0 0 0 1 1 R30 Ratios (C) 0 0 1 0 0 0 1 1 R28 Ratios (C) 0 0 0 0 1 0 1 1 R50 Ratios RENTABILIDAD PRODUCT. Y EFICIENCIA LIQUIDEZ CASH FLOW SOLVENCIA ENDEUDAMIENTO TOTAL 1 0 0 0 2 1 4 Nota: Los ratios están ordenados dentro de cada factor de acuerdo a su mayor correlación. ROTATION METHOD: VARIMAX WITH KAISER NORMALIZATION ROTATED COMPONENT MATRIX TABLA 7 ANEXO B Ratios con mayor Correlación y su Variabilidad de acuerdo al número de Factores dentro de la Matriz Factorial Rotada RATIO FACTOR 1: R70 FACTOR 2: R4 FACTOR 3: R51 FACTOR 4: R38 FACTOR 5: R12 FACTOR 6: R14 FACTOR 7: R50 3 FACTORS 0,939 0,524 nota 2 nota 3 nota 4 nota 5 nota 6 4 FACTORS 0,963 nota 1 0,917 0,903 nota 4 nota 5 nota 6 6 FACTORS 0,985 0,952 0,939 0,944 0,852 0,883 nota 6 7 FACTORS 0,985 0,949 0,942 0,965 0,846 0,885 0,737 8 FACTORS 0,984 0,959 0,936 0,970 0,797 0,850 0,815 10 FACTORS 0,984 0,939 0,932 0,965 0,799 0,950 nota 6 Comportamiento de las Correlaciones de los Ratios del Modelo Altman dentro de la Matriz Rotada RATIO X1 = R36 (factor 5) X2 = R12 (factor 5) X3 = R7 (factor 2) X4 = R52 (factor 3) X5 = R14 (factor 6) 0,000 nota 5 3 FACTORS 0,000 nota 4 4 FACTORS 0,000 nota 4 6 FACTORS 0,600 0,852 7 FACTORS 0,593 0,846 8 FACTORS 0,732 0,797 10 FACTORS 0,720 0,799 Este ratio no fue seleccionado para el análisis factorial por ausencia de datos 0,000 nota 5 0,861 0,883 0,859 0,885 0,860 0,850 0,900 0,950 Nota 1: Con 4 factores predeterminados este ratio se clasifica con la más alta correlación en el factor 1 Nota 2: Con 3 factores predeterminados este ratio se clasifica en los factores 1 y 2 Nota 3: Con 3 factores predeterminados este ratio se clasifica en el factor 3 Nota 4: Con 3 y 4 factores prederminados este ratio se clasifica en los factores 3 y 4 Nota 5: Con 3 y 4 factores predeterminados este ratio no se clasifica en ningun factor Nota 6: Con 3, 4 y 6 factores predeterminados este ratio no se clasifica en ninguno de los factores, pero con 10 factores predeterminados se clasifica en el factor 10 ROTATION METHOD: VARIMAX WITH KAISER NORMALIZATION COMPONENT PLOT IN ROTATED SPACE TABLA 11 EIGENVALUE 10 FACTORS 8 FACTORS Component Plot in Rotated Space Component Plot in Rotated Space Component Plot in Rotated Space 1.0 r9 r56 r70 r58 r4 r1 r11 r13 1.0 r9 r56 r70 r58 r4 r1 r11 r13 1.0 r9 r4 r1 r11r13 .5 r57 r36 r15 r50 r1214 r r35 r28 r30 r38 r51 .5 r57 r36 r15 r50 r1214 r r35 r28 r30 r38 r51 .5 r15r57 r36 r14 r12 r50 r35 r28 r30 r38 r51 r56 r70 r58 Component 2 Component 2 0.0 r64 r52 -.5 0.0 r64 r52 -.5 Component 2 0.0 r64 r52 -.5 1.0 .5 0.0 -.5 -.5 0.0 .5 1.0 1.0 .5 0.0 -.5 -.5 0.0 .5 1.0 1.0 .5 0.0 -.5 -.5 0.0 .5 1.0 Component 1 Component 3 Component 1 Component 3 Component 1 Component 3 7 FACTORS 4 FACTORS 3 FACTORS Component Plot in Rotated Space Component Plot in Rotated Space Component Plot in Rotated Space 1.0 r9 .5 r56 r70 r58 r4 r1 r11 r13 r56 r9 1.0 r36 r57 r51 .5 r11 r4 r13 r1 r12 r15 r35 r50 r38 r30 r14 r28 r52 r64 -.5 1.0 r51 r9 r57 r36 r4 r11r1 r13 r15 r12 r14 r50 r57 r36 r15 r14 r12 r50 r30 r28 r35 r38 r51 .5 r56 r70 r58 Component 2 0.0 r64 r52 -.5 Component 2 0.0 Component 2 0.0 r35 r30 r38 r28 r64 r52 -.5 1.0 .5 0.0 -.5 -.5 0.0 .5 1.0 1.0 .5 0.0 Component 1 Component 3 -.5 -.5 0.0 .5 1.0 1.0 .5 0.0 -.5 -.5 0.0 .5 1.0 Component 1 Component 3 Component 1 Component 3 TABLA 12 Reproduced Correlations: Eigenvalue R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,921 0,929 0,323 0,856 0,128 0,773 0,295 0,313 0,109 0,034 0,019 0,309 0,083 0,104 0,310 0,352 0,096 0,319 0,069 0,284 0,077 R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,009 0,002 0,049 0,024 0,012 0,019 0,045 0,053 0,023 0,019 0,005 0,007 0,071 0,008 0,008 0,014 0,014 0,006 0,012 0,001 0,010 0,017 0,001 0,012 0,014 0,001 0,011 0,008 0,009 0,014 0,015 0,051 0,001 0,016 0,017 0,018 0,002 0,002 0,003 0,004 0,021 0,011 0,001 0,072 0,020 0,036 0,019 0,034 0,012 0,057 0,017 0,008 0,017 0,062 0,009 0,024 0,004 0,062 0,011 0,030 0,083 0,052 0,034 0,020 0,060 0,012 0,028 0,022 0,049 0,037 0,082 0,005 0,045 0,015 0,002 0,020 0,074 0,042 0,170 0,005 0,044 0,009 0,118 0,031 0,063 0,016 0,018 0,000 0,036 0,003 0,068 0,065 0,098 0,028 0,024 0,029 0,023 0,098 0,021 0,023 0,004 0,018 0,012 0,019 0,006 0,105 0,160 0,079 0,050 0,004 0,046 0,094 0,028 0,049 0,016 0,002 0,003 0,039 0,010 0,018 0,028 0,037 0,162 0,054 0,069 0,025 0,097 0,031 0,182 0,014 0,082 0,023 0,090 0,105 0,054 0,105 0,061 0,050 0,084 0,039 0,052 0,007 0,056 0,020 0,080 0,065 0,046 0,088 0,011 0,017 0,017 0,067 0,023 0,011 0,005 0,032 0,044 0,135 0,000 0,040 0,022 0,032 0,010 0,019 0,010 0,060 0,090 0,010 0,090 0,037 0,113 0,020 0,053 0,025 0,121 0,008 0,045 0,021 0,048 0,006 0,017 0,013 0,051 0,037 0,028 0,070 0,009 0,031 0,016 0,010 0,002 0,038 0,000 0,021 0,000 0,042 0,088 0,009 0,024 0,022 0,027 0,003 0,010 0,009 0,011 0,054 0,020 0,000 0,005 0,006 0,966 0,335 0,894 0,268 0,810 0,283 0,407 0,110 0,078 0,032 0,391 0,115 0,090 0,268 0,298 0,133 0,358 0,089 0,226 0,107 R4 0,931 0,384 0,043 0,344 0,025 0,067 0,192 0,033 0,000 0,479 0,145 0,047 0,439 0,333 0,908 0,522 0,898 0,453 0,916 R9 0,877 0,235 0,801 0,140 0,435 0,019 0,034 0,114 0,427 0,016 0,055 0,317 0,362 0,200 0,413 0,194 0,282 0,188 R11 0,795 0,184 0,178 0,489 0,209 0,312 0,215 0,502 0,174 0,174 0,051 0,108 0,136 0,283 0,059 0,144 0,099 R12 0,860 0,116 0,466 0,046 0,038 0,054 0,491 0,199 0,115 0,423 0,397 0,177 0,508 0,124 0,380 0,143 R13 0,850 0,130 0,462 0,141 0,024 0,112 0,074 0,115 0,113 0,036 0,104 0,183 0,094 0,117 0,096 R14 0,528 0,083 0,140 0,001 0,482 0,047 0,084 0,168 0,154 0,059 0,385 0,029 0,099 0,034 R15 0,636 0,248 0,373 0,210 0,457 0,058 0,228 0,101 0,190 0,179 0,086 0,204 0,152 R28 0,178 0,199 0,233 0,222 0,077 0,077 0,010 0,070 0,161 0,008 0,037 0,043 R30 0,923 0,077 0,859 0,258 0,206 0,421 0,072 0,027 0,169 0,253 0,018 R35 0,775 0,267 0,140 0,568 0,440 0,488 0,730 0,431 0,503 0,456 R36 0,924 0,211 0,142 0,110 0,176 0,229 0,060 0,094 0,084 R38 0,228 0,150 0,183 0,016 0,124 0,046 0,138 0,004 R50 0,952 0,860 0,330 0,733 0,349 0,946 0,325 R51 0,855 0,192 0,610 0,270 0,866 0,209 R52 0,970 0,489 0,947 0,337 0,975 R56 0,769 0,459 0,691 0,467 R57 0,991 0,372 0,979 R58 0,954 0,340 R64 0,992 R70 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 Residual Residuals are computed between observed and reproduced correlations. There are 52 (24.0%) nonredundant residuals with absolute values > 0.05. Reproduced communalities TABLA 12 Reproduced Correlations: 10 Factors R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,940 0,935 0,325 0,856 0,130 0,768 0,304 0,273 0,044 0,055 0,005 0,304 0,105 0,030 0,312 0,356 0,103 0,319 0,066 0,284 0,080 R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,003 0,000 0,049 0,022 0,007 0,029 0,006 0,012 0,002 0,005 0,000 0,015 0,002 0,006 0,013 0,008 0,014 0,003 0,012 0,001 0,016 0,013 0,004 0,014 0,016 0,005 0,006 0,001 0,005 0,001 0,002 0,001 0,000 0,010 0,012 0,006 0,002 0,005 0,001 0,018 0,002 0,017 0,001 0,005 0,006 0,004 0,006 0,014 0,007 0,001 0,015 0,026 0,025 0,011 0,013 0,012 0,011 0,036 0,041 0,024 0,022 0,013 0,005 0,008 0,007 0,020 0,005 0,005 0,003 0,018 0,024 0,002 0,011 0,005 0,054 0,057 0,063 0,026 0,009 0,018 0,073 0,006 0,011 0,013 0,030 0,006 0,050 0,008 0,017 0,003 0,000 0,038 0,007 0,006 0,008 0,036 0,007 0,008 0,002 0,018 0,008 0,026 0,011 0,007 0,010 0,032 0,019 0,005 0,009 0,028 0,005 0,006 0,004 0,023 0,009 0,032 0,001 0,006 0,000 0,015 0,005 0,009 0,033 0,003 0,007 0,004 0,028 0,007 0,038 0,005 0,005 0,004 0,003 0,003 0,017 0,003 0,003 0,002 0,015 0,007 0,011 0,002 0,001 0,002 0,001 0,008 0,001 0,001 0,003 0,006 0,003 0,001 0,001 0,000 0,001 0,013 0,012 0,001 0,007 0,003 0,001 0,009 0,007 0,001 0,000 0,004 0,006 0,004 0,022 0,009 0,023 0,011 0,009 0,005 0,001 0,001 0,003 0,002 0,006 0,007 0,007 0,000 0,000 0,006 0,002 0,006 0,001 0,001 0,001 0,033 0,009 0,023 0,001 0,006 0,004 0,018 0,015 0,006 0,019 0,008 0,001 0,003 0,005 0,004 0,000 0,005 0,000 0,002 0,004 0,002 0,970 0,341 0,890 0,265 0,812 0,284 0,413 0,093 0,069 0,046 0,378 0,128 0,039 0,268 0,304 0,138 0,346 0,089 0,229 0,109 R4 0,950 0,370 0,020 0,350 0,025 0,134 0,178 0,073 0,013 0,432 0,163 0,008 0,441 0,351 0,917 0,471 0,902 0,465 0,923 R9 0,918 0,209 0,831 0,086 0,330 0,046 0,072 0,143 0,480 0,048 0,032 0,300 0,310 0,181 0,471 0,192 0,249 0,178 R11 0,887 0,132 0,255 0,478 0,141 0,133 0,238 0,531 0,189 0,067 0,032 0,075 0,146 0,315 0,051 0,125 0,099 R12 0,908 0,184 0,439 0,045 0,060 0,038 0,498 0,183 0,009 0,400 0,356 0,166 0,516 0,125 0,354 0,139 R13 0,954 0,056 0,321 0,067 0,017 0,144 0,033 0,015 0,081 0,035 0,079 0,218 0,097 0,072 0,085 R14 0,960 0,085 0,117 0,029 0,287 0,098 0,007 0,198 0,279 0,097 0,164 0,048 0,186 0,061 R15 0,991 0,155 0,271 0,280 0,355 0,000 0,180 0,002 0,144 0,242 0,091 0,147 0,130 R28 0,999 0,119 0,177 0,177 0,009 0,091 0,014 0,050 0,094 0,030 0,026 0,046 R30 0,983 0,033 0,916 0,124 0,198 0,384 0,094 0,067 0,173 0,232 0,007 R35 0,901 0,211 0,044 0,555 0,373 0,460 0,865 0,422 0,458 0,437 R36 0,979 0,091 0,151 0,068 0,200 0,175 0,061 0,119 0,096 R38 0,999 0,099 0,152 0,014 0,048 0,038 0,108 0,021 R50 0,964 0,884 0,337 0,717 0,350 0,961 0,328 R51 0,922 0,216 0,537 0,273 0,909 0,222 R52 0,980 0,460 0,947 0,352 0,981 R56 0,915 0,448 0,642 0,446 R57 0,992 0,375 0,980 R58 0,982 0,348 R64 0,996 R70 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 Residual Residuals are computed between observed and reproduced correlations. There are 4 (1.0%) nonredundant residuals with absolute values > 0.05. Reproduced communalities TABLA 12 Reproduced Correlations: 8 Factors R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,926 0,933 0,331 0,848 0,125 0,773 0,300 0,334 0,088 0,029 0,004 0,287 0,099 0,057 0,310 0,362 0,103 0,298 0,069 0,290 0,081 R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,005 0,006 0,041 0,027 0,012 0,025 0,067 0,032 0,028 0,004 0,016 0,009 0,025 0,007 0,019 0,008 0,007 0,006 0,006 0,002 0,016 0,011 0,002 0,013 0,019 0,015 0,004 0,008 0,004 0,001 0,001 0,007 0,001 0,008 0,012 0,003 0,002 0,007 0,000 0,018 0,007 0,009 0,009 0,026 0,022 0,007 0,000 0,008 0,011 0,002 0,012 0,029 0,027 0,019 0,012 0,011 0,011 0,072 0,012 0,021 0,043 0,014 0,054 0,001 0,022 0,011 0,092 0,019 0,030 0,027 0,044 0,003 0,033 0,008 0,003 0,026 0,032 0,078 0,059 0,006 0,078 0,016 0,126 0,039 0,079 0,021 0,056 0,005 0,047 0,008 0,068 0,060 0,094 0,059 0,028 0,033 0,025 0,084 0,019 0,021 0,004 0,022 0,013 0,017 0,006 0,080 0,136 0,090 0,036 0,020 0,031 0,136 0,026 0,037 0,009 0,022 0,004 0,032 0,006 0,100 0,176 0,012 0,045 0,006 0,204 0,011 0,040 0,004 0,061 0,006 0,046 0,004 0,024 0,057 0,053 0,047 0,077 0,038 0,031 0,013 0,058 0,014 0,023 0,003 0,008 0,034 0,013 0,188 0,029 0,063 0,013 0,052 0,002 0,047 0,007 0,020 0,003 0,020 0,001 0,015 0,003 0,017 0,009 0,005 0,001 0,000 0,057 0,001 0,038 0,011 0,004 0,014 0,021 0,007 0,025 0,007 0,016 0,002 0,011 0,005 0,000 0,002 0,045 0,111 0,028 0,070 0,003 0,072 0,012 0,015 0,004 0,026 0,002 0,018 0,002 0,029 0,034 0,006 0,009 0,013 0,001 0,002 0,002 0,005 0,004 0,020 0,002 0,002 0,004 0,000 0,970 0,341 0,888 0,267 0,810 0,287 0,422 0,095 0,063 0,046 0,375 0,129 0,047 0,268 0,306 0,138 0,343 0,089 0,231 0,110 R4 0,947 0,369 0,029 0,343 0,016 0,113 0,150 0,077 0,019 0,438 0,168 0,008 0,444 0,353 0,918 0,479 0,901 0,466 0,923 R9 0,891 0,245 0,802 0,131 0,395 0,019 0,013 0,136 0,465 0,039 0,119 0,314 0,344 0,190 0,451 0,193 0,271 0,182 R11 0,817 0,189 0,172 0,446 0,246 0,201 0,214 0,536 0,167 0,182 0,058 0,124 0,131 0,321 0,054 0,155 0,094 R12 0,861 0,117 0,460 0,042 0,007 0,058 0,495 0,202 0,100 0,421 0,395 0,178 0,513 0,123 0,378 0,143 R13 0,855 0,104 0,438 0,152 0,010 0,136 0,059 0,156 0,111 0,024 0,097 0,207 0,094 0,110 0,092 R14 0,659 0,201 0,288 0,050 0,366 0,107 0,218 0,182 0,211 0,086 0,264 0,037 0,135 0,053 R15 0,744 0,134 0,325 0,316 0,399 0,080 0,217 0,049 0,164 0,289 0,079 0,171 0,134 R28 0,864 0,127 0,135 0,189 0,198 0,118 0,056 0,066 0,041 0,034 0,074 0,054 R30 0,971 0,026 0,906 0,103 0,207 0,395 0,090 0,076 0,170 0,238 0,009 R35 0,880 0,208 0,007 0,558 0,388 0,462 0,838 0,425 0,470 0,439 R36 0,971 0,065 0,143 0,080 0,195 0,171 0,060 0,112 0,094 R38 0,722 0,144 0,258 0,040 0,016 0,040 0,179 0,032 R50 0,954 0,865 0,331 0,721 0,351 0,950 0,326 R51 0,881 0,205 0,556 0,273 0,882 0,218 R52 0,977 0,463 0,948 0,345 0,980 R56 0,881 0,452 0,657 0,449 R57 0,992 0,374 0,980 R58 0,964 0,346 R64 0,995 R70 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 Residual Residuals are computed between observed and reproduced correlations. There are 34 (16.0%) nonredundant residuals with absolute values > 0.05. Reproduced communalities TABLA 12 Reproduced Correlations: 7 Factors R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,924 0,932 0,326 0,852 0,131 0,775 0,297 0,319 0,102 0,001 0,008 0,301 0,093 0,065 0,308 0,356 0,100 0,312 0,068 0,286 0,078 R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,006 0,001 0,046 0,021 0,013 0,022 0,051 0,046 0,055 0,008 0,003 0,004 0,033 0,009 0,012 0,011 0,007 0,005 0,010 0,000 0,013 0,013 0,002 0,013 0,017 0,005 0,004 0,024 0,002 0,007 0,005 0,012 0,000 0,012 0,013 0,011 0,003 0,004 0,002 0,007 0,023 0,012 0,001 0,067 0,014 0,064 0,009 0,027 0,003 0,024 0,018 0,011 0,020 0,056 0,008 0,022 0,006 0,059 0,009 0,027 0,076 0,043 0,004 0,006 0,051 0,000 0,074 0,024 0,044 0,032 0,074 0,006 0,042 0,013 0,000 0,017 0,079 0,036 0,142 0,005 0,037 0,000 0,152 0,033 0,059 0,013 0,012 0,001 0,034 0,002 0,069 0,068 0,101 0,044 0,030 0,025 0,028 0,079 0,020 0,025 0,005 0,014 0,012 0,020 0,005 0,101 0,155 0,054 0,040 0,002 0,038 0,125 0,029 0,045 0,013 0,003 0,003 0,037 0,009 0,005 0,031 0,015 0,147 0,035 0,140 0,028 0,089 0,024 0,170 0,016 0,078 0,020 0,159 0,080 0,037 0,083 0,021 0,053 0,075 0,031 0,038 0,005 0,052 0,017 0,038 0,143 0,058 0,299 0,001 0,023 0,021 0,136 0,014 0,009 0,022 0,003 0,006 0,006 0,005 0,026 0,008 0,007 0,007 0,012 0,004 0,035 0,003 0,013 0,080 0,028 0,096 0,022 0,048 0,021 0,003 0,012 0,033 0,009 0,026 0,009 0,011 0,007 0,036 0,085 0,018 0,012 0,002 0,054 0,004 0,008 0,001 0,041 0,000 0,022 0,001 0,037 0,079 0,010 0,022 0,020 0,019 0,004 0,008 0,007 0,013 0,050 0,017 0,001 0,005 0,005 0,969 0,338 0,890 0,271 0,811 0,285 0,413 0,103 0,046 0,044 0,384 0,125 0,052 0,267 0,302 0,137 0,352 0,089 0,228 0,108 R4 0,933 0,381 0,045 0,346 0,023 0,072 0,187 0,006 0,010 0,473 0,154 0,014 0,438 0,336 0,911 0,516 0,898 0,455 0,917 R9 0,881 0,232 0,799 0,137 0,428 0,011 0,072 0,128 0,436 0,028 0,101 0,319 0,358 0,195 0,421 0,196 0,280 0,186 R11 0,798 0,186 0,180 0,494 0,203 0,284 0,225 0,495 0,183 0,208 0,052 0,104 0,139 0,277 0,058 0,142 0,100 R12 0,861 0,115 0,469 0,050 0,022 0,060 0,488 0,205 0,096 0,422 0,399 0,179 0,505 0,123 0,381 0,144 R13 0,852 0,125 0,457 0,116 0,015 0,118 0,066 0,145 0,114 0,033 0,101 0,188 0,095 0,115 0,094 R14 0,539 0,095 0,080 0,023 0,468 0,066 0,155 0,166 0,161 0,066 0,372 0,027 0,102 0,037 R15 0,651 0,318 0,348 0,227 0,435 0,024 0,231 0,093 0,182 0,194 0,088 0,200 0,148 R28 0,503 0,080 0,312 0,118 0,310 0,090 0,031 0,032 0,229 0,017 0,018 0,026 R30 0,966 0,048 0,897 0,117 0,210 0,407 0,085 0,052 0,172 0,245 0,012 R35 0,794 0,242 0,047 0,571 0,431 0,479 0,746 0,434 0,498 0,452 R36 0,957 0,087 0,138 0,097 0,188 0,207 0,063 0,101 0,089 R38 0,688 0,135 0,231 0,029 0,042 0,035 0,162 0,023 R50 0,952 0,858 0,329 0,735 0,349 0,945 0,324 R51 0,860 0,197 0,601 0,269 0,869 0,211 R52 0,974 0,481 0,946 0,340 0,977 R56 0,783 0,461 0,686 0,463 R57 0,991 0,372 0,978 R58 0,955 0,341 R64 0,993 R70 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 Residual Residuals are computed between observed and reproduced correlations. There are 42 (20.0%) nonredundant residuals with absolute values > 0.05. Reproduced communalities TABLA 12 Reproduced Correlations: 4 Factors R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,835 0,881 0,269 0,843 0,303 0,772 0,188 0,459 0,021 0,072 0,063 0,418 0,023 0,033 0,279 0,323 0,092 0,381 0,072 0,233 0,072 R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,057 0,056 0,037 0,151 0,011 0,087 0,192 0,034 0,016 0,063 0,114 0,067 0,001 0,038 0,020 0,019 0,076 0,009 0,063 0,006 0,019 0,011 0,092 0,015 0,054 0,082 0,043 0,027 0,031 0,074 0,046 0,016 0,016 0,033 0,019 0,053 0,001 0,026 0,006 0,013 0,141 0,000 0,043 0,018 0,021 0,006 0,054 0,104 0,057 0,002 0,035 0,007 0,014 0,099 0,013 0,055 0,002 0,108 0,008 0,059 0,101 0,038 0,017 0,001 0,041 0,011 0,002 0,019 0,050 0,035 0,075 0,008 0,038 0,015 0,111 0,072 0,204 0,062 0,020 0,169 0,196 0,202 0,142 0,023 0,037 0,002 0,096 0,024 0,065 0,001 0,318 0,047 0,049 0,040 0,056 0,047 0,060 0,012 0,027 0,052 0,002 0,007 0,004 0,020 0,002 0,122 0,304 0,035 0,087 0,097 0,077 0,083 0,081 0,156 0,008 0,106 0,031 0,106 0,025 0,194 0,025 0,024 0,021 0,034 0,031 0,027 0,043 0,025 0,074 0,017 0,005 0,016 0,034 0,173 0,033 0,159 0,022 0,010 0,012 0,042 0,027 0,026 0,002 0,011 0,151 0,004 0,126 0,015 0,002 0,010 0,022 0,046 0,035 0,033 0,005 0,101 0,138 0,015 0,011 0,032 0,028 0,055 0,024 0,044 0,010 0,151 0,018 0,047 0,121 0,043 0,189 0,013 0,117 0,030 0,015 0,024 0,042 0,028 0,083 0,009 0,052 0,013 0,069 0,029 0,019 0,031 0,010 0,071 0,016 0,002 0,001 0,060 0,000 0,039 0,002 0,042 0,112 0,012 0,042 0,024 0,029 0,002 0,012 0,009 0,010 0,091 0,024 0,002 0,005 0,008 0,939 0,306 0,888 0,361 0,813 0,214 0,489 0,056 0,097 0,010 0,451 0,084 0,055 0,251 0,281 0,131 0,393 0,091 0,198 0,104 R4 0,896 0,374 0,163 0,334 0,068 0,157 0,152 0,064 0,036 0,549 0,099 0,008 0,421 0,318 0,905 0,560 0,902 0,422 0,914 R9 0,872 0,281 0,783 0,169 0,454 0,006 0,051 0,135 0,446 0,039 0,025 0,314 0,363 0,198 0,420 0,198 0,275 0,188 R11 0,321 0,297 0,126 0,211 0,230 0,161 0,389 0,261 0,385 0,086 0,004 0,082 0,150 0,169 0,035 0,043 0,104 R12 0,756 0,134 0,448 0,101 0,106 0,026 0,510 0,117 0,005 0,429 0,427 0,172 0,498 0,140 0,381 0,147 R13 0,114 0,098 0,001 0,027 0,112 0,019 0,049 0,062 0,165 0,143 0,096 0,079 0,128 0,184 0,110 R14 0,275 0,093 0,086 0,062 0,299 0,135 0,017 0,221 0,208 0,066 0,277 0,026 0,186 0,042 R15 0,338 0,192 0,441 0,296 0,512 0,026 0,189 0,030 0,193 0,258 0,067 0,150 0,142 R28 0,117 0,270 0,173 0,302 0,026 0,087 0,003 0,075 0,140 0,004 0,059 0,042 R30 0,840 0,146 0,766 0,138 0,216 0,413 0,065 0,004 0,155 0,277 0,018 R35 0,633 0,358 0,033 0,605 0,471 0,494 0,653 0,424 0,567 0,461 R36 0,817 0,075 0,125 0,106 0,169 0,264 0,045 0,060 0,083 R38 0,055 0,169 0,175 0,007 0,085 0,026 0,178 0,003 R50 0,941 0,848 0,329 0,755 0,349 0,928 0,323 R51 0,837 0,192 0,633 0,266 0,849 0,206 R52 0,969 0,491 0,948 0,335 0,975 R56 0,723 0,458 0,727 0,470 R57 0,988 0,374 0,979 R58 0,924 0,338 R64 0,992 R70 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 Residual Residuals are computed between observed and reproduced correlations. There are 70 (33.0%) nonredundant residuals with absolute values > 0.05. Reproduced communalities TABLA 12 Reproduced Correlations: 3 Factors R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,764 0,801 0,194 0,752 0,297 0,746 0,148 0,452 0,110 0,117 0,010 0,468 0,150 0,003 0,413 0,415 0,023 0,455 0,020 0,359 0,009 R1 R1 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 0,137 0,131 0,054 0,145 0,015 0,128 0,185 0,055 0,061 0,010 0,165 0,060 0,030 0,096 0,072 0,087 0,150 0,083 0,063 0,087 0,104 0,092 0,086 0,015 0,100 0,074 0,058 0,077 0,052 0,132 0,098 0,019 0,135 0,071 0,097 0,137 0,105 0,116 0,098 0,110 0,135 0,028 0,086 0,011 0,074 0,042 0,024 0,157 0,078 0,031 0,106 0,090 0,059 0,178 0,085 0,078 0,085 0,101 0,042 0,007 0,092 0,076 0,041 0,094 0,024 0,153 0,041 0,190 0,168 0,053 0,021 0,111 0,200 0,090 0,109 0,075 0,204 0,069 0,023 0,175 0,192 0,212 0,140 0,034 0,030 0,008 0,090 0,031 0,075 0,005 0,303 0,045 0,083 0,057 0,028 0,067 0,012 0,024 0,077 0,087 0,028 0,035 0,031 0,067 0,033 0,118 0,252 0,009 0,129 0,126 0,150 0,065 0,004 0,103 0,047 0,149 0,083 0,034 0,071 0,202 0,021 0,031 0,016 0,047 0,028 0,041 0,034 0,031 0,082 0,026 0,018 0,024 0,022 0,081 0,031 0,001 0,061 0,158 0,103 0,129 0,067 0,090 0,157 0,114 0,105 0,028 0,046 0,035 0,086 0,048 0,065 0,001 0,023 0,047 0,046 0,048 0,270 0,047 0,149 0,127 0,043 0,022 0,120 0,175 0,075 0,059 0,040 0,049 0,055 0,092 0,243 0,079 0,027 0,088 0,041 0,265 0,207 0,095 0,051 0,175 0,279 0,135 0,011 0,011 0,011 0,002 0,030 0,015 0,019 0,175 0,131 0,080 0,174 0,277 0,152 0,047 0,015 0,107 0,205 0,082 0,101 0,091 0,110 0,089 0,107 0,042 0,109 0,166 0,111 0,137 0,849 0,221 0,785 0,355 0,783 0,169 0,481 0,157 0,148 0,093 0,509 0,228 0,020 0,402 0,385 0,054 0,477 0,013 0,340 0,012 R4 0,817 0,278 0,157 0,306 0,110 0,150 0,246 0,111 0,042 0,603 0,234 0,041 0,562 0,415 0,832 0,639 0,805 0,555 0,827 R9 0,754 0,274 0,748 0,117 0,445 0,109 0,109 0,040 0,511 0,125 0,015 0,486 0,482 0,110 0,516 0,079 0,437 0,083 R11 0,320 0,295 0,123 0,211 0,237 0,165 0,395 0,265 0,395 0,084 0,014 0,075 0,145 0,175 0,027 0,033 0,097 R12 0,745 0,119 0,445 0,135 0,123 0,002 0,529 0,165 0,007 0,479 0,461 0,146 0,526 0,105 0,428 0,116 R13 0,091 0,094 0,050 0,053 0,154 0,010 0,122 0,045 0,089 0,091 0,135 0,037 0,181 0,112 0,157 R14 0,274 0,102 0,090 0,069 0,304 0,148 0,014 0,234 0,217 0,059 0,284 0,017 0,198 0,034 R15 0,226 0,136 0,349 0,233 0,352 0,065 0,020 0,086 0,280 0,164 0,183 0,009 0,245 R28 0,089 0,223 0,141 0,222 0,045 0,002 0,055 0,118 0,093 0,054 0,020 0,094 R30 0,764 0,093 0,634 0,170 0,355 0,508 0,136 0,081 0,060 0,408 0,067 R35 0,597 0,267 0,010 0,510 0,406 0,543 0,599 0,490 0,477 0,520 R36 0,587 0,131 0,115 0,272 0,293 0,130 0,121 0,167 0,231 R38 0,041 0,110 0,135 0,023 0,052 0,066 0,123 0,039 R50 0,689 0,675 0,458 0,615 0,523 0,690 0,477 R51 0,718 0,281 0,537 0,386 0,685 0,312 R52 0,903 0,563 0,859 0,457 0,896 R56 0,645 0,555 0,595 0,556 R57 0,868 0,538 0,872 R58 0,699 0,483 R64 0,898 R70 R4 R9 R11 R12 R13 R14 R15 R28 R30 R35 R36 R38 R50 R51 R52 R56 R57 R58 R64 R70 Residual Residuals are computed between observed and reproduced correlations. There are 136 (64.0%) nonredundant residuals with absolute values > 0.05. Reproduced communalities _____________________________________________Capitulo 9: Conclusiones 286 CAPITULO 9 CONCLUSIONES De inicio la conclusión principal a la que hemos llegado es que en general los modelos predictivos presentan dos fases para su desarrollo que son muy complejas y de igual importancia, y sin embargo, en la primera de ellas poco se ha trabajado en términos de una estrecha relación conceptual-empírica. La primera fase comprende el estudio y estructuración detallada de la base de datos para evitar el efecto window dressing, mantener la utilidad y confiabilidad del sistema contable a través de los años para su comparabilidad, y llegar al máximo grado de armonización conceptual entre los diferentes estados financieros utilizados. Continuando con esta fase, el siguiente paso consiste en que con la base de datos se debe proceder siempre a estimar un conjunto de ratios financieros previamente seleccionados y sustentados todos y cada uno de ellos dentro de un marco teórico bien fundamentado, el cual también incluya la definición conceptual de la variable dependiente. Si esto se ha cumplido, sólo entonces se debería proceder a utilizar un método mulvariable reductivo para determinar un conjunto de factores y eliminar al mismo tiempo aquellos ratios que presenten una alta multicolinealidad. Esto con el fin de llegar a obtener los ratios finales que representarán a los factores con base en su alta correlación entre cada factor y cada ratio emparejado. Una vez llevado a cabo lo anterior, consideramos que es de suma importancia que al factor se le asigne un nombre clave de acuerdo al marco teórico que presentó originalmente el ratio para su interpretación financiera. Para concluir con esta síntesis sobre la metodología propuesta, se recomienda no pasar por alto la importancia que conlleva seleccionar adecuadamente el sector de la unidad de análisis, la unidad temporal, la muestra y la unidad geográfica. Sin embargo, de no ser posible llevar con éxito el desarrollo de la primera fase en términos generales, consideramos que definitivamente no se debería proceder al desarrollo de la segunda fase, pues el modelo adolecería de un sustento conceptual y empírico necesario. En cuanto a la segunda fase del modelo, consiste en determinar la variable dependiente de forma categórica e incorporar en una función lineal los ratios seleccionados como variables independientes, asignándoles una ponderación individual a cada uno de ellos con el fin de aplicar un método multivariable clasificatorio para obtener porcentajes de exactitud y errores predictivos “ex-ante” o “expost”. Este trabajo exclusivamente desarrolló de forma muy detallada la primera fase del modelo predictivo dentro de un sector muy específico en una economía emergente, situación que conlleva importantes particularidades por el aspecto tan “sui generis” en relación a una economía desarrollada que presentan las bases de datos. Con base en esta limitación obtuvimos las conclusiones que explicamos a continuación. Conclusiones sobre las bases de datos. Lo ideal para desarrollar adecuadamente un modelo predictivo sería que la contabilidad presentase en todo momento dos características fundamentales para el usuario: utilidad y confiabilidad. Sin embargo, la naturaleza propia de la técnica contable es provisional y en la práctica este sistema no refleja con exactitud la situación real de una empresa, ni tampoco el resultado contable constituye una buena medida de creación de valor dada la alta probabilidad de manipulación que puede introducirse y que se denomina efecto window dressing. Por otra parte, la estructura contable de medición es de partida defectuosa y se distorsiona aún más por la inflación, la devaluación de la moneda y la variación en las tasas de interés. _____________________________________________Capitulo 9: Conclusiones 287 Ante esta evidente situación que se da de forma más acentuada en las economías emergentes, la revelación y la reexpresión son los dos únicos caminos que actualmente se han desarrollado de manera sistemática para mantener al máximo la utilidad de la información financiera a través del tiempo y utilizar entonces estos estados como base de datos. En el caso de la reexpresión, que es el método más eficaz para erradicar los efectos de distorsión del sistema de información empresarial, éste se fundamenta en dos principios que están en constante evolución y son: el principio del mantenimiento del capital financiero y el principio del mantenimiento del capital físico. Otro fenómeno importante que hace vulnerable al sistema de información empresarial es la falta de armonización contable, pues la tendencia de la técnica varía entre los diferentes países y usuarios. En algunos casos o países se dirige a las necesidades del inversor; en otros el sistema contable se enfoca a los acreedores y proveedores; y por último, también se diseña para cumplir con políticas macroeconómicas del gobierno, tales como el nivel de crecimiento y el fortalecimiento del sistema tributario. Sin embargo, y como apunta acertadamente Stevens (1982), muchas ocasiones los principales usuarios del sistema contable, aunque perciben su subjetividad, erróneamente se han convencido durante décadas de que la contabilidad refleja con exactitud la situación real de un negocio al utilizar números detallados y formatos ordenados de clasificación e interpretación basados en principios y normas. En el caso de muchos investigadores que utilizan bases de datos contables, además de que no se detecta estos hechos en sus trabajos, tampoco se nota indicio sobre la percepción sobre el entorno económico en donde se produce dicha información. Lo que llama nuestra atención es que ya varios investigadores considerados clásicos en este campo, como Lev (1989), han venido proponiendo con poco éxito nuevos elementos para la predicción del fracaso ampliando el concepto de la contabilidad positiva y exponiendo el escaso papel que la información contable desempeña en el mercado de capitales, añadiendo que el resultado contable no constituye una buena medida de la capacidad de creación del valor de una empresa dada su alta probabilidad de manipulación. Para Lev los pronósticos de los analistas financieros y las expectativas creadas por los participantes en el mercado son los que realmente provocan los movimientos en las cotizaciones, y por tanto, los precios son los que originan cambios en los resultados y no a la inversa. Algunos trabajos como los de Ohlson (1992), también nos sugieren acertadamente que las causas que explican el bajo contenido informativo de la información financiera se deben a que, el resultado contable anual mide la capacidad de creación del valor de las empresas en un plazo muy corto y con varios errores. Además, en el caso de los modelos predictivos, cuando se utiliza a los resultados acumulados de varios ejercicios como variable explicativa o independiente, éstos aumentan el grado de error en las mediciones según lo demuestran los resultados de sus investigaciones. Otros estudios como el de Hammer (1983), que tuvo como objetivo constatar la sensibilidad de las variables independientes a través de la utilización de tres métodos (discriminante lineal, discriminante cuadrático y logit), concluye que son las bases de datos las que determinan la selección de las variables independientes y la técnica estadística. Así también lo reconocen Won y Young (1995) quienes opinan que cualquier trabajo predictivo requiere buenas bases de datos. En este trabajo también destacamos el hecho de que el tipo de información contable que se toma como base de datos en los estudios predictivos de economías desarrolladas es en definitiva sustancialmente diferente con respecto de aquella información que producen las empresas que se ubican en economías en vías de desarrollo, en donde por cierto, la utilidad de la información contable se ve frecuentemente más cuestionada por fenómenos tan comunes como el efecto window dressing, o bien, por la incorrecta reexpresión de los estados financieros. Por eso para la obtención y estructuración de las bases de datos con fines predictivos, se puso especial énfasis a este aspecto porque a pesar de que ha sido mencionada su problemática en ciertas investigaciones, su tratamiento teórico y empírico se ha limitado sólo a aspectos genéricos. Desde nuestro punto de vista este elemento constituye una de las principales claves para llevar a cabo adecuadamente las estimaciones y obtener correctamente los indicadores cuantitativos de un modelo predictivo. Por lo tanto, dicho elemento es uno de los que se analizó con más detenimiento a través de tres diferentes e importantes matices que fueron los siguientes: _____________________________________________Capitulo 9: Conclusiones 288 a) El problema que existe para obtener las bases de datos ante la práctica del denominado efecto “window dressing” afecta en definitiva negativamente la utilidad del sistema contable. b) Para solucionar el problema que se presenta para la comparación de las bases de datos entre las diferentes empresas de la muestra seleccionada, se debe considerar las diferentes tendencias que se dan en la presentación de los estados financieros e incorporar las propuestas más avanzadas para obtener nuevos modelos de homogeneización o armonización a escala mundial para la elaboración de los estados financieros básicos. c) Hay que considerar seriamente el problema de la estructuración de las bases de datos ante los diferentes criterios de actualización de las cifras, bien sea mediante la revelación o a través de la reexpresión de los estados financieros. Como sabemos la actualización es necesaria para conservar la validez, confiabilidad y comparabilidad de la información contable a lo largo de los años. Sin embargo, a la fecha existe una controversia en cuanto al método para actualizar dichas cifras pues cada uno de éstos da diferentes resultados partiendo de cifras base comunes. En el caso de las economías emergentes que utilicen unidades temporales de largo alcance es imprescindible reconocer la revelación y la actualización de los estados financieros para disminuir la distorsión de la unidad monetaria cuando hay inflación. El caso de la revelación se utiliza cuando la tasa inflacionaria es moderada y consiste en incluir sólo notas en los anexos de los estados financieros. Sin embargo, cuando se revela no se reconoce ni se incorpora dicho efecto en los estados financieros básicos. Por eso cuando las tasas inflacionarias son altas entre los períodos contables se recomienda optar siempre por la actualización o reexpresión de las cifras. Esto último representa un planteamiento más formalizado y sistemático, que sí reconoce e incorpora las distorsiones originadas por los cambios en el nivel general de precios, principalmente en las partidas no monetarias del activo fijo (con sus respectivas amortizaciones y depreciaciones); el capital social; los beneficios acumulados; los inventarios y el coste de ventas. De todo esto se obtiene dos resultados muy importantes que se reconocen tanto en el balance general como en el estado de resultados y son respectivamente: el resultado por activos no monetarios (retam) y los resultados por posición monetaria (repomo). Los sistemas para actualizar y hacer comparables las bases de datos se pueden desarrollar bajo dos tipos de pensamiento o principios que a su vez producen dos modelos de contabilidad que son: a) El principio de mantenimiento del capital financiero (contabilidad en moneda constante o al nivel general de precios). Este modelo busca mantener el poder adquisitivo general del capital que han invertido los accionistas. La contabilidad que se produce bajo este principio está diseñada para evitar la distribución del poder adquisitivo que reside en el capital financiero, centrándose en los efectos del declive de dicho poder adquisitivo. Es decir, el método se centra en la unidad de medida para modificarla o cambiarla por monedas de poder de compra y así eliminar el concepto de la moneda como unidad fiduciaria. b) El principio de mantenimiento del capital físico (contabilidad al coste actual). Los fundamentos de la contabilidad que se produce bajo este principio, se basan en la premisa de que una empresa no puede declarar beneficios si antes no ha cubierto el mantenimiento de su capacidad de explotación existente. Este modelo se centra en los cambios de precios específicos que afectan a la empresa. Es decir, se centra en el atributo medido, buscando reemplazar los valores en que están valuadas las inversiones no monetarias por sus valores de reemplazo o actuales, tomando en cuenta para ello el uso y la capacidad de servicio del bien. En México a partir de 1983 se estableció como obligatorio el reconocimiento de los efectos de la inflación en la información financiera. Posteriormente, en 1994 dichas normas se reconocieron como de carácter evolutivo pues se consideró que la reexpresión de la información financiera es un tema sujeto a un permanente proceso de investigación para mejorar el contenido y presentación de los datos, así como para simplificar la aplicación de los métodos de actualización y llegar a una comparación _____________________________________________Capitulo 9: Conclusiones 289 mejor de los estados financieros. Actualmente sólo prevalece la reexpresión a través del índice nacional de precios al consumidor. Ahora pasemos a analizar nuestras conclusiones sobre las bases de datos ya en el contexto específico de los modelos predictivos. Coincidimos en la postura de Hair (2000) sobre que el análisis multivariable requiere previamente un examen riguroso de los datos por la influencia de atípicos, violaciones de los supuestos y la ausencia de datos que puede llevar a la pérdida de varias variables independientes y provocar con ello efectos sustancialmente diferentes en los resultados. Pero como el examen de las bases de datos es complejo y lleva tiempo, es común que se descuide este importante aspecto por parte del analista. Sin embargo, un análisis eficiente de las bases llevará siempre a una mejor predicción, una mejor evaluación de las empresas muestreadas, soluciones más eficaces a los problemas de los datos ausentes, identificación de casos atípicos y la comprobación de los supuestos subyacentes en los modelos multivariables predictivos. Los datos ausentes tienen efectos negativos en cualquier investigación y son producto de la introducción o estimación de los datos. Los casos atípicos son magnitudes extremas que tienen influencia negativa o ilógica en los resultados. Por último, es necesario considerar los supuestos que puedan subyacer en un análisis multivariable, lo cual sólo es posible si se cuenta con la experiencia o la asesoría de un especialista para analizar e interpretar los estados financieros. Conclusiones sobre los ratios. En este estudio se estableció como un objetivo prioritario desarrollar un trabajo empírico sobre las clasificaciones de los ratios, midiendo la estabilidad de los factores a largo plazo para obtener una clasificación de factores estadísticamente independientes con relación al gran número de ratios expuestos en la literatura especializada. Las conclusiones a las que se llegó sobre los ratios es que la tendencia de éstos no siempre indica si una empresa se dirige al fracaso o no, pues puede existir una manipulación en los estados financieros, y en específico en aquellas partidas que son parte de los componentes de los ratios más representativos para efectuar la evaluación de la empresa. A este hecho se debe añadir la calidad de la auditoría y la disponibilidad de los directivos para asumir mejores criterios de contabilización. Esto por supuesto no descarta la gran ventaja que tiene el método de ratios para resumir la información financiera, aunque hay que considerar que este método, al no tener un carácter obligatorio, lleva a que las estimaciones de los ratios presenten diversos criterios y componentes, y por lo tanto, no es factible alcanzar una armonización entre las empresas. También hay que considerar la experiencia de Beaver (1966) que demostró en sus investigaciones que los ratios no presentan la misma capacidad de evaluación o predicción a través del tiempo, ni predicen con igual exactitud el fracaso y el éxito (error tipo I y II). Nosotros tratamos de superar en este estudio una de las criticas más importantes que se hicieron, tanto al modelo original de Altman como a gran número de trabajos predictivos posteriores, en el sentido de que las variables independientes seleccionadas no siempre son las más representativas. Por otra parte, también ha sido común para este tipo de trabajos recibir serias críticas en cuanto a que las variables independientes y sus respectivos factores utilizados en la función lineal no tienen un sustento teórico bien fundamentado, de ahí que hayamos desarrollado ampliamente el marco teórico de cada una de ellas. Aunque los estudios realizados con ratios financieros para medir fracaso empresarial se han enfocado en la comparación entre empresas en quiebra y empresas que no han quebrado (sanas y no sanas). Para algunos analistas esto ha permitido ofrecer pruebas de que las empresas que no quebraron presentaban ratios de tesorería "más firmes" que aquellas que si quebraron, aunque aún no se ha demostrado de manera concluyente la capacidad de los ratios por sí solos para la predicción de quiebras. Otro aspecto importante a tomar en cuenta es que dentro del ratio, el numerador o el denominador pueden presentar signos negativos. Esto da origen a una interpretación engañosa sobre el coeficiente. Por eso se recomienda analizar sobre todo el signo del numerador, pues cuando presenta un signo negativo el análisis se vuelve más complejo. _____________________________________________Capitulo 9: Conclusiones 290 Los anteriores problemas los teníamos previstos desde el inicio de este trabajo, pues consideramos la experiencia de Lizarraga (1996) que apunta el serio problema que existe en gran cantidad de ratios para encontrar su claro significado económico o financiero. La ausencia estos elementos lleva a una inevitable complejidad y a diferentes tipos de interpretación que genera desacuerdos o equívocos, lo que a su vez conducen a un exagerado optimismo sobre la utilidad del ratio, la cual tras ser analizada durante décadas, posteriormente se ha demostrado en varios casos como absurda o sin sentido. Como hemos señalado antes, ningún ratio hay que considerarlo aisladamente porque no son significativos por sí solos, pues todos ellos deben ser comparados con un patrón para determinar si su nivel es satisfactorio o no. Para obtener dicho patrón es necesario seleccionar primero a los ratios y definir cuales serán sus objetivos (Westwick: 1987). Posteriormente es muy importante interpretar cada ratio comparándolo con ratios anteriores de la misma empresa, algún estándar establecido y ratios de otras compañías del mismo o similar sector. Una de las últimas propuestas más importantes para las que se utilizan los ratios es la de servir como una base de datos aún más sintética que los estados financieros, reduciendo su redundancia y multicolinealidad a través de métodos estadísticos para llevar a cabo predicciones. Al respecto Horrigan (1965) sostiene que los problemas presentes de multicolinealidad son también oportunidades para el investigador, pues cuando se presenta este fenómeno con los ratios financieros, permite al analista contar con la máxima información contenida en los ratios, aunque sea redundante, para posteriormente ser capturados y reducidos a un pequeño número de factores. Sin embargo, es importante considerar que los estados financieros, cuya característica básica es el devengo, representan el primer punto de partida para calcular cualquier medida o ratio. Por eso ciertos ratios requieren posteriormente ajustes más analíticos, pues no todos los componentes son fiables o están incluidos en los estados financieros. Con respecto a la clasificación de los ratios por factores, consideramos importante la opinión de García-Ayuso (1996). Este nos indica que muchas de éstas se hacen “a priori” y sin ningún fundamento empírico. Esta situación ha dado como resultado únicamente coherencia en términos conceptuales en la totalidad de los ratios. Además, en este tipo de clasificaciones muchas veces influye más el amplio reconocimiento que se presta a ciertos autores que las han propuesto y esto lleva a que aquellas clasificaciones más tradicionales ya no sean cuestionadas, situación que sí se lleva a cabo con el análisis factorial. También existen estudios empíricos que aplicando técnicas estadísticas multivariables buscan obtener clasificaciones que determinen que ratios presentan un comportamiento análogo y aportan un contenido informativo similar sin más trascendencia conceptual o de medición, o bien, otros ratios que siendo efectivamente diferentes sirvan para medir variables importantes que afectan a la empresa. Con base en ello, también incorporamos en nuestro estudio uno de los principales objetivos de los trabajos de García-Ayuso que consistió en presentar una comparación entre clasificaciones a priori propuestas en la literatura contable y las clasificaciones obtenidas de investigaciones empíricas como resultado de la explicación de técnicas del análisis factorial. _____________________________________________Capitulo 9: Conclusiones 291 CUADRO 9.1. CUADRO COMPARATIVO DE LOS FACTORES SELECCIONADOS EN DIVERSOS ESTUDIOS AUTOR Rentabilidad Fitzpatrick, Winakor, Merwin Beaver (1966, 1968) Altman (1968) Altman, et. al. (1977) Baida y Ribeiro (1979) Swason y Tybout (1988) Pascale (1988) Won, Young Deakin Edmister Blum Ohlson Taffler Zavgren Dambolena, Khory Casey Casey, Bartczak Pinches, Mingo y Caruthers (1973) X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X Productividad y Eficiencia FACTOR Liquidez Cash Flow Solvencia Endeudamiento X X X X X X X X X X X X X En este trabajo intentamos seleccionar aquellas variables independientes que más influyen en el desarrollo económico y financiero de la empresa mexicana (sector hotelero). Lo anterior nos llevó a elegir setenta y un ratios que dividimos en siete factores. Hipotéticamente la serie de variables independientes tiene que aportar conclusiones rigurosas, con base en técnicas y relaciones complejas. Sin embargo, se debe tomar en cuenta que existen casos en donde considerando una sola variable independiente, ésta puede aportar un rigor similar o ligeramente inferior en lugar de utilizar varias. Por eso a partir del conjunto original de 71 ratios, seleccionamos un segundo grupo de 21 ratios, eliminando aquellos que tenían serias deficiencias en cuanto a su cálculo o ausencia de datos, o bien, las cuentas con las que se integraban no presentaban la suficiente información en cuanto a su uso exacto; tal fue el caso de la partida denominada cuentas por cobrar. Esta cuenta se utilizó no sólo para registrar aquellas deudas a favor de la empresa por concepto de ventas a crédito, sino que también se observó que integraba otras operaciones como deudas de terceros con la empresa o pagos anticipados que se efectuaron por concepto de servicios aún no erogados. También la reducción de las variables independientes a 21 ratios obedeció a las limitaciones del tamaño muestral de la base de datos que comprendió ocho años divididos en trimestres, lo que nos llevó a un total de 32 trimestres por cada una de las cinco empresas seleccionadas; lo que a su vez nos dio un total de 160 casos a lo largo de los ocho años (7.27 casos por variable). Estos datos en definitiva nos garantizaron la seguridad para aplicar correctamente el análisis multivariable del factorial, pues el investigador no debe utilizar una muestra inferior a 50 casos u observaciones, y preferiblemente el tamaño muestral debe ser superior a 100 o más casos, o bien, como regla general el mínimo de observaciones a tener en cuenta tiene que ser de por lo menos un número de observaciones cinco veces mayor con respecto al número de variables analizadas. Situaciones que sí cumplimos. En cuanto a las relaciones empíricas entre los ratios, y según puede verse en el cuadro siguiente, hasta la fecha no existe suficiente consistencia entre los diferentes modelos predictivos. Esto se debe principalmente a problemas tales como: la inexactitud de los diferentes modelos propuestos, los _____________________________________________Capitulo 9: Conclusiones 292 diferentes criterios de selección y clasificación de los ratios, las distintas ponderaciones que los investigadores dan a las variables independientes, la diferencia de las poblaciones de ratios entre los modelos y a las relaciones empíricas que estos mantienen. CUADRO 9.2 CUADRO COMPARATIVO DE ALGUNOS RATIOS QUE DIERON MEJORES RESULTADOS EN DIVERSOS ESTUDIOS R1 Fitzpatrick Winakor, Smith Merwin Beaver (1966) Beaver (1968) Altman (1968) Altman (1977) Baida, Ribeiro Swason, Tybout Wom, Young Deakin Edmister Blum Ohlson Taffler Zavgren Casey R4 R6 R7 R9 R10 R12 R14 R28 R29 R33 R35 R36 X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X X R41 R43 R51 R52 R57 R65 R66 R71 RATIOS SELECCIONADOS EN NUESTRO TRABAJO R4 R12 R14 R38 R50 R51 R79 *De los siete ratios seleccionados, tres no aparecen seleccionados en los estudios previos que analizamos (R38, R50, R79). Para consultar el nombre del ratio y sus componentes, véase las tablas 6.11 y 6.12 del capítulo 6. Elaboración Propia _____________________________________________Capitulo 9: Conclusiones 293 Conclusiones sobre la Variable Dependiente. Para iniciar la determinación de la variable dependiente sugerimos que no siempre se parta del supuesto del fracaso. Pues como hemos visto puede enfocarse desde dos estados que presentan las empresas: a) como éxito empresarial, y b) como fracaso empresarial. En el primer caso los criterios se reducen a dos supuestos que no son tan polémicos: "empresa sana" (maximización de los beneficios y maximización del valor de la empresa) y "empresa no fracasada" (no presenta ningún síntoma de fracaso, aunque tampoco necesariamente presente ninguno de éxito). Este criterio se recomienda utilizarlo en aquellas investigaciones en donde la población de empresas quebradas sea muy reducida y no se cuente con una unidad temporal amplia (más de tres años). También coincidimos con Mora (1993) en el sentido de que este enfoque es mejor cuando el analista tiene como objetivo principal el valorar la probabilidad de éxito en lugar que la del fracaso. Sin embargo, hemos de reconocer que para ello existen otras opciones muy bien fundamentadas tanto teóricas como prácticas para medir el éxito de la empresa en términos cuantitativos. Aunque dichas alternativas se han desarrollado con mayor éxito y excelentes resultados dentro del marco de las finanzas corporativas y no del análisis e interpretación de estados financieros o con modelos predictivos. Además, al hablar de éxito empresarial también hay que considerar que actualmente éste se puede interpretar de acuerdo a ciertas estrategias sobre las formas de empresa. Por ejemplo, si los acreedores optan por realizar acuerdos con el deudor a través de nuevas formas de empresa (como puede ser la fusión por absorción, la asociación o la participación significativa) aunque la entidad presente síntomas de fracaso, puede estar más cerca de alcanzar el éxito empresarial. Esto se debe a que en el corto plazo se logra cumplir con los principios de continuidad y de liquidez, mientras que en el largo plazo los socios pueden llegar a obtener plusvalías en el valor de sus nuevas acciones o volver a maximizar sus beneficios a través de la nueva entidad. En el segundo enfoque, que es el de más amplia aceptación, seguimos detectando que hasta la fecha continúan las divergencias entre los autores en cuanto al momento y la intensidad que presenta la enfermedad financiera en la empresa, pues hay quienes consideran que el estado de fracaso se inicia a partir de no alcanzar los objetivos del éxito empresarial, hasta quienes lo aceptan únicamente cuando la empresa ha llegado a la quiebra definitiva y estado de liquidación total. Para nosotros antes es más importante considerar que el concepto de fracaso no es un fenómeno puntual, sino un proceso de crisis que se compone de dos etapas: el fracaso económico y el fracaso financiero. Además, el fracaso responde a situaciones no sólo económicas, sino también a aspectos de tipo jurídico, conceptual y técnico. Aunque la determinación de la variable dependiente suele ser un proceso secundario en gran cantidad de investigaciones por la mayor influencia que ejerce el enfoque estadístico, consideramos que el estado actual de esta línea de investigación exige en estos momentos un planteamiento más riguroso, pues este elemento conceptual es central para definir mejor las dos clases de submuestras de empresas sanas y empresas fracasadas, porque esto repercutirá directamente en los porcentajes de error tipo I y II que se estiman en la segunda fase del modelo. En cuanto a las posibles definiciones que se pueden presentar de acuerdo al contexto en donde se desarrolla la investigación, es importante considerar el aspecto temporal del fracaso, pues la crisis puede ser transitoria o crónica, y en gran medida a partir de este hecho depende que la empresa inicie un procedimiento concursal. Desde nuestro punto de vista existen básicamente cinco supuestos sólidos para definir técnicamente al fracaso empresarial y son: la suspensión de pagos decretada, la quiebra, la rentabilidad negativa o por debajo de su coste de oportunidad durante varios períodos (éstos se definen de acuerdo al ciclo de explotación y maduración que presente el sector), el capital contable negativo, y por último, el exceso de valor presente de los activos con respecto al valor presente de los pasivos. _____________________________________________Capitulo 9: Conclusiones 294 En el caso de la suspensión de pagos ya hemos visto que existen muchas situaciones y variables negativas para considerarlo como una definición ampliamente aceptable y generalizable. Sin embargo en México, y muy específicamente en el caso de las empresas que cotizan en bolsa, este supuesto tiene un nivel de aceptación bastante respetable en la mayoría de los casos, pues la supervisión que lleva a cabo tanto la Comisión Nacional Bancaria y de Valores, el Ministerio de Hacienda, las firmas auditoras, así como la propia Bolsa, se hacen con criterios económicos y financieros bien fundamentados para proteger sobre todo al público inversionista. En cuanto a un estado ideal para definir a la variable dependiente desde el enfoque del fracaso empresarial, consideramos que se daría cuando la empresa fuera formalmente declarada en quiebra o en suspensión de pagos, reuniendo a la vez todos los supuestos financieros, económicos, jurídicos y técnicos que tienen más aceptación en determinadas economías en un momento puntual, sin que intervengan para ello acuerdos que no estén contemplados en el sistema concursal vigente, ni tampoco se implementen subsidios ocultos por parte de los acreedores, gobierno u otras instancias. En el caso de este trabajo, hemos llegado a la conclusión de que para el caso de México se pueden seguir tres criterios para separar a las empresas sanas de las empresas fracasadas, pero siempre y cuando estas coticen en la Bolsa Mexicana de Valores: a) se considerará como fracasadas a aquellas empresas que presenten un capital contable negativo; b) aquellas que tengan beneficios netos negativos continuos por lo menos durante los cuatro últimos años; y c) aquellas que entren en una suspensión de pagos efectiva. Hemos de finalizar este apartado con tres observaciones: a) Que aquellas investigaciones que no presentan un estudio detallado y sólido sobre la definición de la variable dependiente, seguramente sus fundamentos serán débiles con respecto a la selección de la muestra, afectando directamente la confiabilidad de las inferencias estadísticas; b) También hemos de subrayar la importancia que tiene la relación entre el efecto window dressing y la determinación del éxito o fracaso en cualquiera de sus supuestos, pues si no se revisa dicho efecto, entonces las bases de datos proporcionarán indicadores o supuestos erróneos; y por último, c) En el caso de elegir entre una suspensión de pagos y una quiebra dentro de un sistema concursal eficiente, recomendamos se considere el primer supuesto por el hecho de que este tipo de empresas tienen la obligación de seguir generando estados financieros contables basados en el principio del devengo y no en el de la liquidación. Esto en definitiva ayuda a mantener vigentes todos los principios de contabilidad generalmente aceptados al estar el negocio en marcha, facilitándose con ello la comparación entre las empresas sanas y las empresas fracasadas. Conclusiones sobre la muestra. En cuanto a la muestra, coincidimos con el principio propuesto por Beaver (1966) que recomienda que las empresas seleccionadas deben cumplir con la característica de "tamaño comparable" y "sector homogéneo". Por otra parte, también consideramos acertado lo expuesto por Altman(1968) en el sentido de que la heterogeneidad entre el tamaño y el sector de las empresas muestreadas se debe eliminar para tratar de evitar los efectos de distorsión que provocan ambos factores en los resultados. Estamos convencidos que es posible mejorar el modelo si sólo se selecciona un sector determinado, pues los resultados hasta ahora obtenidos han demostrado que estos no son generalizables a todas las empresas por lo diferente de sus estructuras financieras y el peso específico que tienen las variables independientes en cada sector productivo. Sin embargo, el modelo predictivo actualmente sí tiene posibilidades de desarrollarse entre sectores similares de diferentes países, pues existe más capacidad de comparación entre empresas similares aunque pertenezcan a sistemas macroeconómicos diferentes, dado el impulso extraordinario que se ha experimentado a nivel internacional para armonizar los criterios contables y su presentación. A esto hay que sumar que la mayoría de los sectores, sin importar su unidad geográfica, de acuerdo a su actividad presentan similares tipos de ciclos de explotación, estacionalidad, ratios, estructuras de capital y un conjunto de estrategias financieras comunes por el efecto globalizador en la economía. _____________________________________________Capitulo 9: Conclusiones 295 Con lo que respecta al emparejamiento de las dos submuestras, aunque algunos autores lo consideran necesario, otros como Ohlson (1980) lo descartan como una vía para lograr mayor exactitud predictiva. En nuestro caso coincidimos con este autor en que no es necesario dicho emparejamiento, máxime en la primera fase del modelo predictivo donde se aplica únicamente el análisis factorial. Sin embargo, para un estudio futuro sí se recomienda contrastar las diferencias que se pueden producir al estimar muestras emparejadas y muestras no emparejadas dentro del sector hotelero mexicano para obtener mayor evidencia empírica al respecto. Aunque hay que recordar que esto último forma parte de la segunda fase del modelo y consiste en la aplicación del análisis discriminante. Es muy importante mencionar con relación a la muestra y al método estadístico aplicado, que el análisis factorial desarrollado en este trabajo no pretende, dado el tamaño de la muestra, llegar a una inferencia estadística. Sin embargo, aún no siendo posible la inferencia esta técnica resultó útil para agrupar los ratios de la muestra, pudiéndose así comparar el agrupamiento obtenido mediante la muestra disponible con los resultados de otros estudios referidos a países, que por la mayor cantidad de información económica de que disponen, sí permiten inferencias. No obstante, por el momento hemos concluido que la muestra que seleccionamos con bases de datos trimestrales cumple positivamente con los requerimientos que exige el análisis factorial (cinco casos como mínimo por variable independiente seleccionada). Como ya se apuntó en el capítulo 6, actualmente estamos llevando a cabo una actualización y ampliación de la base de datos original en la Universidad de las Américas, utilizando el sistema de información “Economática” y las más recientes bases de datos que está proporcionando la Bolsa Mexicana de Valores. Por otra parte, esta misma base de datos se está también ampliando longitudinalmente. Para ello estamos considerando los estados financieros mensuales para aplicar el análisis factorial por empresa. Esto nos permitirá alcanzar en el corto plazo un total de 96 casos durante los ocho años que seleccionamos como unidad temporal. Para este primer estudio que presentamos aquí de forma trimestral. Además, al actualizar el cuarto trimestre del año 2000, contaremos para finales de este año con un total de 11 años (1990-2001), es decir, 132 casos por empresa. Esto representará un total de 660 casos que pertenecen a la muestra original de las cinco empresas hoteleras. Por otra parte, también estamos trabajando en la ampliación de la muestra, al emparejar el número de empresas sanas con el número de empresas fracasadas. Esto nos dará en una primera etapa una muestra de 5 empresas hoteleras sanas y una muestra de 5 empresas hoteleras fracasadas, con la misma unidad temporal (1990 – 2000), es decir, un total de 440 casos trimestrales y 1320 casos mensuales. Así, la robustez de la muestra se verá mejorada e incluso podría ampliarse la muestra de ratios disminuyendo el gran porcentaje de datos ausentes que se registró en la investigación. En cuanto a la ausencia de datos, aunque no contamos todavía con elementos más sólidos, presumimos que este fenómeno pudo originarse en gran parte por el efecto window dressing, pues observamos algunos indicios de su presencia en algunas cuentas concentradoras y que al mismo tiempo formaban parte de algunos de los componentes de la muestra original de 71 ratios. Conclusiones sobre la unidad temporal y la unidad geográfica. En este estudio la unidad temporal no presentó el efecto negativo de la distorsión de los ratios a través del tiempo, ya que al reexpresar los estados financieros cada trimestre se reconoce en los estados contables el efecto inflacionario acumulado a lo largo de los períodos. De no realizarse dicha reexpresión la comparación a través de los años hubiera sido errónea en el contexto mexicano dada la alta variabilidad en las tasas de inflación y la depreciación de la moneda que ha experimentado el país en los últimos 20 años. Algunos investigadores han comenzado a recomendar que dentro de esos períodos se obtengan también informes financieros trimestrales y no sólo anuales para observar mejor las tendencias en los cambios de los ratios. Esto lleva a que de alguna manera la unidad temporal se amplié y compense algunos aspectos negativos de aquellas muestras que sean pequeñas, como fue nuestro caso. Por eso obtuvimos informes trimestrales comprendidos entre 1990 y 1997. Sin embargo, hemos de apuntar que al existir _____________________________________________Capitulo 9: Conclusiones 296 distintos criterios sobre el número de años y trimestres en los períodos seleccionados es indudable que continuará presentándose un problema para la consistencia del modelo. En general podemos decir que los dos problemas principales a resolver a la hora de determinar la unidad temporal son los dos siguientes: a) La dificultad de una definición representativa y objetiva del fracaso; y b) La dificultad para establecer la fecha concreta del fracaso. En el caso de México tal vez la solución para estos dos aspectos no sea tan simple. En la práctica la mayoría de las empresas operan con desfases en sus cierres contables trimestrales y anuales. La Bolsa Mexicana de Valores sabe de esta realidad, y por lo tanto, permite la entrega previa de estados financieros no consolidados ni auditados para proporcionar al inversor una información financiera previa. Posteriormente se da un período que suele llegar hasta los seis meses para presentar la información final ya consolidada y auditada. Con respecto a la información anual, el ejercicio técnicamente se cierra el 31 de diciembre, sin embargo, la legislación mexicana al igual que muchas otras del mundo, da como plazo hasta el 31 de marzo para la entrega final de la declaración anual del impuesto sobre la renta. Esta declaración contiene en realidad importantes ajustes a varias de las principales cuentas que se toman para el análisis financiero final. Por otra parte, en este trimestre también se concluye el ciclo anual de la auditoría interna y se hacen las reclasificaciones y ajustes a los estados financieros finales Esta última operación técnica y cuyo producto final son las bases de datos contables, es también el inicio de los trabajos centrales de la auditoría externa, cuyo objetivo se centra en llegar a la cifra final más real de beneficios para el reparto de dividendos a los accionistas y el reparto de beneficios a los trabajadores. En general, durante el mes de agosto se da la conclusión de la auditoría externa para el año anterior inmediato de operaciones. Esto culmina con la entrega del dictamen del auditor, en el cual se incluyen las propuestas de reclasificaciones y ajustes importantes para ciertas partidas que inevitablemente modificarán los ratios financieros. Con estas características propias de la práctica contable en México se condiciona y dificulta la determinación de la fecha puntual que se trata de alcanzar rigurosamente en los modelos predictivos. Lo que nos lleva a sugerir que: a) primero no es viable que un investigador pueda determinar una fecha puntual del fracaso de una empresa, y menos aún en una muestra amplia de empresas ; b) segundo, lo anterior nos puede llevar a sugerir que las fechas del fracaso no se deben establecer con base a una determinada emisión de información financiera, sino con base a un período que contenga el cierre final real de cada año. Por lo tanto, deberíamos de estar abiertos a la idea de que dicho cierre puede variar de uno hasta seis meses. Con respecto a la unidad geográfica, en este punto hemos observado que la determinación correcta de la unidad geográfica en los diferentes estudios se ha realizado con base en los siguientes dos criterios: a) aquellos que están dirigidos a un sector muy concreto, y b) los estudios que abarcan varios sectores pero con características financieras homogéneas. En ambos casos normalmente se excluyen de la muestra las empresas financieras, aseguradoras y los bancos, ya que tienen características particulares. En resumen podemos decir que para que la muestra sea más representativa y puedan llevarse a cabo generalizaciones, la unidad geográfica debe seleccionarse considerando aspectos tan importantes como: a) determinación correcta del país y región; b) determinación correcta del sector y subsectores macroeconómicos en que opera la empresa; y c) fijación de las condiciones necesarias para obtener el tamaño de la empresa. En esta investigación y con respecto a la determinación del sector y subsectores, como ya apuntamos, se seleccionaron sólo cinco empresas hoteleras grandes que operan en todo el país y que cotizan en Bolsa. Al reducir la muestra sólo a un subsector muy específico, partimos de la base de que en economías muy inestables algunos subsectores tienen comportamientos más dinámicos que otros, e incluso pueden beneficiarse de dichas inestabilidades a corto y mediano plazo. Conclusiones sobre el método del factorial y la evidencia empírica. _____________________________________________Capitulo 9: Conclusiones 297 Si consideramos que el principal objetivo de este trabajo no estuvo encaminado a obtener más poder predictivo en el modelo sino a analizar algunos de los principales problemas conceptuales, metodológicos y estadísticos que se presentaron en la reducción de las variables independientes, entonces el análisis factorial representa uno de los principales instrumentos para la extracción de los factores y no un análisis secundario o complementario para desarrollar el análisis predictivo. Es importante mencionar que en el caso de este estudio nos enfocamos a seleccionar el método reductivo del factorial, dado que lo que interesa es reducir el número de ratios y de factores a partir de una base de datos contable reexpresada, con el fin de obtener para posteriores etapas indicadores estándar de un sector productivo específico que cotice en la Bolsa Mexicana de Valores. Posteriormente, estos indicadores representarán un punto de partida para contrastarlos con otras empresas, que aunque no coticen en bolsa, pertenezcan al tamaño y sector de la muestra original seleccionada. Al final, el propósito es definir una función lineal muy específica para analizar el sector hotelero complejo mexicano, para lo cual dicha función incluiría las variables independientes más representativas para evaluar a este tipo de empresas. En cuanto al tipo de análisis factorial de componentes principales aplicamos dos tipos: el exploratorio y el confirmatorio . En el primero no se conocen los factores a priori y éstos se determinan a través del método del valor propio (eigenvalue). En cambio en el segundo, los factores que se establecen a priori contienen a las variables independientes originales, siendo el número de estas últimas mayor que el número de factores seleccionados. En general, el análisis factorial exploratorio se aplica cuando se tiene un desconocimiento teórico del objeto de estudio, y por lo tanto, el analista no tiene que formular ninguna hipótesis con respecto a la distribución de los pesos factoriales, pues éstos se deducirán a partir de los datos cumpliendo con los principios de simplicidad y parsimonia. En cambio, en el análisis factorial confirmatorio sí se cuenta con información sobre las variables y sus intercorrelaciones, con lo cual se formulan hipótesis a priori que pueden ser contrastadas. Es decir, el análisis confirmatorio exige una hipótesis previa sobre el número de factores comunes, así como de las relaciones de dependencia entre cada variable con cada uno de los factores. En este estudio seleccionamos algunas de las variables más representativas para medir la rentabilidad, la eficiencia, la productividad, la liquidez, el cash flow, la solvencia y el endeudamiento. El análisis confirmatorio aplicamos cinco alternativas en cuanto al número de factores que consistieron en: tres, cuatro, siete, ocho y diez factores. Como sabemos todas estas variantes sobre el número de factores dan resultados exactamente iguales en cuanto a la matriz de datos y sus respectivas pruebas (KMO, MSA, test de esfericidad de Bartlett, el determinante, la gráfica “scree plot”, entre otros). Por otra parte, a partir de las comunalidades, el análisis de la varianza explicada, las matrices factoriales rotadas y sin rotar, entre otros, sí influye significativamente el número de factores previamente establecidos en los resultados obtenidos como lo veremos con más detalle en posteriores líneas. La conclusión sobre la primera etapa del análisis factorial es que se comprueban y superan satisfactoriamente todos los tipos de análisis sobre la pertinencia y validez de la matriz de datos. Dicha matriz quedó conformada por 5 ratios de rentabilidad (R1 , R 4 , R9 , R11, R 12), 3 ratios de productividad y eficiencia (R13, R 14, R15), 5 ratios de liquidez (R28, R30, R35, R36, R38), 1 ratio de cash flow (R50), 5 ratios de solvencia (R51, R 52, R 56, R57, R 58) y 2 ratios de endeudamiento (R64, R 70). Como se puede observar, los ratios predominantes son los de rentabilidad, liquidez y solvencia. Esto coincide con el marco teórico tradicional de los modelos predictivos que consideran a estos tres factores como los más importantes dentro de la función lineal discriminante. Si comparamos los resultados de este estudio con otros similares como el de Taffler (1984) podemos llegar sacar algunas conclusiones en cuanto a la validez de nuestros resultados. Por ejemplo, en ambos casos los factores de endeudamiento y rentabilidad fueron los que más peso clasificatorio obtuvieron a través del factorial. Los otros dos factores que se obtuvieron y coinciden con los nuestros son los de liquidez y el de posición de capital circulante (cash flow). Sin embargo, para el factor de endeudamiento el ratio con mayor correlación fue el R66 (pasivo circulante/ activo total). En nuestro caso el ratio R70 fue el que tuvo una mayor correlación: .985 (activo total / capital contable). Para el factor de _____________________________________________Capitulo 9: Conclusiones 298 rentabilidad Taffler seleccionó al R1 (beneficios netos antes de intereses e impuestos / activo total) pues este ratio dio los mejores resultados. En cambio para nosotros la correlación más alta la dio el R4: .949 (beneficios netos después de intereses antes de impuestos / activo total). Otro estudio importante que comparamos con nuestros resultados fue el de Pinches, Mingo y Caruthers (1973). Aquí observamos que aunque se determinaron también 7 factores, tres de ellos corresponden al concepto de productividad y eficiencia, uno al de rentabilidad, uno a la solvencia, otro a la liquidez, y por último, uno al cash flow . Esto indica que el factor de endeudamiento y rentabilidad acumulada no fue representativo para Pinches, Mingo y Caruthers (1973). Además, de los siete ratios que representan a cada uno de los factores, sólo el R51 coincide en ambos estudios para representar al factor de endeudamiento. (ver cuadro 9.2). Por otra parte, los 7 factores de Pinches, Mingo y Caruthers (1973) capturaron entre el 87 % y el 92 % del total de la información contenida en las 48 variables originales, siendo precisamente el factor de endeudamiento el más estable. En cambio, el factor denominado "intensidad del capital" fue el menos estable. En el caso de nuestro estudio, con los 7 factores logramos explicar el 80.34 % de la información. Estos resultados son relevantes si consideramos que el trabajo de los anteriores autores es considerado como uno de los mejores en cuanto a la aplicación del análisis factorial. Un tercer trabajo considerado como clásico en cuanto al desarrollo de la metodología del factorial y que utilizamos también para contrastar nuestros resultados fue el de Chen y Shimerda (1981). Aquí se llevó a cabo un interesante estudio comparativo de cinco importantes investigaciones. Estas tenían en común un sustento teórico bien fundamentado como requisito previo para aplicar el factorial y demostrar la capacidad empírica de los ratios. Si comparamos los resultados en cuanto al porcentaje de reducción de variables independientes, nos damos cuenta que este oscila entre el 64 % hasta el 85 %. Ahora bien, si consideramos que nosotros obtuvimos el 77 % de reducción a partir de 21 variables, podemos concluir que nuestros resultados son positivos. (ver capítulo 2, cuadro 2.3.4.). CUADRO 9.3 CUADRO COMPARATIVO CON RESPECTO A LOS RESULTADOS DE PINCHES, MINGO Y CARUTHERS (1973) Y NUESTRA INVESTIGACION FACTOR RATIO QUE LO REPRESENTA R9 R14 --R51 --R28 --NOMBRE DEL FACTOR Rentabilidad Productividad y Eficiencia Productividad y Eficiencia Endeudamiento Productividad y Eficiencia Liquidez Cash Flow NOMBRE DEL FACTOR SEGÚN PINCHES Retorno de la Inversión Intensidad del Capital Intensidad del Inventario Apalancamiento Financiero Intensidad de Clientes Liquidez Cash Position RATIO 1 2 3 4 5 6 7 Elaboración Propia Beneficio Neto / Capital Contable Ventas Netas / Activo Total Inventarios / Ventas Netas Pasivo Total / Capital Total Clientes / Inventarios Activo Circulante / Pasivo Circulante Cash Flow / Gastos en Efectivo Nuestros resultados también coinciden con los de otros autores en cuanto a que del total de ratios seleccionados para el factorial, no es posible clasificarlos a todos dentro de los factores previamente establecidos en un análisis confirmatorio o exploratorio (Gombola y Kentz: 1983; Johnson: 1979; Short: 1978). Esto es importante tomarlo en cuenta porque nos lleva a la necesidad de estar ajustando constantemente el modelo en cuanto a la selección de factores, pues aunque las bases de datos se actualicen y no modifiquen a los ratios, al permanecer estable su importancia relativa. No hay que olvidar que los factores no son estables a través del tiempo (Gombola, Haskins, Ketz y Williams: 1987). Aunque sí partimos de una base teórica que nos permite aplicar un análisis factorial confirmatorio, también incluimos un análisis factorial exploratorio para contrastarlos a ambos. Para ello, dentro del _____________________________________________Capitulo 9: Conclusiones 299 programa factorial del SPSS, en la extracción de factores se seleccionó primero la opción del valor propio (eigenvalue), dándonos como resultado seis posibles factores. En cuanto al número de factores que explican en más del 85% a las variables originales, observamos que con 7 factores se obtuvieron mejores resultados en comparación con el “eigenvalue”. Con respecto a los resultados obtenidos con 7 y 8 factores, la diferencia fue mínima pues sólo se incrementaron los porcentajes de la varianza explicada en tres variables dentro del conjunto de 8 factores. Con base en ello, procedimos a realizar el análisis confirmatorio con 7, 8 y 10 factores, dando como resultado en todos los casos una estabilidad en el comportamiento de los factores 1, 2, 3 y 4. Por último, el R50 que fue la única variable independiente que representó a la variable original del cash flow, mejoró sus correlaciones al aumentar el número de factores en el análisis confirmatorio. Así en el factor 7 se obtuvo una correlación de .737, con lo cual procedimos denominar a dicho factor como de cash flow. Al analizar el análisis confirmatorio con 8, 9 y 10 factores, observamos que los factores finales se explican mejor. En cambio, al seleccionar sólo 3 y 4 factores concluimos que resulta insuficiente el espacio factorial para las correlaciones de las variables independientes en cada uno de los factores. Consideramos el marco teórico propuesto inicialmente, donde establecimos a priori 7 componentes, veremos que éstos coinciden con el fundamento empírico que se obtuvo a través del análisis factorial. Ahora bien, al analizar los resultados empíricos que obtuvimos con las variables independientes que se incluyen en el modelo discriminante de Altman, veremos que sólo dos variables independientes aparecieron en este trabajo como factores finales (X2 = R12 y X5 = R14). En conclusión determinamos que dentro del sector hotelero complejo que cotiza en la Bolsa Mexicana de Valores, podemos llevar a cabo una función discriminante con los siete factores que se muestran a continuación: Factor 1: Endeudamiento (R70; capital contable / pasivo total). Factor 2: Rentabilidad (R4, beneficios netos antes de impuestos / activo total). Factor 3: Solvencia (R51, pasivo total / activo total). Factor 4: Liquidez (R38, activo circulante / pasivo total). Factor 5: Rentabilidad Acumulada (R12, beneficios netos no distribuidos / activo total). Factor 6: Productividad y Eficiencia (R14, ventas netas / activo total). Factor 7: Cash Flow (R50, cash flow tradicional / pasivo total) Conclusiones sobre los alcances y limitaciones del modelo. La validación de los modelos predictivos multivariables presentan serios problemas por el bajo nivel teórico que existe sobre la solvencia, además de las múltiples deficiencias metodológicas contenidas en los modelos, así como la falta de obtención de verdaderos resultados predictivos en empresas que se dirigen hacia la quiebra. Recordemos que el principal objetivo de los modelos de predicción es la detección oportuna de empresas que quebrarán en el futuro y su utilidad práctica sólo es patente cuando dichos modelos son capaces de distinguir entre empresas que “no fracasan” y tiene éxito (aunque presenten síntomas de fracaso empresarial) y empresas que sí fracasan (aunque no quiebren). A lo largo del trabajo algo que llama nuestra atención es el constatar que a la fecha muchas investigaciones continúan sin aplicar nuevas variantes en los modelos y en la fase de diseño del trabajo empírico, pues se interesan más en la aplicación de las técnicas estadísticas. Sin embargo, para el trabajo del analista financiero siempre es más importante la exactitud del modelo predictivo que la contrastación de una hipótesis o la validación rigurosa de una teoría que sólo busca demostrar una compleja habilidad en el empleo de técnicas informáticas y estadísticas que se apartan de ambientes reales. Lizarraga (1993) también coincide con la idea anterior pues considera que la sofisticación metodológica, aunque imprescindible en el avance de la técnica, transforma en ocasiones a los investigadores en sólo “especuladores estadísticos”, que fundamentados en buenos resultados tras largos procesos de contrastación de variables, no tienen en cambio una base teórica y carecen de interpretaciones económicas convincentes. Ya Lev (1978) afirmó hace más de dos décadas que algunos modelos son inadecuados y cuando se emplean, presentan generalmente el síntoma de la falta de una teoría base, desvirtuando en _____________________________________________Capitulo 9: Conclusiones 300 experimentos excesivos con gran número de variables y de modelos matemáticos cuyos datos y resultados son difíciles de generalizar. Con respecto a esto se vuelve a recomendar que en la interpretación y validación de los resultados exista una interpretación económica y financiera para dar un sentido lógico a las causas del fracaso empresarial, y no sólo interpretaciones en términos estadísticos. Uno de los objetivos actuales del análisis financiero y que incorporamos en este trabajo, es el estudio de los aspectos importantes de la teoría contable y su relación con los modelos predictivos. Para esto es importante revisar detalladamente el marco conceptual de los principios y normas que rigen la técnica contable actual para entender y saber solucionar los problemas prácticos que se presentan en la obtención de aquella información financiera que necesita la empresa en economías abiertas y a través del tiempo para alcanzar su estabilidad así como el crecimiento sostenido dentro del mercado en donde opera. Cabe destacar que este estudio se enfocó únicamente a aquellas empresas hoteleras de tamaño grande y del sector privado que cotizan en la Bolsa Mexicana de Valores. Por lo tanto, las generalizaciones de los resultados del análisis factorial no pueden ser aplicables a empresas pequeñas, medianas o corporaciones públicas. Esto es con el fin de poder hacer generalizaciones más acertadas sobre un sector y tamaño de empresa muy específico. Para esto se definieron los criterios cuantitativos y cualitativos que caracterizan a una empresa grande. Sin embargo, se reconoce que actualmente el número de empresas hoteleras que cotizan en la bolsa es escaso con relación al total de empresas inscritas. En este punto hemos de tomar en cuenta que la selección se realizó más bien con el propósito de iniciar un estudio de amplio alcance y a largo plazo dentro del sector hotelero mexicano. Para ello hemos comenzado por analizar al total de hoteles que cotizan en bolsa con el fin de obtener las variables independientes y los mejores factores que nos expliquen el comportamiento sectorial de estas empresas. Por otra parte, las generalizaciones del modelo a través del tiempo pueden presentar una inestabilidad por las variables que afectan a la información financiera, debido principalmente a los cambios en los criterios contables. Sin embargo, para reducir dicha inestabilidad hemos utilizado únicamente cifras reexpresadas y auditadas para que sean comparables a través de los años. También se buscó descomponer en elementos muy detallados a las variables independientes más importantes que influyen en los siete factores establecidos a priori. Previo a esto, se seleccionaron los ratios financieros reconocidos como los más efectivos para el análisis financiero de una empresa compleja mexicana. Los resultados del análisis factorial nos proporcionaron algunos indicios sobre el tipo de información contenida en el conjunto de variables del sector hotelero mexicano y pueden servir de guía para la selección de las variables independientes de un modelo predictivo final. La reducción del conjunto de las variables independientes se dirigió hacia la selección de una variable por cada factor que contenga similar información. Así, el uso de varias variables en un factor dado no es necesario. Utilizar pocas variables predictivas redujo la multicolinealidad y la probabilidad de que las variables incluidas en el modelo sean combinaciones lineales con respecto de cada una de aquellas que exhiban un alto grado de correlación. Además, pocas variables en el modelo final simplifican la aplicación del modelo y la interpretación de los resultados Hasta ahora no se ha alcanzado un acuerdo sobre cuál es el mejor método para extraer los factores, aunque algunos coinciden en que el análisis de componentes principales es el de mejor aceptación. Sin embargo, otros autores consideran que dicho método en realidad no pertenece al análisis factorial y que las mejores alternativas factoriales son el método de mínimos cuadrados o el método de máxima verosimilitud. Para comprender mejor la complejidad del factorial en este punto, se pueden llevar a cabo las comparaciones de los resultados que se obtienen a través de la aplicación de los diferentes métodos. Para el caso de este estudio únicamente se seleccionó el análisis de componentes principales. En general las limitaciones impiden a los investigadores y analistas financieros partir de un estándar de variables independientes como el propuesto por Altman. Además, en repetidas ocasiones los estudios no parten de bases de datos y muestras ya reducidas para el desarrollo de sus respectivos modelos, pues _____________________________________________Capitulo 9: Conclusiones 301 no existe un enfoque sistemático único. Esto trae como resultado que cada vez que se inicia un modelo se tiene que partir de un gran número de variables independientes para aplicar la técnica de reducción de datos con pequeñas variaciones. En otros casos se parte con criterios totalmente diferentes aunque se trate del mismo sector y tamaño de empresas analizadas. Nuestro trabajo no ha estado exento de varios de los problemas ampliamente comentados a lo largo de la investigación, por eso podemos concluir esta tesis diciendo que afortunadamente aún queda mucho por hacer. ___________________________________________________________________Bibliografía 302 BIBLIOGRAFIA _____________________________________________ ARTICULOS Altman Edward I. (1968): "Financial Ratios, Discriminant Analysis and the Prediction of Corporate Bankrupcy"; The Journal of Finance; September; pp. 589-609. Altman Edward I. (1978): "Financial Applications of Discriminant Analysis a Clasification”; Journal of Financial and Quantitative Analysis; pp. 185-205. Altman Edward, Baida Tara and Rivero Dias Luis Manoel (1979): "Assesing Potential Financial Problems for Firms un Brazil”; Journal of International Business Studies; pp. 9-24. Altman Edward I. (1984): “Introduction: Company and Country Risk Models”; Journal of Banking and Finance; Vol. 8, No. 2, pp. 151152. Altman Edward I. (1984): "The Success of Business failure Prediction Models: An International Survey”; Journal of banking and Finance; pp. 171-198. Altman Edward I. and Li Kao Duen Li (1988): "Introducing Recursive Partitiony for Financial Classification: The Case of Financial Distress”; Studies in Banking and Finance; Vol. 8; pp. 197-223. Altman Edward I., Giancarlo Marco and Varetto Franco (1993): "Corporate Distress Diagnosis: Comparisons Using Linear Discriminant Analysis and Neurol Networks”; December; Working Papers Series; New York University Salomon Center (S-93-59). Altman Edward I., Ho Eom Young and Wom Kim Dong (1994) : "Distress Classification of Korean Firms”; April; Working Papers Series; New York University Salomon Center (S-94-7). Altman Edward I., Yehning Chen and Weston Fred (1994): "Financial Distress and Restructuring Models”; December; Working Papers Series; New York University Salomon Center (S-94-34). Altman Edward I. and Haldeman Robert (1995): "Corporate Credit Scoring Models: Approaches and Standars for Successful Implementation”; February; Working Papers Series; New York University Salomon Center (S-95-6). Altman Edward I. and Narayanan Paul (1996): "Business Failure Classification Models: An International Survey”; June; Working Papers Series; New York University Salomon Center (S-96-34 ) Amat i Salas Oriol (1996): “El Estado de Flujos de Tesorería: “Experiencias Internacionales”; Revista Española de Financiación y Contabilidad; Vol. XXV, No. 88; julio-septiembre; pp. 609-631 Apellániz Gómez Paloma y Labrador Barrafón Margarita (1995): “El Impacto de la Regulación Contable en la Manipulación del Beneficio. Estudio Empírico de los Efectos del PGC de 1990”; Revista Española de Financiación y Contabilidad; Vol. XXIV, No. 882; enero-marzo; pp. 13-40. Arnold A.J., Clubb C. D., Manson S. and Wearning R. T. (1991): “The Relationship between Earnings, Funds Flows and Cash Flows: Evidence for the U.K.”; Accounting and Business Research; pp. 13-19. Azis Abdul and Gerald H. Lawson (1989): “Cash flow Reporting and Financial Distress Models: Testing of Hypotheses"; Financial Management; Spring; pp. 55-63. Bahnson Paul R. and Bartley Jon W. (1992): “The Sensitivity of Failure Prediction Models to Alternative Definitions of Failure”; Advances in Accounting; Vol. 10; pp. 255-278. Beaver William (1966): "Financial Ratios as Predictors of Failure"; Empirical Research in Accounting: Selected Studies, Supplement to Journal of Accounting Research, pp 71-111. Beaver William (1968): “Alternative Accounting Measures as Predictors of Failure”; The Accounting Review; January, pp. 112-122. Bernstein Leopold A. (1967): "The Concept of Materiality"; The Accounting Review; January; pp. 86-95. Blum Marc (1974): "Failing Company Discriminant Analysis"; Journal of Accounting Research; Spring; pp. 1-25. ___________________________________________________________________Bibliografía 303 Brown P. And Ball R. (1968): “ Some Preliminary Findings on the Association Between The Earnings of a Firm”; Empirical Research Accounting; p. 55-77. Bowen Robert M., David Burgstahler and Lane A. Daley (1987): "Incremental Information Content of Acrcrual vs. Cash Flows"; Accounting Review; Octuber; pp. 723-747 Brownell Peter (1982): “The Role of Accounting Data in Performance Evaluation, Budgetary Participation and Organizational Effectiveness”; Journal of Accounting Research; spring; pp. 12-27. Casey Cornelius J. (1980): “The Usefulness of Accounting Ratios for Subjetcts´ Predictions of Corporate failure: Replication and Extensions”; Journal of Accounting Research; Autumn; pp. 603-613. Casey Cornelius J. and Norman J. Bartczak (1984): " Cash Flow - It's Not the Bottom Line", Harvard Business Review; july-august; pp. 61-66. Casey Cornelius and Norman Bartczak (1985): “Using Operating Cash Flow Data to Predict Financial Distress: Some Extensions”; Journal of Accounting Research; pp. 384-401. Chen Kung H. and Thomas A. Shimerda (1981): “An Empyrical Analysis of Useful Financial Ratios"; Financial Management; Spring; pp.51-60. Cuervo Alvaro y Rivero Pedro (1986): “El Análisis Económico-Financiero de la Empresa”; Revista Española de Financiación y Contabilidad; Vol. XV; No. 46; enero-abril; 16-33. Dambolena Ismael and Khoury Sakis (1980): “Ratio Stability and Corporate Failure”; The Journal of Fianance; September; pp. 10171026. Dambolena Ismael G. and Joel M. Shulman (1988): “A primary Rule for Detecting Bankruptcy: Watch the Cash"; Financial Analysis Journal, (september - octuber) , pp. 74-78. Deakin Edward B. (1972): "A Discriminant Analysis of Predictors of Business Failure"; Journal of Accounting Research; Spring; pp. 167179. Dover Willy (1985): “La Auditoría en un Entorno Internacional”; Presidente de la Unión Européene des Experts Comptables Economiques et Financiers; Ponencia presentada en el Seminario de la Universidad Internacional Menedéz Pelayo; pp. 155-172. Edmister Robert O. (1972): "An Empirical Test of Financial Ratio. Analysis for Small Business Failure Prediction"; Journal of Financial and Quantitative Analysis; March; pp. 1477-1493. Fernández Ana Isabel (1986): “El Diagnóstico Financiero de la Empresa: Nuevas Tendencias en el Análisis”; Revista Española de Financiación y Contabilidad; Vol. XV, ; No. 49; enero-abril; 113-132. Foster G. (1986): “Financial Statement Analisys”; Prentice Hall Inc.USA Gabás Trigo Francisco y Apellániz Gómez Paloma (1994): “Capacidad Predictiva de los Componentes del Beneficio: Flujos de Tesorería y Ajustes Corto-Largo Plazo”; Revista Española de Financiación y Contabilidad; No. 78; enero-marzo; pp. 107-142. Garcia-Ayuso Covarsí Manuel y Jiménez Cardoso Sergio (1996): “Una Reflexión Crítica sobre el Concepto y Ambito del Análisis Financiero y los Objetivos de la Investigación en Materia de Análisis de la Información Financiera”, Revista Española de Financiación y Contabilidad; Vol. XXV, No. 87; abril-mayo. García-Ayuso Covarsí Manuel (1996): “Técnicas de Análisis Factorial Aplicadas al Análisis de la Información Financiera: Clasificaciones a prior, Hallazgos y Evidencia Empírica Española, ”; Vol. XXV, No. 86; enero-marzo; pp. 57-103. García Benau María Antonia y Garrido Miralles Pascual (1995): “Los Sistemas Contables y la Armonización Europea”; Revista Española de Financiación y Contabilidad; Vol. XXIV, No.85; oct-dic; pp. 991-1013. Gentry James A., Newbold Paul and Whitford David T. (1985): "Classifying Bankrupt Firms with Funds Flow Components", Journal of Accounting Research; Spring; pp. 146-160. Gentry James A., Newbold Paul and Whitford David T. (1985): “Predicting Bankrupcy: If Cash Flow's Not the Bottom Line, What is?", Financial Analysis Journal; september-octuber; pp. 47-56. Gombola Michael and J. Edward Ketz (1983): “A Note of Cash Flow and Classification Patterns of Financial Ratios"; Financial Management; Winter; pp. 55-65. Gombola Michael, Mark Haskings, Edward Ketz and David Williams (1987): “Cash Flow in Bankrupcy Prediction"; The Accounting Review: January; pp.105-114. Horrigan James (1965): “Some Empirical Bases of Financial Ratio Analysis"; The Accounting Review; July; pp. 558-568. ___________________________________________________________________Bibliografía 304 Horrigan James (1966) : "The Determitation of Long-Term Credit Standing with Financial Ratios"; Empirical Research in Accounting, Selected Studies, Supplement of Journal of Accounting Research; pp. 44-62. Jiménez Cardoso Sergio Manuel (1996): “Una Evaluación Crítica de la Investigación Empírica Desarrollada en Torno a la Solvencia Empresarial”; Revista Española de Financiación y Contabilidad; Vol. XXV, No. 87; abril-junio; pp. 459-479. Jhonson C. G. (1970): “Ratio Analysis and the Prediction of Firm Failure”; Journal of Finance; pp. 1166-1168. Jones Frederick (1987): “Current Techniques in Bankruptcy Prediction”; Journal of Accounting Literature; Vol. 6; pp. 131-164. Joy O. Maurice and John O. Tollefson (1975): “On the Finanacial Applications of Discriminat Analysis”; Journal of Financial and Quantitative Analysis; december; pp. 723-739. Keasey Kevin, Mc Guinness P. and Short H. (1990): “Multilogit Approach to Predicting Corporate Failure-Further Analysis and The Issue of Signal Consistency”; Journal of Management Sociaty; Vol. 18, No. 1; pp. 85-94. Keasey Kevin and Mc Guiness Paul (1990): “The Failure of U.K. Industrial Firms for the Period 1976-1984; Logistic Analysis and Entropy Measures”; Journal of Business Finance and Accounting; spring; pp. 119-135. Laffarga Joaquina y Pina Vicente (1995): “La Utilidad del Análisis Multivariante para Evaluar la Gestión Continuada de la Empresa”; Revista Española de Financiación y Contabilidad; Vol. XXIV, No. 84; abril-junio; pp. 727-748 Largay J. A. And Sticney C.P. (1980): Journal; p. 51-55 “!Cash Flows Ratio Analysis and the W.T. Grant Compañy Bankruptcy”; Financial Analysis Lev Baruch and Sunder Shyam (1979): “Methological Issues in the Use of Financial Ratios”; Journal of Accounting and Economics; pp. 187-210. Libby Robert (1975): “Accounting Ratios and The Prediction of Failure: Some Behavioral Evidence”; Journal of Accounting Research; spring; pp. 150-161. Lo W. Andrew (1986): “Logit vs. Discriminant Analysis: A Specification Test and Application to Corporate Bankruptcies”; Journal of Econometrics; pp. 151-178. López Gracia José (1995): “Aspectos Metodológicos de la Investigación Empírica en Contabilidad”; Revista Española de Financiación y Contabilidad; Vol. XXIV, No. 85; octubre-diciembre; pp. 1037-1059. Martínez Churiaque José Ignacio (1993): “Cuadro de Financiación y Recursos Procedentes de las Operaciones”; Revista Española de Financiación y Contabilidad; Vol. XXII; No. 76; julio-septiembre; pp. 649-681. Merton Robert (1990): “The Financial System and Economic Performance; Journal of Financial Services Research; pp. 263-300. Micha Bernard (1984): “Analysis of Business Failures in France”; Journal of Banking and Finance; pp. 281-291. Mora Enguíanos Araceli (1984): “Limitaciones Metodologicas de los Trabajos Empíricos sobre la Predicción del Fracaso Empresarial”; Revista Española de Financiación y Contabilidad; Vol. XXIII, No. 80; julio-septiembre; pp. 709-732. Mora Enguíanos Araceli (1994): “Los Modelos de Predicción del Fracaso Empresarial: Una Aplicación Empírica del Logit", Revista Española de Financiación y Contabilidad; Vol XXIII, No. 78; pp. 203-233. Mora Enguíanos Araceli (1995): “Utilidad de los Modelos de Predicción de la Crisis Empresarial”; Revista española de Financiación y Contabilidad; Vol. XXIV, No. 83; abril-junio; pp. 281-300. Moyer R.C. (1977): “ Forecasting Financial Failure: A Reexamination”; Financial Managment; pp.11-17 Niessen Herman (1985): “La Cuarta Directriz sobre las Cuentas Anuales de las Sociedades de Capital”; Jefe de la División de la Comisión Europea; Ponencia del Seminario de la Universidad Internacional Menéndez Pelayo; pp. 39-48. Ohlson James A. (1980): "Finanacial Ratios and the Probabilistic Prediction of Bankruptcy"; Journal of Accounting Research; Spring; pp. 109-131. Pascale Ricardo (1988): “A Multivariate Model to Predict Firm Financial Problems the Case of Uruguay”; Studies in Banking and Finance; Vol. 7; pp. 171-182. Pina Martínez Vicente y Lapeña Ansón José Angel (1995): “Factores Explicativos de la Rentabilidad Empresarial”; Revista Española de Financiación y Contabilidad; Vol XXIV, No. 82; enero-marzo; pp. 41-57. Pina Martínez Vicente y Lapeña Ansón José Angel (1994): “Contenido Informativo de la Información Económico-Financiera para Evaluar la Rentabilidad Empresarial; Revista Española de Financiación y Contabilidad; No. 78; enero-marzo; pp. 143-157. ___________________________________________________________________Bibliografía 305 Pina Martinez Vicente y Ansón L. José Angel (1995): “ Factores Explicativos de la Rentabilidad Empresarial”; Revista Española de Financiación y Contabilidad; Vol. XXIV, No. 82; enero-marzo; pp. 41-57. Pinches George, Mingo Kent and Caruthers Kent (1973): “The Stability of Financial Patterns Industrial Organization”; The Journal of Finance; pp. 389-396. Pinches George, Arthur Eubank, Kent Mingo and Kent Caruthers (1975) : “The Hierarchical Classification of Financial Ratios"; Journal of Business Research; October; pp. 295-310. Rees B. (1991): “Financial Analysis”; Prentice Hall Inc.; USA. Rodríguez Ariza L. , García Martínez F. y Martínez Róman L. ( 993): “Problema Terminológico en el Análisis Contable. Posibilidad de una Propuesta Normalizadora...”; Revista Española de Financiación y Contabilidad; Vol. XXII, No. 76; julio-septiembre; pp. 483-519. Rose Peter and Giroux Gary A. (1984): “Predicitng Corporate Bankruptcy: An Analytical and Empirical Evaluation"; Review of Business and Economic Research; Spring; pp.1-12. Short Daniel G. (1979): “The Impact of Price-Level Adjustment in the Context of Risk Assessment”; Journal of Accounting Research; Vol. 16; pp. 259-272. Swanson Eric and Tybout James ( 1988): “Industrial Bankrupcy Determinants in Argentina”; Studies in Banking and Finance; Vol 7; pp. 1-25. Taffler R. J. and H. Tisshaw (1977): “Going, Going, Going-Four Factors Wich Predict”; Accountancy; pp. 50. Taffler Richard (1984): “Empirical Models for The Monitoring of U.K. Corporations”; Journal of Banking and Finance; pp. 199-227. Takahashi Kichinosuke and Kurokawa Yukiharu (1984): “Corporate Bankruptcy Prediction in Japan”; Journal of Banking and Finance; Vol. 8.; pp. 230-247. Van Hemmen Almazor (1997): “Crisis Financiera de la Pyme en la Provincia de Barcelona: Análisis de Estados Contables de Suspensiones de Pagos iniciadas en el Período de 1993-1995”; UAB y Registro Mercantil de Barcelona; España. Vergés i Jaime Joaquim: “ Análisis del Funcionamiento Económico de las Empresas”; Departament d´Economia de l´Empresa”; UAB; España. Watts Ross and Zimmerman Jerold (1978): “Towards Positive Theory of the Determination of Accounting Standars"; The Accounting Review; January. Watts Ross and Zimmerman Jerold L. (1990): “Positive AccountingTheory: A ten Year Perspective”; The Accounting Review; january; pp. 131-153. Wilcox Jarrod (1973): “A Prediction of Business Failure Using Accounting Data”; Journal of Accounting Research; Selected Studies; Suplement Vol. 11; pp. 163-190. Yebra Cemborain Raúl Oscar (1991): “Análisis de Estados Financieros en Economías con Inflación ”; Revista Española de Financiación y Contabilidad; Vol. XX, No. 69; octubre.-diciembre; pp. 1018-1030. Zavgren Christine V. (1985): “Assessing the Vulnerability to Failure of American Industrial Firms: A Logistic Analysis"; Journal of Business, Finance and Accounting; Spring; pp. 19-45. Zmijewski Mark (1984): “Methological Issues Realted to the Estimation of Financial Distress Prediction Models"; Supplement to The Journal of Accounting Research; pp. 59-82. LIBROS Altman Edward (1983): “Corporate Fianancial Distress: a Complate Guide to Predicting, Avoiding and Dealing with Bankruptcy”; Edit. John Wiley and Sons. Altman Edward (1993): “Corporate Fianancial Distress and Banckruptcy: a Complate Guide to Predicting and Avoiding Distress and Profiting from Bankruptcy”; Edit. John Wiley and Sons; Second Edition. Altman Edward (1971): “Corporate Bankruptcy in America”; Edit. Lexington, MA: Lexington Books. Amat i Salas Oriol (1996): "Contabilidad Creativa"; Edit. Gestión 2000. España. Batista Foguet Joan y Martínez Arias Rosario (1989): “ Análisis Multivariable: Análisis de Componentes Principales”; Edit. Hispano Europea; Barcelona. ___________________________________________________________________Bibliografía 306 Bernstein Leopold A. (1999): "Financial Statement Analisys Theory". Edit. Mc Graw Hill Inc. USA. Bizquerra R. Alzina (1989): "Introducción Conceptual al Análisis Multivariable"; Tomo I y II, Edit. PPU, Barcelona. Brealey Richards and Myers Brealey (1999): "Principles of Corporate Finance". Edit. Mc Graw Hill Inc. USA. Brealey Richards, Myers Brealey and Marcus Alan J. (1998): "Fundamentals of Corporate Finance". Edit. Mc Graw Hill. USA. Bueno Campos Eduardo (1983): "Autofinanciación y Tesorería en la Empresa: El Cash Flow". Edic. Piramide. España, 2a edición. Carmona Salvador y Carrasco Francisco (1994): “Estados Contables; Edit. Arael; España Copeland Thomas E. and Weston S. Fred. (2000): "Financial Theory and Corporate Policy"; Edit. Addison-Wesley. Vol I, II. Massachusetts. Cuadras C.M (1991): "Metodos de Análisis Multivariable ", Edit Euniber, Barcelona. Donleavy Gabriel D. (1994): “Cash Flow Accounting. International Usues and Abuses”; Edit. London and New York. Friedmand Milton (1980): “Free to Choose”; Edit. Printer-Brinder: Braceland Brothers, Inc., U.S.A.. Gabas Trigo Francisco.(1990): "Técnicas Actuales de Análisis Contable. Evaluación de la Solvencia Empresarial"; Ministerio de Economía y Hacienda, España. Gitman Lawrence J. (1996): “Administración Financiera Básica”; Edit. Harla; México. Gremillet Alain (1989): " Los ratios y su Utilización", Edit. Pirámide, Madrid. Griffiths F. (1986): “Creative Accounting”; England. Hair J., Anderson R., Tatham R. And Black W. ( 2000): “Multivariate Data Analysis”; Prentice Hall International, Inc. USA. Hartley W.F.C.: "Cash Flow: su planificación y su control". Edit. Deusto. España. Hanglin Francis Peter (1977): "¿Qué es el Cash Flow?"; Edit. Index, Madrid. Instituto Mexicano de Contadores Públicos; Canadian Institute of Chartered Accountans y Financial Accounting Standars Board (1996): “Información Financiera en Norteamerica”; Edit. Estudio Conjunto México, Canada y Estados Unidos. Kendall M. (1987): "Multivariate Analysis"; Edit. Griffin, Londres. Lauzel P. y Libert A.: "De los Ratios al Cuadro de Mando"; Edit. Ariel; España. Martínez Cerezo Antonio (1978): "Como Estudia la Banca a las Empresas"; Edit. Pirámide. España, 3a edición. Meunier Henri y Boulmer Piere (1987): "La tesorería en las Empresas". Edit. Bordas. Paris. Moreno Fernandez Joaquín A. (1998): “La Administración Finaciera”; Vol. I, II; Edit. Instituto Mexicano de Contadores Públicos. México. Ortega Martínez E. (1984): "Manual de Investigación Comercial"; Edit. Pirámide, Madrid. Pérez Reguera Alfonso (1995): “Aplicación Práctica del Boletín B-10”; IMCP; México. Poblano Herrera Maria Magdalena (1994): “ Contaduría Internacional”; Edit. IMCP; México. Research Report 38: "Flujo de Caja y el Control de la Dirección". Cuadernos de Gestión. Edit. N.A.A. R Salvador Miquel y Bingé Enrique (1999): “Investigación de Mercados”; Edit. Mc. Graw Hill, España. Stevens Mark (1982): “The Accounting Wars”; Forbes Inc. USA. Smith V.S. (1984): "Guia del Capital Circulante"; Edit. Deusto. España. Urias Valiente Jesus (1991): "Analisis de Estados Financieros". Edit. McGraw Hill. España. Westwick C.A. (1987): "Manual para la Aplicación de los Ratios de Gestión”; Edit Deusto, España. ___________________________________________________________________Bibliografía 307 TESIS Bukovinsky David (1993): "Cash Flow and Cash Position Measures in the Prediction of Business Failure: an Empirical Study", Tesis de la Universidad de Kentucky; pp. 205. Lizarraga Dallo Fermín (1996): “Modelos Multivariantes de Previsión del Fracaso Empresarial: Una Aplicación a la Realidad de la Información Contable Española”; Tesis Doctoral. Universidad Pública de Navarra. pp. 432.