(Discurso presidencial del Profesor F. Y. Edgeworth, pronunciado ante la Royal Statistical Society el 17 de diciembre de 1912)
La mayoría de aquellos a quienes indignamente sucedo han distinguido su entrada en la presidencia aplicando la estadística a algunos problemas de indudable interés práctico. Así es como Giffen, en 1883, expuso el progreso de las clases trabajadoras durante el pasado medio siglo, Caird habló sobre el estado de la agricultura, Goschen sobre la distribución de la riqueza o Fowler sobre la financiación local. Y, por no multiplicar los ejemplos dignos de admiración, mi inmediato predecesor aplicó al problema de la pobreza las estadísticas que él mismo había ayudado a reunir como miembro de la Comisión Real para la ley de Pobres (Royal Comission on the Poor Law). Todos estos ejemplos colman el propósito de nuestra asociación tal y como fue instituida por sus fundadores: la averiguación y puesta en relación de aquellos «hechos que se calculan para ilustrar el estado actual y el futuro de la sociedad». Creo que también han servido a este propósito quienes, con Newmarch, han disfrutado explorando e informando sobre los métodos de la ciencia estadística. Estos son los únicos precedentes que trato de seguir. A gran distancia. Porque mientras que Newmarch, en su lección inaugural sobre el progreso y la condición presente de la investigación estadística (1869) trata sobre dieciocho «campos de la investigación estadística a los que se debe prestar pronta atención en este país», yo me limito al decimoctavo y último apartado: «la investigación de las matemáticas y la lógica de la evidencia estadística»; es decir, «la recta construcción y uso de los porcentajes, la deducción de las probabilidades». La supuesta investigación que refiere así Newmarch, tiene una formulación mucho más clara en el Dr. Guy, cuando, refiriéndose en su lección inaugural, algunos años después, a los «principios del método numérico de la lógica de los grandes números», lamenta «el tratamiento hasta ahora imperfecto del principio envuelto en la reproducción conocida y reiterada año a año de números parecidos. No se ha hecho ningún intento serio, dice, de enfrentarnos a este asunto en toda su dimensión y a la luz de la verdad. El reproche del Dr. Guy se ha superado a la larga en nuestros días gracias a algunas de las contribuciones más recientes al Journal, particularmente las del Sr. Bowley y el Sr. Yule. Pero todavía hay campo para algunas observaciones in pari materiâ2.
[Sección omitida]
1. El uso de las Probabilidades en estadísticas relacionadas con asuntos humanos puede introducirse adecuadamente mediante el uso de la teoría en física. Del mismo modo que no hay un tipo de aritmética para los fenómenos sociales y otra para los fenómenos físicos, el principio de la Probabilidad es esencialmente el mismo en ambas áreas. Ese principio puede distinguirse y valorarse mejor considerando sus manifestaciones en el campo más abstracto y mejor acreditado de la ciencia. No sin razón Quetelet escribe a Farr3 sobre la dirección del cuarto Congreso Internacional: «insiste con fuerza en que en este país el elemento científico de la estadística debe desarrollarse en todos los campos para mantener su temprana alianza con las ciencias puras a través del Cálculo de Probabilidades ». La conexión entre la Probabilidad y las ciencias puras ha llegado a ser mucho más estrecha desde los días de Farr y Quetelet. En todo el campo de la Naturaleza en la que la materia toma forma de gas, las leyes físicas se presentan como un promedio resultante de muchas masas minúsculas precipitadas aquí y allá al azar. De este modo, la presión de un gas comprimido, por ejemplo el aire, contra la superficie interior de la vasija que lo contiene, se mide por la fuerza de los golpecitos dados por las moléculas del gas al precipitarse contra la barrera resistente. La mezcla de dos gases, como producto de la desaparición de una barrera entre ellos se explica del mismo modo como una consecuencia de movimientos al azar y colisiones. Siguiendo las autorizadas palabras de Maxwell, «la constancia y uniformidad de las propiedades del medio gaseoso es el resultado directo de la inimaginable regularidad existente en el movimiento de agitación de sus moléculas». Los filósofos antiguos que buscaron el origen de las cosas en el caos atómico no estaban tan errados como parecían sugerir los defensores del sentido común. La agitación azarosa de los átomos chocando juega un importante papel en la naturaleza.
«Innumerabilibus plagis vexata per aevum»4
Pero tampoco nos importan sólo los átomos tal y como los entiende la química moderna, como cuerpos comparativamente grandes que por su combinación forman las aún más grandes moléculas, de aire y agua, o de sustancias menos corrientes. También los cientos de partículas mucho más pequeñas o corpúsculos en los que presumiblemente pueda descomponerse el átomo son susceptibles de tratamiento estadístico. El vuelo errático de las llamadas partículas «alfa» de las sustancias «radio-activas» presenta alguna analogía con las defunciones en una población sujeta a una mortalidad constante.
En resumen, la Estadística reina y se deleita en el corazón de la física. Las «uniformidades de la probabilidad» se sitúan, según dice el Dr. Venn5 en su tratado magistral sobre la lógica material moderna, como una de las seis clases de uniformidad. Pero la más reciente ciencia sugiere que está destinada a absorber muchas de las otras: que las secuencias que ahora nos parecen leyes de la naturaleza, co-existencias que parecen hechos definitivos, pueden terminar siendo el resultado promedio de los movimientos del invisible mundo de los átomos y los corpúsculos.
Tampoco debe suponerse que, a causa del frecuentemente elevado número de elementos que se introduce en el promedio en esta clase de estadísticas, la «regularidad promedio» difiere no sólo en el grado sino también en la calidad respecto a las experiencias de quienes practican la estadística. Es verdad que el multitudinario eco de trillones de moléculas contra las paredes de una vasija se presenta a los sentidos como un único y simple hecho-el fenómeno de la presión-. Pero la teoría sugiere que si tuviéramos un microscopio suficientemente poderoso para observar los movimientos en detalle, la irregularidad característica de la estadística aparecería. Un experimento confirma esta hipótesis. M. Perrin6 ha dispuesto gránulos (de pasta de sellado u otra sustancia apropiada) tan pequeños que flotando en un líquido no son afectados uniformemente por el impacto de otras moléculas. Golpeados en diferentes lugares con diversos grados de fuerza, se dirigen aquí y allá con diversas velocidades. Aunque pequeños para verse afectados de este modo, los gránulos son suficientemente grandes como para verlos comportarse como gigantescas moléculas a través del microscopio. M. Perrin ilustra así felizmente la acción de moléculas invisibles a través de gránulos visibles como si se tratara del bamboleo de un barco lejano que debido a las olas no se ve en la distancia.
Además, en el mundo interior de los corpúsculos se ha probado la posibilidad de observar y registrar el número de partículas «alfa» que se descargan por minuto (o en periodos más cortos) de una sustancia radioactiva. Los registros llevados a cabo por el Dr. Geiger7 muestran una variación en el número de salidas de un momento a otro comparable con la variación de año en año del número de muertes ocurridas en una población uniforme. Estas estadísticas físicas tienen un claro carácter humano.
De este modo, la principal característica de la probabilidad estadística, es decir, la constancia colectiva combinada con la irregularidad individual-observaciones alrededor de la media, hacia la que convergense consigue notablemente en este ámbito de la física. Encontramos aquí también las dificultades que asaltan la relación de un promedio con sus elementos. Hay en primer lugar una cuestión semejante a las controversias sobre el libre albedrío, en las que han participado incluso autores sobre estadística. ¿Cómo podemos reconciliar el hecho de que se trate a los elementos individuales como fortuitos mientras que pensamos que cualquier comportamiento particular obedece a la ley de la causalidad? Como en el caso del movimiento molecular, ¿todo movimiento único está determinado por las estrictas reglas de la física matemática? Otra vez, encontramos la antinomia señalada por Buckle entre la aparente libertad de lo individual y la constancia colectiva de la estadística. La regularidad del total no es simplemente explicable porque las partes obedezcan la regla. Un distinguido autor sobre la lógica de la Probabilidad, Von Kries8, parece incluso negar que las verdades que forman nuestra ciencia puedan obtenerse empíricamente. No le seguiré en su intento de describir lo indescriptible. Más bien, asentiré el dictum de un gran escritor matemático de nuestra materia, Poincaré: «Hay aquí algo misterioso inaccesible para un matemático».
2. El prestigio de la ciencia física se encuentra unido no sólo al principio fundamental de la Probabilidad sino también a la ley o teoría más elevada que se construye sobre ella. La ley que voy a considerar es comparable respecto a su precisión cuantitativa con las leyes de la física, por ejemplo la de gravitación. Igual que esa ley nos muestra que la distancia a la que un cuerpo cae (en el vacío y partiendo de reposo) se incrementa proporcionalmente al cuadrado del tiempo que emplea en caer o, en otras palabras, que el tiempo se incrementa proporcionalmente a la raíz cuadrada de la distancia, del mismo modo, nuestra ley, la ley de la frecuencia normal, como podemos llamarla, nos informa de que la precisión de un promedio se incrementa proporcionalmente a la raíz cuadrada del número de observaciones (independientes) promediadas. Existe, sin embargo, una importante diferencia, aunque quizás en el fondo lo sea sólo de grado, entre la ley física y la ley del azar. La última retiene el carácter de la Probabilidad y se cumple sólo en el caso del promedio. Si mostramos, por ejemplo, mediante la posición de una «manecilla», como las de la esfera de una báscula, la relación entre la (raíz cuadrada de la) distancia y el tiempo, a través de varios experimentos con la caída de cuerpos, esperaremos que el índice permanezca constantemente en el mismo punto de la esfera, o como mucho muestre sólo pequeñas oscilaciones debidas a las imperfecciones de la observación. Pero las oscilaciones, que son fortuitas para la física común, son esenciales en Probabilidad. Sólo podemos esperar un índice posado sobre un punto.
La alusión a los errores en las observaciones físicas no es secundaria para nuestro propósito. No sin razón se designa a la ley que tratamos de considerar como ley del error. Porque los errores de observación presentan un importante ejemplo, aunque sólo singular, de la ley que estamos tratando. Y, además, la teoría de los errores de observación es una de las principales lecciones que el estadístico puede obtener de la práctica de los físicos. Pero, como ya traté con extensión sobre el tema en un número anterior de nuestro Journal9, ahora me limitaré a las ilustraciones proporcionadas por la física molecular.
Es una circunstancia de crucial interés para el estadístico matemático que la ley que constituye su principal herramienta para tratar estadísticas del mundo observable se acredite por su total cumplimiento en el mundo extrasensorial que investiga la nueva física. Consideremos, por ejemplo, los millones y trillones de moléculas de aire que dentro de este salón se mueven aquí y a allá en cualquier dirección y a diversas velocidades. Así como el experto en ferrocarriles puede clasificar los trenes de acuerdo con su velocidad-expreso, regular o lento-y establece el número de cada clase en una línea, las moléculas se dividen en diferentes clases, por la teoría normal de la frecuencia, de acuerdo a sus velocidades y el número proporcional de cada clase asignado. La más común y típica es la que se caracteriza por una velocidad de alrededor de un cuarto de milla por segundo. La frecuencia o probabilidad de que una molécula se encuentre en reposo es despreciable. Si mis cálculos no fallan, sólo una molécula entre dos millones tiene una velocidad de un milla por segundo. Y del mismo modo ocurre para las diferentes velocidades.
Si Lucrecio hubiera estado imbuido de la nueva filosofía atómica, se hubiera regocijado al ver un ejemplo tan espléndido de orden como el salido de la colisión promiscua de un caos molecular. Pero hubiera encontrado los misterios de la ciencia moderna incluso más difíciles que las recónditas doctrinas de los filósofos griegos «Graiorum obscura reperta»10, para explicarlo en verso latino. Incluso la prosa inglesa encuentra dificultades para traducir la teoría matemática formulada en su lengua materna de símbolos. Sólo necesitamos traer aquí sus principales características. Se recordará que la ley normal de frecuencias en su expresión más simple se representa por una curva simétrica cuya forma se asemeja a la de un arco cuando se tensa. Si a lo largo de la cuerda colocada horizontalmente se miden desde el punto central (números) de intervalos o grados que correspondan a diversas desviaciones de la media, la distancia correspondiente en cada grado entre el arco y la cuerda (la ordenada o pequeña franja correspondiente a cada distancia respecto del eje horizontal) representa la frecuencia con la que cada grado particular de desviación es posible que ocurra. Estas frecuencias disminuyen rápidamente en la medida en que nos movemos del máximo, en el centro, hasta que se desvanecen finalmente en nada. La metáfora de la mortalidad es efectivamente apropiada en aquel grupo de población con edades centrales, digamos el número de personas que tienen cincuenta años, que disminuirían con una creciente tasa de mortalidad en años sucesivos. Pero la analogía es imperfecta si tenemos en cuenta que el incremento de la tasa de mortalidad es más que proporcional al incremento de la edad por encima del momento central. Por el contrario, la característica de nuestra curva es que la disminución (en porcentaje) de la frecuencia (representada por la ordenada de la curva) es exactamente proporcional a la distancia desde el centro.
Para mostrar el cumplimiento de esta ley en el caos molecular permítaseme formular un modelo para introducir algunas alteraciones de las dimensiones11. Primero, excluyamos la tercera dimensión y consideremos sólo movimientos de moléculas sobre un plano. Asimismo, dejemos multiplicar sus dimensiones por cien millones, de modo que los cuerpos aumentados puedan ser más o menos del tamaño de una bola de billar. Dejemos además, por conveniencia de la formulación, que todas sean de la misma forma; todas bolas iguales y perfectamente elásticas. Tenemos ahora que pensar en trillones de tales bolas en movimiento aquí y allá con choques continuos sobre una mesa de billar inmensa perfectamente lisa y con protecciones perfectamente elásticas. Bajo tales condiciones las velocidades de las bolas de billar se distribuirían de acuerdo a la ley normal de frecuencias.
El cumplimiento de la ley puede comprenderse más claramente si consideramos que la velocidad de una bola moviéndose en cualquier dirección, digamos del suroeste al noreste, puede resolverse en dos velocidades compuestas, una en dirección sur-norte y otra en dirección oeste-este. De este modo, si los lados de nuestra mesa de billar (rectangular) se ubican en dirección este a oeste y sur a norte (paralela a las líneas de latitud y longitud), entonces la velocidad de cualquier bola moviéndose en cualquier dirección, es decir, la distancia que recorrería sin impedimento en un segundo (u otra unidad de tiempo), podría supuestamente proyectarse sobre el lado este de la tabla. Las proyecciones deberían entenderse como sombras proyectadas por el sol horizontal del oeste sobre una pantalla dispuesta adecuadamente a lo largo del lado este de la tabla. Son estas sombras las que deben satisfacer de manera directa y evidente nuestra ley. Para ello, consideremos el conjunto de bolas que comienzan a moverse en el mismo instante desde un conjunto de puntos a lo largo de la línea horizontal (de cualquier longitud en cualquier lugar de la mesa). Y supongamos-se trata ciertamente de mucho suponer-que estas bolas pueden moverse durante un segundo sin chocar unas con otras o con cualquiera otras. O, al menos, hagamos posible representar sobre la pantalla el conjunto correspondiente de sombras moviéndose, por ejemplo en dirección norte, desde cierto punto de partida. Las velocidades de estas sombras se distribuirán de manera acorde a la ley normal. Si cada elemento se para en el punto que había alcanzado transcurrido un segundo de tiempo desde el inicio, el conjunto así presentado tomará la forma de nuestro arco normal. Coincidiendo con el punto más alto estará el caso de ocurrencia más frecuente, es decir, aquel en el que no se registra movimiento, estando aún parados estos casos en el punto de partida. Juicios similares son también ciertos de las velocidades dadas en una dirección perpendicular a la que se ha considerado, es decir, sobre una pantalla emplazada a lo largo del lado norte de la mesa12.
Esta descripción puede parecer incoherente respecto a lo que antes hemos señalado acerca de que la velocidad más común o típica de las moléculas (de aire, dentro de una habitación a temperatura normal) era de alrededor de un cuarto de milla por segundo. Pero sólo lo es aparentemente. La referencia que hicimos antes sobre las velocidades reales en cualquier dirección se convierte aquí en velocidades en una dirección concreta. Si una fuente o una manguera dispuesta en todas direcciones arroja agua a diversas distancias («al mismo tiempo», deberíamos decir para hacer perfecto al ejemplo) sobre una césped liso, no cometemos una incoherencia al decir que la porción de césped más cercana al chorro recibe el mayor número de gotas por pulgada cuadrada; pero aquel anillo, entre los formados por los círculos trazados a igual distancia unos de otros con el origen como centro, que recibe la mayor parte de las gotas se sitúa a cierta distancia del centro. Las pulgadas cuadradas contenidas en los anillos más cercanos al centro reciben menos, en gran medida por la misma razón que una oveja negra come menos que las blancas-porque hay menos de las unas que de las otras-. La proposición así interpretada sería verdadera incluso cuando la oveja negra tuviera en realidad mayor apetito.
¿Por qué, podríamos preguntarnos, se cumple esta bella teoría en el caso de las moléculas chocando? El estadístico naturalmente busca explicación en las causas con las que está familiarizado. Estas causas se han descrito frecuentemente en nuestro Journal y sólo necesitan mencionarse resumidamente ahora. La condición para que un conjunto de magnitudes deban obedecer a la ley normal es, en suma, que cada una debe ser una combinación simple de numerosos elementos que fluctúan independientemente. Por combinación simple debe entenderse especialmente la suma o el promedio simple (la media aritmética), o el promedio «ponderado» o la «suma ponderada», como podemos denominar al numerador de una media ponderada. Por ejemplo, la suma de 25 dígitos tomados al azar y multiplicados cada uno por 0,2 es una suma ponderada que, como se muestra en el Apéndice13, cumple bastante bien la ley normal.
La bondad de la ponderación concreta que acabamos de mostrar es que guarda la dispersión o difusión de las magnitudes compuestas del mismo modo que ocurre cuando el número de componentes es diferente y la ponderación se altera de forma correspondiente. Por tanto, la suma de 16 dígitos divididos por cuatro, como se muestra en el Apéndice14, presenta la misma dispersión que la suma de 25 dígitos divididos por cinco. Generalmente, si se necesita sumar dos cantidades estadísticas que tienen la misma dispersión en el entendido de que la dispersión de la cantidad compuesta ha de ser la misma que la de sus componentes, es preferible obtener una suma ponderada de los dos componentes con factores, de modo que las sumas de sus cuadrados sea igual a la unidad. Cualquier cantidad de tales factores puede obtenerse de las bien conocidas tablas (trigonométricas); por ejemplo, 0,5 y 0,86602.
Este principio puede emplearse para ilustrar la distribución de velocidades en un caos molecular mediante una distribución caprichosa de una propiedad como la que sigue: Imaginemos una comunidad de un millón de personas, en la que cada uno comienza con una porción de oro y una de plata, distribuidas de acuerdo a algún principio aleatorio. Esta distribución inicial se transforma entonces mediante una serie de operaciones-de negocio o juego-de un tipo concreto. Supongamos que un ciudadano A, que tiene inicialmente α de oro y a de plata entra en trato con el ciudadano B, que tiene b de oro y β de plata. El resultado de la operación será tal que A tendrá una porción de oro que es una «suma ponderada » de las cuatro cantidades (a, α, b y β), calculando las ponderaciones de la manera que se describe más concretamente en el Apéndice, mediante la utilización de pares de factores tales como 0,5 y 0,866...arriba señalados. Se efectúan operaciones similares para otros pares de ciudadanos. De manera análoga, A, tras su transacción con B, trata con otro ciudadano, por ejemplo M-tanto si M retiene sus porciones iniciales como si éste ha realizado tratos con alguien, por ejemplo, N-. El proceso es tan dinámico que pronto nadie retiene sus porciones originales. Tras cientos de operaciones la parte de oro de cada cuál, como la de plata, será la suma ponderada de algún centenar de elementos distribuidos caprichosamente, siendo la ponderación tal que mantiene la dispersión constante15.
La interpretación de esta parábola no es difícil de encontrar. Cada par de letras, una latina y otra griega, representa las dos velocidades-en dirección surnorte y en dirección oeste-esteen las que la velocidad de una molécula concreta, como las representadas por cada una de nuestras bolas de billar, puede descomponerse. Las velocidades de una segunda bola, con la que la primera colisiona, son representadas asimismo por b y β. El resultado de la colisión dependerá no sólo de estas velocidades sino también de la manera en que se encuentran, si chocan de frente o sólo se rozan. Una vez conocidas las velocidades, este dato se obtendrá cuando sepamos la dirección de la línea que empalma los centros. Supongamos, por ejemplo, que la línea hace un ángulo de 30° con la horizontal de este a oeste; en este caso, los factores mencionados, a saber, 0,5 y 0,866...serían apropiados. Por supuesto, podría darse cualquier variedad de factores (posibles) con el curso de colisiones de número indefinido.
Pero debe remarcarse que estos factores no constituyen tal cantidad de elementos independientes, debido a que, a través de las velocidades iniciales, todos los factores subsiguientes (o inclinaciones de líneas que unen centros en el momento de contacto) son teóricamente dados de forma implícita. Si comenzamos con un trillón de moléculas, sólo tenemos dos (o, en tres dimensiones, tres) trillones de velocidades iniciales independientes. Las velocidades tras un cuatrillón de colisiones no cumplirían perfectamente las condiciones de la ley normal. Habría cierta interdependencia entre las causas que contribuyen en la distribución. Se habría cumplido, estrictamente hablando, no tanto la ley normal de frecuencias, como la más comprensiva «ley de los grandes números», que ha sido descrita en este Journal. Pero creo que ello sería mucho antes de que la diferencia hubiera sido advertida, igual que el hecho, indudablemente incoherente con la ley normal perfecta, de que ninguna molécula pueda asumir más que la cantidad total de energía de la fuerza del sistema (¡!), constituyéndose por si misma prácticamente en un aviso. Con estas pequeñas reservas, se deduce de la teoría de Probabilidades que las velocidades en un caos molecular se distribuirán de acuerdo a la ley normal de frecuencia.
La simplicidad de esta deducción contrasta de manera algo sospechosa con las estupendas demostraciones ofrecidas en los tratados sobre la Teoría Cinética de Gases. Tampoco es que aleguemos para las Probabilidades algo más que su papel de contrafuerte en una construcción que debe sostenerse principalmente sobre bases mecánicas. Además, cuando consideramos las colosales subestructuras empleadas por los físicos matemáticos, se nos ocurre que los propios contrafuertes pueden descansar sobre esa base; es decir, que los principios de la Probabilidad deben algo a los principios de la mecánica que dirigen el movimiento de las moléculas, que sostienen el fenómeno del azar.
Pero sea cual sea el fundamento último o la piedra angular, no puede haber duda sobre la estabilidad y esplendor del edificio. Es indudable que la principal ley de probabilidades obtiene una validez añadida y consideración de su conexión con la física molecular. Con algo de la confianza inspirada por la ciencia física, volveremos a las aplicaciones de la ley sobre estadísticas relacionadas con la sociedad.
3.
[Sección omitida]
El interés de la muestra se confirma mediante su congruencia con una segunda muestra, cuando ambas son comparables, tomada, según entiendo, con un propósito más directo centrado en la Seguridad. La necesidad de tal método para el propósito que tenemos es fuertemente sugerida por cierto número de cuestiones, unas cincuenta, como la ocupación del padre, el gasto en comida, combustible, ropas y otros, número de días perdidos por enfermedad, etc. Sería caro y probablemente inválido preguntar por todas estas cuestiones en un censo general.
El método del muestreo bajo la designación de «sistema representativo» parece ser una institución establecida en Noruega. El Dr. Kiär, distinguido director de la Oficina Estadística en Christiania16 escribe: «Este método ha ofrecido, según nuestra experiencia, muy buenos resultados y, de este modo, hemos conseguido una información estadística valiosa que hubiera sido imposible obtener de otra manera». Un dispositivo de seguridad importante consiste en revisar o, más exactamente, «controlar» los resultados de la muestra mediante las estadísticas completas de algunas de las cabeceras que admite este test.
En conjunto, estas estadísticas parecen sostener ampliamente el caso para la muestra, tal y como mantuvo de manera competente el Dr. Kiär en la reunión del Quinto Instituto Internacional de Estadística en Berna. Sus oponentes sólo pudieron objetar que la práctica era muy peligrosa-como añadió el Dr. Mayr, especialmente a la vista de la propensión de los matemáticos a calcular en vez de observar-. El peligro en relación con la maquinaria matemática debe admitirse francamente. Pero debería contraponerse no sólo el ahorro de dinero sino también la mayor precisión que puede alcanzarse cuando se interpela con preguntas bien preparadas a unos pocos seleccionados y no a la población general. El número limitado puede ser «mejor que el todo», como dijo el Profesor Schmoller, citando a Hesíodo.
El peligro de utilizar muestras de acuerdo con reglas matemáticas es particularmente grande cuando las muestras no son, como en los ejemplos precedentes, seleccionadas por procesos (más o menos) aleatorios a partir de un conjunto dado de estadísticas, sino que son las propias muestras las que se consideran estadísticas, como ejemplares de un conjunto indefinidamente más grande al que las estadísticas pertenecen, una clase lógica más que una multitud concreta. Por ejemplo, supongamos que la materia que manejamos es la proporción de hombres casados respecto a los no casados en un cierto período de edad. Una cosa es tomar la cifra obtenida por una muestra cuidadosamente fijada como representativa de la verdadera proporción dada en un censo (actual o potencial); otra cosa es tomar las cifras del censo como representativas de la verdadera proporción dada por el censo (actual o potencial); y otra cosa es tomar las cifras del censo como representativas de la relación en diferentes tiempos y lugares. No sólo encontramos aquí el azar propio del salto inductivo entre lo conocido y lo desconocido, sino que tampoco tenemos la misma seguridad que se haya cumplido las condiciones de un buen muestreo. Incluso en las urnas mejor construidas, como el señor Yule nos ha recordado, las bolas pueden no comportarse con perfecta aleatoriedad. Las de cierto color pueden brillar más, de modo que sean evadidas por la mano del agente. Muy frecuentemente, las bolas que representan fenómenos concretos pueden estar juntas, de modo que el número de causas independientes, el verdadero n de la fórmula normal, no es lo que parece, no es simplemente el número de bolas. Negar esta consideración ha atrofiado muchos cálculos elaborados de probabilidad. Se han escrito libros para recomendar el uso de la fórmula de Poison en estadísticas médicas17. Pero los casos observados en hospitales no pueden tratarse, en general, como bolas escogidas aleatoriamente y de forma independiente de una urna con una proporción fija (o incluso fluctuante) de bolas de diversas clases. Hay grandes causas comunes que afectan a cifras considerables de pacientes; por ejemplo, el clima en diferentes periodos, o la circunstancia, que puede no aparecer en las estadísticas, de que el carácter de una epidemia (sea leve o grave) sea capaz de afectar a grandes grupos de pacientes de forma idéntica.
Tomo estas objeciones de Von Kries, uno de los autores sobre Probabilidad que podría ser comparado con la histórica escuela de economistas críticos de las autoridades clásicas. Ellos no dudan que se ha llevado a cabo un trabajo útil; y también agradable, en la medida en que va acompañado de un sentido de superioridad sobre los progenitores intelectuales. Pero la revisión de los inspirados originales puede ser llevada demasiado lejos fácilmente. Pecando de «platónico», es a veces preferible al sentido común de los comentaristas. En el asunto anterior, la condena a las autoridades clásicas debe suavizarse por tres circunstancias atenuantes.
Primero, las condiciones requeridas para la aplicación de la fórmula de Laplace, o la fórmula más general de Poisson (para comprobar el significado de las diferencias en las proporciones) se cumplen con mayor generalidad de lo que los críticos suponen. El cumplimiento de las condiciones no está, de ninguna manera, confinado a la instancia comúnmente admitida: la proporción de los sexos al nacimiento. En varias categorías importantes de estadísticas relacionadas con la mortalidad, las condiciones parecen ser satisfechas adecuadamente. Es excesivo decir que en la mayoría de las estadísticas pertenecientes a fenómenos sociales, el concepto de puro azar es apropiado, teniendo en cuenta que el número de observaciones con el que estamos trabajando no es muy grande (en cuanto a la significación cuya condición trata el admirable artículo del Profesor Bortkevitch sobre las Aplicaciones de la Probabilidad a la Estadística, en la Encyclopädie der Mathematischen Wissenschaften). El Dr. J. H. Peek18, de Overveen, en Holanda, merece una mención especial al haber establecido empíricamente la amplia aplicabilidad del urnen-schema, la analogía entre la fluctuación de estadísticas concretas y las de las bolas extraídas al azar de una urna ideal. El Dr. Peek ha observado este carácter de puro azar en las tasas de mortalidad (en series de diez años) de la población general a determinadas edades, y para otras categorías definidas incluso de forma menos estrecha. Supongamos que en vez de considerar que el número de muertes varía de año en año, el autor ha considerado la variación de las cantidades de dinero pagadas al morir (una suma fija pagable en cada muerte); evidentemente la comparación de las desviaciones calculadas y observadas de los pagos con respecto a su valor podría haberse empleado igualmente para verificar la validez del urnen-schema. Esta es, entiendo, la relevancia de ciertas estadísticas presentadas en la comunicación del Dr. Peek «Sobre la Aplicación de la Probabilidad», leída en el Congreso de Matemáticos, que tuvo lugar en Cambridge el pasado agosto. La correspondencia entre los resultados de su primer método (inferencia del urnen schema) y la segunda determinación más empírica de la fluctuación en cuestión, es muy convincente.
Haciendo una valoración desde mi propia experiencia en este asunto, en parte recogida en el Jorunal de 188519-experiencia mucho menos extensa que la del Dr. Peek-, debo decir que él tuvo bastante fortuna en sus ejemplos. Trabajando con las tasas de mortalidad inglesas (posiblemente menos homogéneas que las holandesas?), yo sólo conseguí verificar el carácter de puro azar-el urnen schema-para categorías mucho más estrechas, muertes de personas a la misma edad y con la misma ocupación.
Segundo, el hecho empírico que acaba de percibirse se corrobora con la teoría; la importante teoría del Profesor Bortkevitch según la cual las estadísticas relacionadas con eventos poco frecuentes (o cuya probabilidad es una fracción muy pequeña) pueden fluctuar en una conformidad casi perfecta con el esquema de una urna ideal. La teoría en cuestión ha sido discutida de nuevo recientemente por el Dr. Mortara20, Profesor de Estadística en Messina, y él ha añadido algunas nuevas y llamativas verificaciones empíricas de la teoría. Algunos de sus ejemplares no podrían haber sido obtenidos en este país, tales como matrimonios entre tías y sobrinos. El evento es realmente raro en Italia, pero no es desconocido y ha sido registrado-alrededor de dos matrimonios como esos cada año en Sicilia, dos en tres años en Lombardía. Las estadísticas cumplen la notable precisión de la ley de los números pequeños del Profesor Bortkevitch.
Tercero, aunque el urnen-schema ni se cumple de hecho, ni se espera en teoría, esta imperfección no es fatal para el uso de la ley normal como ayuda a la inducción. Dado que el grado de imperfección-el «coeficiente de divergencia »21 (del tipo normal), en la frase de un autor que encabeza la materia-es comprobable y constante, la ley normal todavía se cumple, como se muestra en el volumen del aniversario de nuestra Sociedad. El razonamiento según el cual las diferencias significativas en estadística se distinguen de las fluctuaciones fortuitas es substancialmente el mismo.
Todavía, la importancia generalmente atribuida a la presencia o ausencia de las condiciones adecuadas para el diseño de urna parecen, en conjunto, no carecer de fundamento. Permítanme ilustrar este punto con un ejemplo trivial. Se habló de ellas en el volumen referente a las estadísticas sobre el número de avispas entrando o saliendo de un nido22; y se obtuvo empíricamente un coeficiente para comprobar que las diferencias en la tasa de movimiento no fueron fortuitas, sino significativas de condiciones cambiantes. Consecuentemente, se comprobó que este coeficiente es exactamente el que se presenta bajo la suposición de que individuos saliendo y entrando son selecciones aleatorias del gran total con el que se trabaja. De hecho, las avispas se lanzan adelante con la misma irregularidad regular que las partículas «alfa» a las que me he referido como ejemplares de la estadística física. Bien, el conocimiento previo de este hecho debería ser seguramente un recurso de alguna importancia en un correcto razonamiento tal como la interpretación de la estadística. Los datos dan ventaja a esa estadística sobre las únicas otras estadísticas in pari materiâ de las que tengo conocimiento. Me refiero a las observaciones hechas por los distinguidos entomólogos, el señor y la señora Peckham23, sobre un gran avispero en Wisconsin; un registro continuo de salidas y entradas desde primera hora de la mañana hasta el mediodía de un día de agosto de 1886. El carácter de la dispersión normal está conspicuamente ausente de este registro. Las comunidades británicas que yo había observado contrastan favorablemente respecto al movimiento regular con la más turbulenta república del oeste.
He llegado ahora a un punto que marca la transición entre los atributos discretos y la cantidad continua. La diferencia es muy estrecha y de poca importancia en lo que se refiere al funcionamiento de la ley normal de frecuencias. No existe diferencia esencial, por ejemplo, entre el uso de la ley en un razonamiento tal como el que he sugerido sobre las ratios del número de avispas saliendo por minuto hasta un total determinado, y la longitud absoluta en pulgadas de los huevos del cuco. Esto es el objeto de una elegante investigación instituida por el señor Latter24, que propone la cuestión de si los huevos de cucos depositados en el nido de cualquier otra especie «destacan como un conjunto aparte de los huevos de cuco depositados en otro sitio», y si es así, si se desvían en una dirección tal que se aproxime en tamaño al huevo del padre adoptivo. Usando la ley normal, él averigua que los cucos «acentor común»-aquéllos que ponen sus huevos en los nidos de «acentor común»-y ciertas otras clases de cucos definidas de forma similar, «presentan diferencias delimitándolos como conjuntos distintos», y que algunos de ellos, al menos, difieren del cuerpo principal «en el sentido de la particular especie de padre adoptivo».
Acabo de entrar ahora en un tema amplio, las analogías en estadística social de la teoría de los errores en la física. Pero, como ya he indicado, no propongo ahora retocar ese asunto. La omisión implica ejemplos de totales (al igual que de promedios) tales como los que el señor Bowley ha trabajado formando una estimación del ingreso, aparte de los salarios por debajo del límite de la exención. Simplemente reconociendo la gran laguna que queda así en este breve resumen, paso a un tema distinto.
4. En los ejemplos precedentes, la ley normal de frecuencias ha sido construida a través de promedios estadísticos. En los casos que consideraremos ahora, los promedios, o más bien «sumas ponderadas», que cumplen la ley son proporcionados, confeccionados, por la naturaleza de las cosas. Hemos contemplado y explicado ya una normalidad de este carácter en las estadísticas moleculares. Puede conjeturarse que la frecuente aparición de la ley normal en las estadísticas biológicas admita una explicación similar. Los atributos hereditarios se distribuyen entre los miembros por cruces continuos en el largo curso de generaciones, en cierto modo como velocidades resultantes distribuidas entre moléculas en el curso de colisiones repetidas.
Quetelet más que Laplace es aquí el pionero. A Quetelet le corresponde el honor de haber reconocido la prevalencia general de la ley normal entre los miembros de los grupos naturales; y habiendo atribuido la presumible causa de tal prevalencia, la cooperación de numerosos organismos independientes. Él, de hecho, ignoraba completamente la asimetría-inconsistente con la normalidad perfecta-que se presenta comúnmente en cierto grado en las agrupaciones reales. Pero la omisión se excusa en que la causa atribuida por Quetelet conduce directamente a una corrección de la ley normal que a menudo basta para hacer el ajuste satisfactoriamente (esa segunda aproximación que se debe a Poisson, y resulta familiar a los estudiantes de los Elementos del señor Bowley). Tal era la posición cuando la segunda Contribución a la Teoría Matemática de la Evolución del profesor Pearson hizo su aparición en la época. Aunque la necesidad de nuevos métodos no fue universalmente reconocida de forma inmediata, la experiencia y la reflexión han mostrado que el profesor Pearson estaba correctamente inspirado en hacer un nuevo punto de partida. Simplemente un desarrollo de (las hipótesis subyacentes) de la ley normal (en las líneas de Poisson) no es adecuado para representar la variedad de agrupaciones concretas.
Esta serie de intentos para representar grupos naturales mediante formas matemáticas puede ilustrarse a través de la historia de la astronomía-comparar cosas ciertas con inciertas-. Primero está el círculo prescrito con la autoridad de Aristóteles, como el modelo de los movimientos celestiales. La preeminencia atribuida al círculo fue, sin duda, un tanto supersticiosa, aunque, como Whewell señala, las propiedades del círculo son realmente muy importantes, de forma que las «funciones circulares» son todavía requeridas para representar complicados movimientos astronómicos. Habiendo fallado el círculo en representar el fenómeno adecuadamente, se añaden «epiciclos» con algo de éxito, correspondiendo a la corrección (poissoniana) de la ley normal. Esta es una mejor curva de ajuste, distinta, pero relacionada de alguna forma con la curva normal, puesto que la elipse puede considerarse como un círculo defectivo. Pero, nótese que es con la elipse de Kepler, no con la de Newton, con la que tenemos que trabajar. Esta elipse no descansa en una causa física. Está, al menos, tan abierta como el resto de diseños estadísticos a la descripción Miltoniana de las tentativas astronómicas.
How, will they wield
The mighty frame! How build, unbild, contrive
To save appearances! How gird the sphere
With centric and eccentric scribbled o'er
Cycle in epicycle...!25
El «ciclo» y «epiciclo» estadísticos tienen realmente una ventaja sobre otras construcciones en que sus formas son deducibles de una causa conocida. Desafortunadamente ¡la causa no siempre está presente! Pero la «elipse» sólo afirma «salvar las apariencias». No se apoya en la fundación de una causa física; este aspecto hace recordar la queja de Bacon contra la teoría Copernicana26.
La siguiente hipótesis, sin embargo, puede prestarse al método de Pearson. Como mezcla perfectamente caótica de organismos, da como resultado la ley normal de frecuencias, y como caos menos perfecto, la forma generalizada descrita en nuestro Journal como «la ley de los grandes números»; así, en la gradual incursión de la ley en el caos, en la escala de eventualidad, debe haber una etapa caracterizada por formas que todavía sostienen un parecido con el tipo normal, pero con características considerablemente desfiguradas-una deformación mucho más grande que la de la mencionada ley «generalizada»-. Por ejemplo, las tres etapas, en orden inverso, podrían presumiblemente ser presentadas por una mezcla de gases cayendo desde una violenta perturbación del estado normal. La construcción pearsoniana parece bien calculada para expresar esta clase de deformación.
Pero bajo esta hipótesis, cualquier otra deformación del «círculo» ideal-algúna curva distinta a la «elipse»-puede estar igualmente cualificada para salvar apariencias. Una variante de este tipo se sugiere en un documento aportado a la Sección Estadística del Congreso de Matemáticos de Cambridge este año. No pretendo ser un juez imparcial en esta materia. Sólo haré la observación de que el asunto no es tanto una cuestión de corrección como de conveniencia, especialmente a la hora de ahorrarse problemas. La nueva construcción viene, no a destruir, sino a completar las teorías del Profesor Pearson. Por ejemplo, confirma su regla sobre la relación que comúnmente prevalece (en grupos sesgados) entre las diferentes clases de promedios-la moda, la mediana, y la media.
5. Pasando de las curvas hacia la variación en dos dimensiones, las superficies normales-de las que una muestra perfecta se ha presentado ya en relación a la física molecular-quiero subrayar que tenemos aquí un nuevo punto de partida, una etapa superior, en cuanto a un nuevo caso que aquí se presenta relativo a una ley cuantitativa exacta gobernando el fenómeno del azar. Me refiero, por supuesto, a la razón o línea recta que forma la medida de la llamada regresión o correlación. Corresponde a Galton el honor de haber sido el primero en discernir el significado estadístico de la regresión. Tenemos también una deuda con el Profesor Pearson por haber señalado el mejor método para determinar el coeficiente que mide la correlación entre dos órganos o atributos. Merece atención el hecho de que obtuviera este resultado a través de un golpe de Probabilidad Inversa, un método de razonar que los críticos estrechos de miras de los autores clásicos acostumbran a desacreditar.
No necesito extenderme en las propiedades de la correlación normal, pues han sido completamente elucidadas por el señor Yule en nuestro Journal. Únicamente ofreceré unas cuantas observaciones sobre algunas desviaciones del tipo normal puro que ocurren a menudo en la práctica.
Primero, supongamos que-manteniendo lo demás en orden-las estadísticas no satisfacen perfectamente la ley normal, sino que, por el contrario, están de alguna forma «sesgadas». Espero que los estadísticos prácticos den una oportunidad a los métodos de representación de tales grupos, que han sido propuestos en el documento antes mencionado en referencia a las curvas sesgadas.
Seguidamente, supongamos que el material es de hecho normal, o que lo sería si fuera medido perfectamente, pero que las medidas perfectas no se encuentran a mano. Los ejemplos más suaves de este defecto se dan cuando un conjunto completo de medidas no se da o, para evitar problemas, se ignora, como ha hecho con notable éxito el Dr. Macdonell en antropometría. Así, despejar el coeficiente requerido de los datos imperfectos se ha logrado ingeniosa y adecuadamente por el Dr. Sheppard, y más generalmente-con la habilidad matemática señalada-por el Profesor Pearson. De mayor interés filosófico es la aplicación de estos métodos a los casos en los que el defecto de medida se debe a la imperfección de nuestras facultades, como en el caso de los colores, que podemos ordenar en una escala, pero que no podemos medir numéricamente. Suponiendo siempre que la ley normal está en algún sentido satisfecha, parece posible determinar una correlación cuantitativa exacta (entre clases de personas) con respecto a tales atributos no cuantificados, como el color de los ojos o el buen temperamento. La práctica de los autores clásicos de Probabilidad que no dudaron en hacer «moral», en el sentido de físico, al resultar favorable para un tema susceptible de cálculo, parece ser apoyada por este moderno arte de medición.
Vamos ahora a presentar juntos los dos defectos mencionados. Entonces volvemos a un caso, anteriormente considerado, en el que la proporción de una categoría definida por cierto atributo es diferente para distintas clases-como cuando la proporción de muertes es diferente para pacientes (en otro caso similar) que han sido tratados de forma diferente-. ¿Hasta qué punto es ahora, en estas circunstancias, aconsejable emplear el término coeficiente de correlación? ¿En qué medida los coeficientes de correlación conducirán al objetivo práctico de curar pacientes? Pero soy consciente de que éstas son sólo preguntas apasionadas, y tengo en mente lo que Bagehot dice sobre un asunto controvertido: «Si dices algo sobre el Acto de 1844, no importa el resto de cosas que puedas decir, pues pocos prestarán atención a ellas»... «una sola frase en lo que concierne, es mucho más interesante para muchos que un libro entero sobre cualquier otra parte del asunto». Así que, sigo adelante con una cuestión final.
6. No puedo concluir sin referirme a uno de los principales usos sociales de la Probabilidad, su aplicación al negocio de los Seguros. Contemplando la construcción de las Tablas de Mortalidad, todo estadístico debe unirse al Dr. Farr en su tributo al «ilustre Halley que, a través de su tabla, mostró que las generaciones de hombres, como los cuerpos celestes, han prescrito órbitas cuyo análisis es posible trazar». Pero, tal como el elogio del Dr. Farr sugiere, debe señalarse que la cuestión sólo está en parte dentro de nuestro campo. Porque, como bien observó uno de los más lúcidos escritores en la materia, «el problema de la tabla de mortalidad [Absterbe-ordnung] parece resolverse parcialmente en un problema fisico [naturwissent-schaftliches] y parcialmente en un problema Probabilístico». De hecho, estamos aquí en los confines de la ley del azar.
«Here Nature first begins
«Her farthest verge, and Chaos to retire
«As from his outmost works a broken foe»27 «Aquí comienza primero la Naturaleza
«Su orilla más lejana, y el Caos para el retiro
«Y desde su fuero externo actúa un mal enemigo»
Mientras las matemáticas actuariales traten con leyes de la naturaleza en el sentido ordinario del término, excluyendo el azar, no son aquí relevantes. No debo entretenerme, por tanto, en las finuras de la interpolación, en particular, en el método que parece estar muy de moda entre los actuarios, conocido como «interpolación osculatoria». El «problema fascinante», como así lo llama un distinguido experto, no puede ser tratado aquí. Únicamente señalo los problemas que entraña como elemento de Probabilidad28 Son principalmente dos, a saber: la estimación del riesgo asumido por una Compañía de Seguros, y las representaciones de la tabla de mortalidad por una ley de frecuencia del tipo apropiado para la Probabilidad.
Acerca del primer asunto, me atrevo a expresar la opinión de que para el lector general de matemáticas, si se me permite la expresión, la mejor o, al menos, una muy buena introducción al tema es ofrecida por dos de los más antiguos autores de Teoría de la Probabilidad, Laplace y De Morgan. Debe observarse que el cálculo del riesgo de Laplace no implica la asunción de que la muerte a diferentes edades varía de la misma forma que muchas bolas de diferentes colores extraídas al azar de una urna ideal. Sólo se ha postulado la constancia estadística (no la fluctuación normal) de las proporciones. De Morgan, de hecho, postula más cuando trata la probabilidad de que las proporciones sean responsables de un cierto error-un cálculo apropiado para una Tabla de Mortalidad especial-.
El problema de «graduar» una tabla de mortalidad ha fascinado desde hace mucho a los matemáticos. Los registros de experiencias han sido «garabateadas», para repetir nuestra ilustración astronómica, con una variedad de formulación adaptada para «salvar las apariencias». Especial prestigio se atribuye al esquema del Profesor Pearson para representar los datos por el uso repetido de su flexible fórmula. Para los datos en los confines de la ley y el azar, parece ser exactamente del tipo para el cual su fórmula es especialmente aplicable.
Una demanda similar puede hacerse en nombre de cierto método practicado por el señor Hardy, que consiste en adaptar o «trasladar» una curva normal para que se ajuste a los datos que están lejos de la normalidad. La idea general-que el autor puso en marcha independientemente-es la misma que la del método que yo he propuesto; mientras que el ingenio y el éxito de la aplicación le corresponden a él.
Pero me atrevo a decir que ninguno de los métodos discernidos será muy usado por el actuario práctico. Él atenderá, no al elemento de azar en el fenómeno, sino al elemento de ley-la ley de Gompertz y Makehamen favor de lo cual no sólo hay realidad y razón (lo razón asignada por esos autores), sino también conveniencia, la ley que incluye la fórmula que se presta al cálculo dispuesto de anualidades para el colectivo de vidas. De hecho, para parodiar un atrevido epigrama francés, si la ley no existiera, sería casi necesario inventar una. Es lícito, al menos, de acuerdo con los distinguidos autores de Tablas de Mortalidad «arrojar una lanza» en favor de la ley de Gompertz-Makeham.
Dejando este tema, no puedo afirmar con Laplace: «no me concentraré más allá en materias relacionadas con los seguros, porque no presentan ninguna dificultad ». Por el contrario, las dificultades que los detalles prácticos del tema presentan al hombre común me obligan a contentarme con estas exiguas generalidades.
Queda solamente recoger las lecciones que nuestra rápida investigación pueda transmitir.
Nuestra primera ejemplificación de Probabilidad sugiere una comparación entre los usos de las matemáticas superiores en Economía Política y Estadística. La conexión de la Probabilidad con la física molecular tiene para el estadístico el interés teórico que la preeminencia del principio del máximo en física matemática puede tener generalmente para el economista. El estadístico encuentra en el mundo de los átomos un modelo ideal de aquélla ley en la que él debería ejercitarse día y noche; el economista es conducido por la teoría del máximo a la contemplación de variables interdependientes, y todo ello está implícito en la concepción de «margen». Pero mientras que estas ideas generales forman la principal o, de acuerdo con algunas autoridades, la única contribución de las matemáticas superiores a la economía política, el Cálculo de Probabilidades ofrece un servicio más tangible dirigiendo las operaciones de muestreo. Me refiero especialmente a los tipos artificiales de muestreo que han sido ejemplificados. Acerca de las constructivas muestras presentadas por los datos, como las experiencias en hospitales, hay razones para temer que el Cálculo de Probabilidades-incluso si se complementa con los refinamientos de la «Asociación» y la «Correlación »-puede que no demuestre una ayuda tan poderosa a los ordinarios métodos de Inducción. La independencia de las observaciones postuladas por el cálculo están ausentes demasiado a menudo. De hecho, me he dado cuenta de que hay un remedio para este defecto. Pero su aplicación, al requerir una prolongada serie de observaciones, parece difícilmente aplicable en las estadísticas referidas a la sociedad, aunque es apropiado en otros sitios, en meteorología por ejemplo, o con respecto a las comunidades no-progresivas del mundo animal. La sociedad humana no se detendrá todavía lo suficiente en los «coeficientes de divergencia» respecto del tipo ideal de frecuencia a calcular. Pero el intento puede no ser en vano desde el momento en que cultiva el poder de tratar con cifras que difieren en el grado de precisión y que puede llamarse sentido de error probable, que grandes estadísticos como Giffen parecen poseer instintivamente.
Esta observación es igualmente aplicable a la extensa rama del problema que me he visto obligado a omitir, las analogías de la teoría de los errores en la física, como las que la construcción de números índice puede presentar.
El carácter de progreso en las instituciones humanas que ha sido mencionado, es también desfavorable para el empleo de curvas analíticas y superficies para representar grupos de estadísticas. Pero esos métodos parecen particularmente bien adaptados para investigar el progreso más lento de la evolución biológica. Si el término «relativo a la sociedad» en nuestro título fuera interpretado tan ampliamente como para incluir a la biología, se debería otorgar algo más que un simple tributo de admiración al grupo de estadísticos matemáticos que, bajo los auspicios del Profesor Pearson, han mejorado las armas de la Probabilidad y traído nuevas regiones bajo su influencia. Hablando de estadística en sentido estricto, el correspondiente a los estados y a los hombres de estado, pienso que esas partes son más dóciles hacia los nuevos métodos que están relacionados más de cerca con nuestra naturaleza física-en particular las estadísticas vitales-.
En general, acepto la respuesta práctica que nuestra Sociedad da a la cuestión: ¿cuál es el uso de los métodos matemáticos para nuestros propósitos? El sentido general de nuestro razonamiento estadístico se queda en lo que fue durante la época de Porter y Newmarch. Sin embargo, permitimos un brote esporádico de las matemáticas. Como estableció uno de mis predecesores: debería haber una vez por sesión un documento que nadie-o casi nadie-pudiera entender. Espero que haber tenido un solo discurso presidencial de este tipo en toda una época no parezca excesivo.
1 Francis Ysidro Edgeworth, «On the Use of the Theory of Probabilities in Statistics Relating to Society», en Journal of the Royal Statistical Society, vol. 76, no2, enero 1913, pp. 165-193.
Traducción y notas: Julio A. del Pino Artacho y BeatrizMañas Ramírez (Dpto. Sociología I UNED). El texto que aquí traducimos se corresponde con el seleccionado por Philip Mirowski en su obra, como editor, Edgeworth on chance. Economic Hazard, and Statistics, Lahman, MD y Rowman & Littlefield, 1994. Corresponden a él, por tanto, la selección de textos y omisiones del artículo original. Estas omisiones se sitúan al final de la introducción, al comienzo del apartado 3 y en el apéndice. La primera se refiere a los asuntos propios de la asociación, como los decesos y las nuevas incorporaciones, que Edgeworth ha de abordar en un discurso de estas características. La segunda omisión corresponde al apartado 3 dedicado al muestreo. Al comienzo del mismo, Edgeworth hace repaso de los avances en la materia, particularmente de la experiencia de Bowley, y las críticas y observaciones suscitadas entre los expertos (cita a De Morgan, Venn y Kiarcuyo trabajo se refiere luego, dentro del texto que ahora presentamos)-. Finalmente, esta traducción añade como notas al pie las notas finales del artículo original, incluyendo aquellos aspectos que Edgeworth refiere en el texto como desarrollados en el «Apéndice», y que Mirowski no muestra en su edición. Completamos la labor editorial con algunas notas de traducción que notamos como N. de T.
2 «Sobre la misma materia». Edgeworth tuvo formación filológica y una erudición notable. Este mismo texto da cuenta de ello, con las citas latinas de Lucrecio y Bacon, por ejemplo. (N. de T.)
3 La referencia se hace en el discurso inaugural del Dr. Farr en la Statistical Society, 1871 y 1872. El Dr. Farr observa a este respecto: «Esta asociación debe su origen a dos de los matemáticos y físicos más destacados de la época por el motivo de que vieron en el fenómeno estadístico un campo amplio, más allá del alcance humano, bajo el ámbito de la ley». Compárese la solución mostrada por Quetelet en la sexta reunión del Congreso Estadístico Internacional (citado por Samuel Brown, Journal of the Statistical Society, vol. xxi, p. 22).
4 «A innumerables choques de continuo» Verso del poema «De rerum natura» («La naturaleza de las cosas») de Titus Lucrecius Carus (Lucrecio), que trata de la composición del mundo mediante átomos y vacío. (N. de T.)
5 La clasificación del Dr. Venn de las «uniformidades» es ofrecida en su Empiric Logic, p.94. Debe compararse con su visión de las «series» estadísticas en su Logia of Chance.
6 Los experimentos deM. Jean Perrin son descritos en Annales de Chimie et de Physique, 8m Series, Septiembre 1909; traducida al inglés por F. Soddy como Brownian Movement and Molecular Realiry, 1910. (Compárese con las lecciones de M. Perrin en el Royal Institute el 24 de febrero y reportadas en el Chemical News de octubre y noviembre de 1912). Los movimientos brownianos, así llamados por su descubridor, no pueden confundirse con la danza de partículas de polvo a la luz del sol que Lucrecio describe en términos singularmente apropiados para la verdadera acción molecular:
Multa videbis enim plagis ibi percita coecis
Commutare viam retroque repulsa reverti
Nunc huc nunc illuc in cunctas denique partes.
...
Sic a principiis ascendit motus et exit
Paulatim nostros ad sensus
(De Rerum Natura, lib. II, v. 129 y ss.).
7 Los experimentos del Dr. Geiger se describen en el Philosophical Magazine de 1910, vol. 20, p. 700.
8 Entre los estadísticos que se han acercado al problema del determinismo filosófico o la predestinación teológica puede mencionarse al Príncipe Consorte en su discurso presidencial en el Congreso Estadístico Internacional de 1860 (Journal of the Statistical Society, vol. xxiii).
El título de la disquisición lógica de Von Kries es Die Principien der Wahrscheninlichkeits-Rechnung, 1886. Véanse sus comentarios sobre «das eigentlich Unempirische Princip», p. 170, y sobre «Spielräume passim».
9 Los trabajos señalados del Journal a los que se hace referencia son principalmente «Methods of Statistics», Jubilee Volume, 1885; «The Generalised Law of error», 1906; «The probable errors of frequency-constants», 1908. Compárese con la contribución de (el Bulletin de) l'Institut International Statistique, 1909.
10 «Los inventos oscuros de los griegos», como los refiere Lucrecio en De rerum novarum (N. de T.)
11 La ilustración de los movimientos moleculares en dos dimensiones a través de un conjunto de bolas de billar es sugerida por el Sr. Jeans en su Dynamical Theory of Gases, p. 5. El mismo trabajo puede ser referido para ilustrar el gran valor de las explicaciones recibidas; el autor comienza su principal prueba suponiendo tantas dimensiones (en un híper-espacio) como seis veces las moléculas consideradas-¡algo así como varios trillones!
12 La génesis de la ley del error puede ilustrarse así a través de funciones lineales de números tomados aleatoriamente. Por debajo, encontramos cuarenta y ocho estadísticos, cada uno de los cuáles se obtiene del siguiente modo: veinticinco se toman al azar de una tabla de logaritmos, formando cada uno el séptimo lugar entre los decimales de logaritmos sucesivos, empezando por el logaritmo de 101 (y terminando por el logaritmo de 1300). De la suma de los veinticinco dígitos que van a cada uno de los cuarenta y ocho estadísticos se sustrae 112.5 = 25 veces 4.5; siendo 4.5 la media de un número indefinidamente grande de dígitos tomados al azar. Esta diferencia dividida por 5 (la raíz cuadrada de 25) forma uno de los grupos de estadísticos ofrecidos abajo; un grupo que debe aproximarse a la curva normal del error en la que el punto central es cero y el parámetro o módulo la raíz cuadrada de dos veces la media al cuadrado de la desviación de los dígitos al azar de 4.5; siendo esta media al cuadrado igual a 8.25.
Bajo el cero, sin signo (negativo), en orden descendente de la magnitud absoluta (no en orden de ocurrencia), tendremos: 6.9, 6.5, 5.5, 3.5, 2.7, 2.7, 2.5, 2.5, 2.5, 2.3. 2.1, 1.9, 1.9, 1.7, 1.7, 1.5, 1.3, 1.3, 1.3, 1.3, 1.1, .9, .3.
Sobre cero, sin signo (positivo) reordenaremos en orden ascendente las magnitudes absolutas: .1, .1, .1, .3, .5, .5, .7, .7, .7, .9, 1.1, 1.5, 1.5, 1.7, 1.9, 1.9, 2.3, 2.7, 2.9, 3.5, 4.9, 5.1, 5.3, 5.5, 6.5.
Puede advertirse que la Media (el punto que tiene tantas observaciones por encima como por debajo) no es, como debía teóricamente, cero, sino + .15. Pero esta desviación del valor teórico está dentro del error probable que caracteriza la probabilidad de que si los cuarenta y ocho estadísticos dados se extraen de muestras realmente sacadas de grupos indefinidamente grandes perfectamente a la normal, una irregularidad podría ocurrir de hasta por ejemplo .33.
Del mismo modo, los cuartiles (los dos puntos bajo y por encima de los que ocurre un cuarto del total de observaciones) son -1.9 y + 1.6 (a medio camino entre +1.5 y +1.7). Mientras la desviación teórica de cada uno desde cero es .4769 módulos = casi 1.94. Hay así (en un caso) una diferencia entre lo observado y el valor teórico de .34, lo que no es nada extraordinario si consideramos que el error probable hasta el que la determinación es fiable es de alrededor de .37.
De este modo, debería haber cuatro quintos del número total, es decir, treinta y ocho o treinta y nueve observaciones entre los límites +3.68 y - 3.68 (los deciles = .906 módulos). Y de hecho, cuarenta de las observaciones caen dentro de estos límites.
La media (desviación de cero) de las cuarenta y ocho observaciones tomadas en absolutos, sin signos, es 2.266; mientras que teóricamente debería ser Módulo/[radical]π, por ejemplo, 2.29. La diferencia entre los valores real y el teórico es menos de .03 y el error probable de alrededor de .05.
Los agregados de dieciséis dígitos presentan características similares, pero se ajustan peor debido al menor número de elementos en cada observación. Por debajo hay cuarenta y ocho estadísticos, formado cada uno por los últimos dieciséis dígitos en uno de los lotes arriba descritos. De la suma de cada lote de dieciséis se sustrajeron setenta y dos (dieciséis veces 4.5), y la diferencia se dividió por 4 (la raíz cuadrada de 16).
Por debajo de cero, en orden de magnitud: 5.5, 5.5, 4.75, 3.25, 3.25, 3.25, 3, 3, 2.5, 2.5, 2.5, 2.5, 2.5, 2, 1.75, 1.75, 1.75, 1.5, 1.5, 1.25, 1.25, 1.25, 1, .75, .75, .5.
En cero, una observación.
Por encima de cero: .25, .5, 1, 1.25, 1.25, 1.5, 2, 2.25, 2.25, 3, 3.25, 3.25, 4, 5, 5.25, 5.75, 5.75, 6.5.
La desviación media de las cuarenta y ocho observaciones en magnitud absoluta es 2.5, mostrando una diferencia con la media teórica, 2.29, no demasiado mayor que el error probable (véase el sentido de la explicación más arriba), de alrededor de .05.
13 Véase n. 12 (N. de T.)
14 Véase n. 12 (N. de T.)
15 En la prueba variante ofrecida por la teoría de Maxwell sobre la distribución de las velocidades en un caos molecular, los factores a y α son, por supuesto, reemplazados por sin θ y cos θ. Sustituyendo por estos cos a, cos β y cos γ, cosenos de las direcciones de una línea en el espacio, la prueba puede extenderse rápidamente a tres dimensiones.
Similarmente a la expresión de las velocidades medias, digamos que u y v en dos dimensiones, quizás sea evidente que los cuadrados de la media de la velocidad son iguales. O puede esto considerarse como dado por las condiciones de la presión; como en el trabajo sobre la materia del Philosophical Magazine, enero 1913. O podría deducirse de un supuesto menor, digamos, que la línea que une centros de un par colindantes de moléculas (iguales, esféricas y perfectamente elásticas) puede estar en una dirección u otra. Sea θ el ángulo con el eje x en un momento. Entonces, si us y vs, y ut, vt, son las velocidades de dos moléculas antes de colisionar resueltas en la dirección del eje OX, tenemos para Us la velocidad de la primera en la dirección de la línea que une los centros us cos θ + vs sin θ; y para Vs la velocidad de la dirección perpendicular - us sin θ + vs cos θ, con las correspondientes expresiones para la molécula t. Las velocidades Us y Ut se intercambian como consecuencia de la colisión, y de acuerdo tendremos para us', la velocidad de la molécula s tras la colisión us' = Ut cos θ - Vt sin θ; us' = cos θ (ut cos θ + vt sin θ) + sin θ (vs cos θ - us sin θ).
Ahora supongamos que ocurre toda variedad de u y v, reteniendo θ su valor particular. Entonces, por la hipótesis de que θ es independiente de las velocidades, obtenemos una expresión para el valor medio de us' para el θ concreto en términos de velocidades medias (en las direcciones de los ejes). Aquellas velocidades medias son, además, cero (el centro de gravedad del sistema permanece en reposo). Pero no así el cuadrado de la media de las velocidades que como consecuencia de la circunstancia (deducible del teorema del texto) de que u y v se distribuyen normalmente y el supuesto posterior de que están prácticamente, aunque no perfectamente (debido a lo sugerido en el texto) no correlacionadas, devienen en un aclarado de productos. Si entonces tenemos que [us2], [ut2], etc. por el cuadrado de la media de la velocidad, y denotamos por (us'2) el cuadrado de la media de la velocidad en la dirección OX de las moléculas que chocan con la línea que une los centros en un ángulo de θ, obtenemos que (us'2) = [ut2] cos4 θ + [vt2] sin2 θ cos2 θ + [vs2] sin2 θ cos2θ + [us2] sin2 θ.
Por ejemplo, si θ = π/2, (us'2) se reduce a [us2]; como debe ocurrir, dado que el movimiento en la dirección OX no está afectado por la colisión. O si θ = 0, (us2) se reduce [ut2] como debe, debido a que las esferas intercambian velocidad en cada colisión en la dirección OX. Ahora (siendo θ independiente de u y v) es apropiado integrar el lado derecho de la ecuación para obtener una expresión para [us2], la media (us2) para todos los posibles valores de θ, que es la media de us2 para todos los posibles valore de u. Tenemos, integrando entre los límites O y π/2, π/2 [us']2 = [ut]2 (3/16) π + [vt2] (1/16) π + [vs2] (1/16) π + [us2] (3/16) π; ½ [us2] = ½ [ut2].-Q.E.D.
Igualmente, podemos demostrar que si hay dos conjuntos de moléculas, como las arriba consideradas, pero con masas diferentes, el cuadrado de la media de la velocidad para cada conjunto será inversamente proporcional a la masa de las moléculas del conjunto. Habrá una partición igual de la energía media entre los dos conjuntos.
El cálculo de probabilidades puede emplearse más generalmente para verificar la teoría de Maxwell sobre la partición de la energía.
16 Nombre oficial de la capital noruega, Oslo, entre 1624 (año de su reconstrucción por el rey Cristian IV) y 1925, en que recuperó su nombre original. (N. de T.)
17 Los comentarios en el texto sobre el uso de probabilidades en estadísticas médicas están totalmente basadas en Statistique Médicale de Gavarret (Libermeister) y en otros escritores del siglo XIX in pari materiâ.
18 Las principales observaciones del Dr. Peek sobre la coincidencia entre la dispersión combinatoria y física (por usar la distinción de Lewis) se encuentran en Zeitung für Versicherungs Rect. u. Wissenschaft, 1899.
19 La referencia al Journal of the Statistical Society no es, por lo menos principalmente, al trabajo presentado en el Jubilee Volume sino al titulado Methods of Ascertaining Variations in the rates of Births, Deaths, & c., en el número de diciembre de dicho año.
20 Las contribuciones del Dr. Mortara a la «ley de los pequeños números» se ofrecen en Annali de Statistica, series v., vol. 4, 1912.
21 La «divergencia» de la clasificación establecida por Dormoy y Lexis no es, por supuesto, consistente con el cumplimiento de la ley normal mediante el promedio, sobre la que únicamente estamos tratando en este apartado (dado un suficiente número de elementos independientes en el promedio).
22 Las contribuciones a las estadísticas entomológicas se encuentra en Journal of the Statistical Society, 1885, Jubilee Volume, p. 209; 1896, p. 358, Statistics of Unprogressive Communities, y p. 529, Further Notes; Biometrika, vol. v, Statistics of Wasps and Bees; donde se señala el carácter normal de la dispersión.
23 Las observaciones del Sr. y la Sra. Peckman se recogen en su artículo «Some senses on wasps», publicado por la History Society de Wisconsin, en abril de 1887.
24 Para la aplicación de la teoría de las observaciones a los huevos de cuco hecha por Mr. Latter, véase Biometrika, vol. i y vol. iv, parte iii.
25 Se ha decidido mantener en el texto el poema en su versión original. (N. de T.)
Como empuñarán
¡El poderoso armazón! Cómo construir, deconstruir, lograr
¡Para salvar las apariencias! Cómo rodear la esfera
Con céntricos y excéntricos garabatos
¡Ciclo en epiciclo...!
26 La llamativa descripción de Bacon de la teoría copernicana dice: «Ejes sunt viri qui quidvis in naturâ fingere, modo calculi bene cedant, nihil putet». Una visión no tan absurda, ante la ausencia de las bases de física suministradas más tarde por la ciencia astronómica.
27 Como en el caso anterior, se mantiene en el texto el poema en su versión original. (N. de T.)
«Aquí comienza primero la Naturaleza
«Su orilla más lejana, y el Caos para el retiro
«Y desde su fuero externo actúa un mal enemigo»
28 Las autoridades en matemáticas actuariales a las que me refiero especialmente son:
Laplace, Théorie Analytique des Probabilités, Libro II, cap. ix, art. 40 y el contexto.
De Morgan, Theory of Probabilities, parte de la Encyclopaedia Metropolitana (sección 146, contexto y secciones relevantes anteriores)
E. Blaschke, Volesungen ubre Mathematische Statistik, 1906.
G. F. Hardy, Theory of the Construction of Tables of Mortality, 1909.
El «método de empleo de la curva de frecuencias normal para representar las series» dado por el Sr. Hardy en su p. 91 y ss. forma conjunto con el método descrito en este Journal como «translación »; al menos, cuando «tratamos z como una función parabólica de t» (Hardy, loc. cit.) - un tratamiento que es, a mi entender, recomendado por su simplicidad y cierta afinidad con la expansión tayloriana.
You have requested "on-the-fly" machine translation of selected content from our databases. This functionality is provided solely for your convenience and is in no way intended to replace human translation. Show full disclaimer
Neither ProQuest nor its licensors make any representations or warranties with respect to the translations. The translations are automatically generated "AS IS" and "AS AVAILABLE" and are not retained in our systems. PROQUEST AND ITS LICENSORS SPECIFICALLY DISCLAIM ANY AND ALL EXPRESS OR IMPLIED WARRANTIES, INCLUDING WITHOUT LIMITATION, ANY WARRANTIES FOR AVAILABILITY, ACCURACY, TIMELINESS, COMPLETENESS, NON-INFRINGMENT, MERCHANTABILITY OR FITNESS FOR A PARTICULAR PURPOSE. Your use of the translations is subject to all use restrictions contained in your Electronic Products License Agreement and by using the translation functionality you agree to forgo any and all claims against ProQuest or its licensors for your use of the translation functionality and any output derived there from. Hide full disclaimer
Copyright Universidad Nacional de Educacion a Distancia (UNED) Jul-Dec 2007