sábado, 27 de septiembre de 2008

HIDROSTATICA

La HIDROSTATICA es la rama de la física que se ocupa del estudio de
los líquidos en reposo.
El término es en si mismo elocuente, al referirse a la materia de estudio,
expresando “HIDRO” (agua) y “STATICA” reposo o equilibrio.

CONCEPTO DE PRESION:
Los líquidos, a diferencia de los sólidos, no transmiten fuerzas, sino
presiones. Si pretendo aplicar una fuerza a un sólido, simplemente la
aplico, empujándolo o tirando de él o ejerciendo cualquier contacto mecánico
con ese cuerpo, ya sea en forma directa o indirecta, tal como ya hemos
visto en estática y en dinámica.
En cambio, si tengo líquido en un recipiente (agua en un vaso), y deseo
comunicarle alguna fuerza al agua, en forma directa, simplemente me mojo
el dedo, sin conseguir otra cosa que eso o tal vez provocar algunas salpicaduras.
En la fig. Nº1 vemos la acción de una fuerza sobre un bloque sólido
y a su derecha, un dedo mojándose y salpicando agua al pretender hacer
lo mismo con un líquido.


En virtud de ello, advertimos que para poder comunicar alguna acción
a un líquido, éste deberá estar encerrado en un recipiente cilíndrico, similar
a una jeringa, en el cual podamos desplazar una de las superficies
que hacen de tapa. Esto se denomina émbolo o pistón (Sí!, como el del motor
de un auto).


La presión es, por lo visto, el cociente entre la fuerza ejercida sobre
el émbolo (normalmente o perpendicularmente) y la superficie de dicho
émbolo.
La presión es una magnitud escalar, ya que como veremos más adelante
(Principio de Pascal), cuando se ejerce presión, ella se detecta en todas
las direcciones.

HIDROSTÁTICA

Principio de Pascal


La presión ejercida sobre la superficie de un líquido contenido en un recipiente cerrado se transmite a todos los puntos del mismo con la misma  intensidad.


Principio de Pascal

El principio de Pascal se aplica en la hidrostática para reducir las fuerzas que deben aplicarse en determinados casos. Un ejemplo del Principio de Pascal puede verse en la prensa hidráulica.

viernes, 22 de agosto de 2008

FÍSICA

Fuerzas y deformaciones.
Idea General

Las fuerzas actuan modificando la posición de reposo o movimiento de los cuerpos produciendo en ellos una deformación En toda fuerza se distinguen el punto de aplicación, la dirección, el sentido y la intensidad. Usamos los vectores para representar fuerzas y los dinamómetros para medirlas . La unidad de medida es el kilogramo fuerza.

Fuerza

Toda causa capaz de modificar el estado de resposo o movimiento de un cuerpo, o de producir su deformación.

Elementos de una fuerza

Se llama punto de aplicación al lugar del cuerpo donde se aplica la fuerza. La direcciónsentido es el lugar hacia donde se dirige el esfuerzo, si éste es suficiente, el cuerpo se mueve. En toda dirección hay 2 sentidos opuestos. La intensidad es el valor de la fuerza que actúa. queda señalada por la recta según la cual se manifiesta la fuerza. El

Las fuerzas y los problemas que plantean sus componentes se representan mediante vectores. Un vector es un segmento rectilíneo de longitud determinada que termina en un extremo en punta de flecha. En un vector el punto de aplicación es un extremo del mismo, la dirección es la recta del vector, el sentido el de la flecha y la intensidad, su longitud.

<------------------------------------------------------->

SENTIDO

<----------INTENSIDAD----------->

Deformaciones

Por deformación se entiende el cambio de forma que experimenta un cuerpo al aplicarle una fuerza adecuada. Toda fuerza aplicada a un cuerpo produce deformaciones. A veces son tan pequeñas que no se aprecian. Cuando se aprecian decimos que el cuerpo es deformable.

· Deformaciones Plásticas

Se produce cuando el cuerpo mantiene su deformación después de que ha dejado de actuar la fuerza: arcilla, plastilina, etc.

· Deformaciones Elásticas

Se producen cuando el cuerpo recupera su forma anterior después de cesar la fuerza. Esta elasticidad puede ser por alargamiento, flexión o compresión. Un ejemplo son los muelles, las gomas.

Medida de las Fuerzas

La deformación que se produce en un cuerpo elástico cuando se le aplica una fuerza puede servir para medir las fuerzas. La palabra dinamómetro está formada por dina (fuerza) y metro (medir). La unidad de medida de peso es el kilogramo. Cuando se miden fuerzas lo llamamos kilogramo fuerza y se define como la fuerza que ejerce un kilograma de masa cuando actúa a nivel del mar y a la latitud de 45º N.

ISAAC NEWTON

Isaac Newton contribuyó de manera decisiva al desarrollo de una rama de las Ciencias Físicas, la Mecánica, que está dedicada al estudio del movimiento y de las fuerzas. Newton nació en Inglaterra en 1642, destacando desde temprana edad como científico, matemático y físico excepcional. Alos dieciocho años ingresó en la Universidad de Cambridge e inmediatamente destacó por sus descubrimientos sobre el cálculo infinitesimal, la gravitación universal, la naturaleza de la luz blanca y otros muchos. Se le considera como fundador de la Mecánica celeste y terrestre, así como de la Física Matemática. Falleció en 1727 y fue enterrado en la abadía de Westminster.



Fuerza y presión: Peso de los cuerpos.
Idea General

La tierra atrae a todos los cuerpos que están dentro de su campo de acción con una fuerza que es la gravedad. Esta es el caso particular aplicado a la Tierra, de la atracción llamada gravitación universal, que se ejerce entre todos los cuerpos del Universo. A la gravedad se debe el peso de los cuerpos como resultado de aplicar esa fuerza a la masa. La masa de un cuerpo no varía, su peso sí. El equilibrio en los cuerpos está relacionado con el centro de gravedad. La presión resulta de relacionar la fuerza con la superficie sobre la que actúa.

Gravitación Universal

Entre todos los cuerpos del universo se ejerce una fuerza de atracción mutua que se llama gravitación universal. La gravedad no es más que el caso particular aplicado a la Tierra, de la gravitación universal Fue estudiada por Newton y su formulación dice así: Todos los cuerpos del universo se atraen con una fuerza que es directamente proporcional a sus masas e inversamente proporcional al cuadrado de las distancias que los separan.

Dados dos cuerpos M y M´ , separados por una distancia d, la fuerza f con que se atraen se expresa así:

G es una constante llamada Gravitación Universal


Peso de los cuerpos

El peso de un cuerpo equivale a la acción que la gravedad ejerce sobre la masa de ese cuerpo, o sea la fuerza con que lo atrae a la Tierra. Como fuerza tiene dirección, sentido, intensidad y punto de aplicación. La dirección y el sentido son hacia la Tierra. La intensidad de la fuerza de gravedad aplicada al cuerpo es lo que se denomina su peso.

El peso de un cuerpo varía con la latitud y la altitud. El peso de un cuerpo disminuye al aumentar la altitud.

Peso y Masa

Para un mismo cuerpo su peso varía según el lugar. Pero el cuerpo, su masa su forma no cambia. También hemos dicho que el peso depende de la gravedad al aplicar ésta a la masa. Si llamamos P al peso, M a la masa y g a la gravedad tendremos:

P = M*g

Centro de Gravedad

Un cuerpo sólido rígido esta formado por pequeñas partículas unidas. Sobre cada una de estas partículas actúa la fuerza de gravedad. El conjunto de fuerzas que actúan sobre las partículas forma un sistema de fuerzas paralelas y del mismo sentido. Al resolver este sistema, la resultante tiene un punto de aplicación situado en el cuerpo, el cual llamamos centro de gravedad.

Podemos definir como Centro de Gravedad de un cuerpo al punto de aplicación de la resultante del sistema de fuerzas paralelas formadas por la acción de la gravedad sobre las partículas del cuerpo.

Si el cuerpo es un sólido homogéneo de figura regular, su centro de gravedad coincide con el centro de la figura. Si el sólido es irregular, calculamos su centro de gravedad suspendiéndole desde distintos puntos de su superficie y trazando en cxada punto su vertical. El punto donde se cruzan todas las verticales es el centro de gravedad.

Equilibrio

El equilibrio en los sólidos puede ser

· Estable

Cuando una fuerza desvía al cuerpo de su posición de equilibrio y al dejar de actuar la fuerza , el cuerpo recupera su equilibrio. En este caso se eleva el centro de gravedad al desplazar al cuerpo.

· Inestable

El cuerpo no recupera su equilibro. Es porque desciende su centro de gravedad.

· Indiferente

Cuando el cuerpo siempre está en posición de equilibrio. El centro de gravedad no varía de altura por mucho que cambie de posición el cuerpo.

Condiciones para que haya equilibrio

· Cuerpo apoyado en un punto

Hay equilibrio si la vertical trazada por el centro de gravedad pasa por el punto de suspensión.

· Cuerpo apoyado en una recta

Hay equilibrio si la vertical trazada por el centro de gravedad pasa por la recta de sustentación o es paralela a ella.

· Cuerpo apoyado en un plano

Hay equilibrio si la vertical trazada por el centro de gravedad cae en la base de sustentación


Equilibrio en los líquidos

La superficie de los líquidos es siempre plana y horizontal. Esto es porque tienen libres sus moléculas y sobre cada una de ellas actúa la gravedad. El equilibrio es estable, cuando deja de actuar una fuerza, la superficie vuelve a ser plana. Cuando se dos líquidos que no se mezclan se juntan, el más pesado se sitúa debajo y la superficie de separación sigue siendo horizontal y plana.

La Presión

Es la fuerza que actúa sobre una superficie determinada y se puede representar así:

Donde p presión es la directamente proporcional a la fuerza e inversamente proporcional a la superficie S. Para medir la presión se puede usar el kilogramo fuerza por cm2. La unidad de medida es el bar, en meteorología se usa el milibar, que es una milésima de bar. Una atmósfera equivale a 1013 milibares.

Cuando se ejerce mayor presión es cuando hay menor superfície: por esto podemos clavar un aguja, cortar con unas tijeras o cuchillo, etc. Por el contrario aumentando la superficie disminuye la presión y no nos hundimos: esquíes para nieve, ruedas de tractor, etc.

Gravitación Universal

La Ley de la Gravitación Universal o Principio de Newton suscitó reticencias al aparecer. No fue hasta que Halley necesitó averiguar sobre el movimiento de los planetas que Newton volvió a plantear su Principia. De la idea de una manzada que cae del árbol, atraída por la gravedad, surge otra que sobre el poder de atracción va más allá de la manzana y afecta a la luna y demás astros.

lunes, 26 de mayo de 2008

GRÁFICOS

MEDIDAS DE DISPERSIÓN II

Medidas de dispersión

Parámetros estadísticos que miden cómo de diseminados se encuentran los datos de una distribución. Los más utilizados se refieren al grado de lejanía de los datos respecto a la media y son la desviación media, la varianza, la desviación típica y el coeficiente de variación.
La desviación media, D.m., es un promedio de los valores absolutos de las desviaciones, xi - ÷, de cada elemento, xi, de la distribución respecto a su media, ÷:





Por ejemplo, en la distribución 4, 6, 6, 7, 9, 11, 13, cuya media es 8, la desviación media es:





La varianza, V, es el promedio de los cuadrados de las desviaciones, (xi - ÷)2, de cada elemento, xi, respecto a la media, ÷:





La fórmula anterior es equivalente a esta otra:



que resulta más cómoda de aplicar, sobre todo cuando la media, ÷, no es un número entero.


En la distribución 4, 6, 6, 7, 9, 11, 13, de media 8, la varianza es:



Aplicando la segunda fórmula se obtiene, obviamente, el mismo resultado:


La desviación típica o desviación estándar
es la raíz cuadrada de la varianza:



La razón de ser de este parámetro es conseguir que la medida de dispersión se exprese en las mismas unidades que los datos a los que se refiere. Por ejemplo, en una distribución de estaturas en la que los datos están dados en centímetros (cm), la media viene dada en centímetros, pero la varianza en centímetros cuadrados (cm2). Para evitar este inconveniente se calcula su raíz cuadrada, obteniéndose así la desviación típica en centímetros.
El par de parámetros formado por la media y la desviación típica (÷, ó) aporta una información suficientemente buena sobre la forma de la distribución.
El coeficiente de variación, C.V., es el cociente entre la desviación típica y la media de la distribución:


Este parámetro sirve para relativizar el valor de la desviación típica y así poder comparar la dispersión de dos poblaciones estadísticas con gamas de valores muy discretas. Por ejemplo, si en una compañía mexicana los salarios de los empleados tienen una media ÷1 = 7.000 pesos y una desviación típica ó1 = 500 pesos y en otra empresa española la media de los salarios es ÷2 = 200.000 pesetas y la desviación típica ó2 = 40.000 pesetas, para comparar la dispersión de salarios se recurre al coeficiente de variación:
C.V.1 = 500/7.000 = 0,07
C.V.2 = 40.000/200.000 = 0,2
Se aprecia así que en la primera compañía los salarios tienen menor dispersión que en la segunda.
Otras medidas de dispersión son el recorrido y el recorrido intercuartílico.
El recorrido es la diferencia entre los valores mayor y menor de la distribución. Indica, pues, la longitud del tramo en el que se hallan los datos. También se llama rango.

DISTRIBUCIÓN DE FRECUENCIAS

Distribución de Frecuencias:
Tabla de datos, referentes a una variable en cuestión, en la que se exponen varias categorías de la misma, junto con sus frecuencias o número de veces que se repite en la muestra (puede expresarse también en porcentaje). La tabla puede tener diferentes formatos y es llamada tabla de frecuencias. Cuando se comparan la frecuencia de dos variables, se compone una tabla de contingencia, en la cual una variable ocupa las filas y la otra las columnas.
Ejemplo de una tabla de frecuencias simple de la variable COMA, en sus categorías: Ausente y Presente. (SPSS).

Gráfico de barra

Si se unen los puntos medios de la base superior de los rectángulos se obtiene el polígono de frecuencias.
Gráfico de pastel

MEDIDAS DE DISPERSIÓN

Medidas de variabilidad o dispersión

Los estadísticos de tendencia central o posición nos indican donde se sitúa un grupo de puntuaciones. Los de variabilidad o dispersión nos indican si esas puntuaciones o valores están próximas entre sí o si por el contrario están o muy dispersas.
Una medida razonable de la variabilidad podría ser la amplitud o rango, que se obtiene restando el valor más bajo de un conjunto de observaciones del valor más alto. Es fácil de calcular y sus unidades son las mismas que las de la variable, aunque posee varios inconvenientes:
No utiliza todas las observaciones (sólo dos de ellas);
Se puede ver muy afectada por alguna observación extrema;
El rango aumenta con el número de observaciones, o bien se queda igual. En cualquier caso nunca disminuye.

miércoles, 16 de abril de 2008

MEDIDAS DE POSICIÓN

MEDIDAS DE POSICIÓN, MEDIDAS DE TENDENCIA CENTRAL O PROMEDIOS

Un promedio permite resumir en un solo dato toda la información proveniente de la observación de un fenómeno.
Las medidas de posición o de tendencia central o promedios son:

a) Media Aritmética
b) Mediana
c) Modo
d) Media Geométrica
e) Media Armónica

LA MEDIA

La primera de estas constantes es la media o promedio aritmético. Esta es la constante que la mayor parte de las personas tienen presente cuando usan la palabra promedio. Es el cociente que se obtiene al dividir la suma de las observaciones o números por el número de observaciones. Por ejemplo, la media aritmética de los números 3, 7, 8, 6, y 4 es: (3+7+8+6+4)/ 5, o sea 28/5=5,6.
Si se observa más detenidamente, se verá que cada uno de estos números ha tenido igual peso en la determinación de la media, lo cual revela una importante propiedad de la constante. Si la media de todos los valores es restada de cada uno de ellos y se suman algebraicamente las diferencias así obtenidas, o las desviaciones como también se las llama, se tiene que dicha suma es igual a cero. Por lo tanto, la media es un valor tal que la suma de las desviaciones positivas respecto de ellas es igual a la suma de las desviaciones negativas. Dicho de otra manera, es en realidad el centro de gravedad de la distribución. Ejemplo:

Valor menos media Desviación

3 – 5,6 - 2,6
7 – 5,6 + 1,4
8 – 5,6 + 2,4
6 – 5,6 + 0,4
4 – 5,6 - 1,6
_____________
- 4,2 + 4,2

Se ve inmediatamente que: - 4,2 + (+ 4,2) = 0. Si la distribución es moderadamente simétrica, es decir, la agrupación de las frecuencias a cada lado de la media es similar, esta constante coincide con el concepto usual de centro.


LA MEDIANA

Si la distribución es asimétrica, el punto más alto en la curva no corresponde a la media o centro de la distribución. La media aritmética estaría situada bastante a la derecha de tal punto. Para tales distribuciones corresponde considerar una segunda constante de posición, que es la mediana. Esta constante, como lo indica su nombre, secciona la distribución por la mitad, es decir, es un valor que divide el número de observaciones en dos partes iguales. Así, el valor que separa la serie 3, 7, 8, 6, 4 en dos partes iguales es 6, pues 3 y 4 son menores que 6, y 7 y 8 son mayores que 6, como se puede ver fácilmente ordenando los números en orden creciente: 3, 4, 6, 7, 8.
Cuando el número de nuestra serie de valores es par, hay cierta incertidumbre en la definición de la mediana, pues en tal caso no hay en la serie ningún valor que la divida en dos mitades. Será suficiente en tal caso adoptar como mediana cualquier valor comprendido entre las dos mitades centrales. Mejor aún, se conviene en considerar como mediana en tal caso la media aritmética de los dos valores centrales. Por ejemplo, si la serie de valores es 2, 3, 4, 6, 7 y 8, la mediana será (4+6) / 2 = 5.


EL MODO

La tercera constante, el modo, se emplea frecuentemente en estadística económica y es poco usada tratándose de datos médicos o biológicos. Por definición, es el valor de la magnitud observada a la cual corresponde mayor frecuencia.

Antes de considerar otros métodos para calcular constantes de posición, debemos estudiar su uso en la práctica. Por ejemplo, en qué casos se utilizan las constantes anteriores?. La media aritmética es la constante de posición que deberá elegirse, excepto en el caso de distribuciones asimétricas. La mayor parte de la teoría relativa a pruebas de significación está basada en el uso de la media aritmética como centro de la distribución. Tiene las siguientes ventajas: 1) se calcula fácilmente; 2) es comprendida por todos, y 3) cada observación de la distribución contribuye a ella con igual peso. Sin embargo, el centro no es descrito adecuadamente cuando la distribución en estudio es asimétrica. Buenos ejemplos de tal clase de mediciones en relación con datos médicos y biológicos son: recuento de bacterias en leche; recuento de huevos en infecciones helmínticas intestinales, y registro de datos sobre incidencia de enfermedades infecciosas. Por ejemplo, una lechería podría exhibir recuentos muy bajos para veinte de los veintiún recuentos efectuados en un mes. El recuento vigésimo primero podría, sin embargo, ser del orden de los millones de bacterias. La inclusión de este último valor en el promedio elevaría la medía apreciablemente; en cambio, no tendría influencia en el cálculo de la mediana. Por lo tanto, y como regla general, la mediana debe usarse cuando los datos incluyen ocasionalmente valores extremos o cuando la distribución es marcadamente asimétrica. A menos que esté claramente contraindicado, la media aritmética será, en general, la constante que deberá elegirse.
Existen varios métodos para el cálculo de estas constantes. El método particular que deberá usarse dependerá principalmente de la cantidad de datos que hayan de ser analizados. Si deben estudiarse menos de cincuenta observaciones, se usarán los datos originales sin previa agrupación. Si hay más de cien datos, serán en general agrupados en forma de una distribución de frecuencias, y las constantes se calcularán por la tabla de datos así agrupados. Si el número de datos está entre cincuenta y cien, podrá usarse uno u otro procedimiento según las comodidades de equipo de que se disponga.

Calcular la media:

a) Sin agrupación de datos

Se tienen los siguientes ingresos de un grupo de 30 trabajadores en dólares:

116 – 146 – 136 – 119 – 106 – 118
118 – 153 – 143 – 122 – 116 – 139
127 – 106 – 145 – 129 – 120 – 122
130 – 114 – 146 – 133 – 124 – 141
133 – 131 – 144 – 146 – 133 – 141

b) Con agrupación de datos: 1) Tabla simple de frecuencias, 2) Distribución de frecuencias en intervalos de clase.

miércoles, 2 de abril de 2008

Chequen mi Slide Show

PRIMEROS EJERCICIOS

1-. Un conjunto de datos consta de 38 observaciones ¿cuántas clases recomendaría?

2-. Un conjunto de datos consiste en 45 observaciones, desde $0 a $29 (pesos). ¿qué tamaño del intervalo recomendaría?

3-. Un conjunto de datos consta de 230 observaciones que oscilan desde $235 a $567 (pesos) ¿Qué intervalo de clase recomendaría?

4-. Un conjunto de datos contiene 53 observaciones. El valor más bajo es 42 y el más grande es 129. los datos deben organizarse en una distribución de frecuencias.
a) ¿Cuál sería el límite inferior de la primera clase, que sugeriría?
b) ¿Cuántas clases podrían proponerse?

5-. El director del programa de honores en la Western Universty tiene 16 solicitudes para su admisión el próximo otoño. Las calificaciones de la prueba ACT de los solicitantes son:
27 27 27 28 27 25 25 28 26 28 26 28 31 20 26 26
a) ¿Cuántas clases recomendaría?
b) ¿Qué intervalo de clase sugeriría?
c) ¿Cuál es el límite inferior que recomendaría para la primera clase?
d) Organice las calificaciones en una distribución de frecuencias y determine la distribución de frecuencias relativas.
e) Comente acerca de la forma de la distribución.

viernes, 14 de marzo de 2008

ALGUNAS DEFINICIONES

Estadística

La palabra estadística tiene tres acepciones:

1) Sinónimo de ESTADÍSTICAS. (Datos ordenados y clasificados con un determinado criterio).
2) Sinónimo de ESTADÍSTICA-MATEMÁTICA. (Estudia los fenómenos regidos por el azar).
3) Sinónimo de TÉCNICAS O MÉTODOS ESTADÍSTICOS.

Las técnicas o métodos estadísticos, recogen, ordenan, clasifican, presentan información y obtienen conclusiones. Se dividen en dos:

ESTADÍSTICA DESCRIPTIVA O DEDUCTIVA: trabaja con la población. Permite conocer la estructura de la población en estudio. Va de lo general a lo particular.

ESTADÍSTICA INDUCTIVA: estudiando la muestra sacamos conclusiones con respecto a la población. Va de lo particular a lo general.

POBLACIONES O UNIVERSOS: se llama universo o población (N), al conjunto de elementos, cosas o personas. (con una o más características en común).

MUESTRA (n): es una parte representativa de la población en estudio.

Características de una población:

a) Medibles (cuantitativas): VARIABLE

b) No medibles (cualitativas): ATRIBUTO

VARIABLE: es una característica medible de una población.

ATRIBUTO: es una característica no medible de una población.

Tipos de variables:

Continuas: una variable es continua, cuando dentro del intervalo en que está definida puede tomar infinitos valores. Admite fracción.

Discontinuas o discretas: una variable es discontinua o discreta, cuando dentro del intervalo en que está definida puede tomar solo algunos valores. No admite fracción.

Temporales (series cronológicas): cuando las estudiamos en períodos sucesivos de tiempo.

Atemporales: cuando las estudiamos en un momento determinado.

viernes, 8 de febrero de 2008

HISTORIA DE LA ESTADÍSTICA *

Los comienzos de la estadística pueden ser hallados en el antiguo Egipto,
cuyos faraones lograron recopilar, hacia el año 3050 antes de Cristo,
prolijos datos relativos a la población y la riqueza del país. De acuerdo al
historiador griego Heródoto, dicho registro de riqueza y población se hizo
con el objetivo de preparar la construcción de las pirámides. En el mismo
Egipto, Ramsés II hizo un censo de las tierras con el objeto de verificar un
nuevo reparto.
En el antiguo Israel la Biblia da referencias, en el libro de los Números, de
los datos estadísticos obtenidos en dos recuentos de la población hebrea. El
rey David por otra parte, ordenó a Joab, general del ejército hacer un censo
de Israel con la finalidad de conocer el número de la población.
También los chinos efectuaron censos hace más de cuarenta siglos. Los
griegos efectuaron censos periódicamente con fines tributarios, sociales
(división de tierras) y militares (cálculo de recursos y hombres disponibles).
La investigación histórica revela que se realizaron 69 censos para calcular
los impuestos, determinar los derechos de voto y ponderar la potencia
guerrera.
Pero fueron los romanos, maestros de la organización política, quienes
mejor supieron emplear los recursos de la estadística. Cada cinco años
realizaban un censo de la población y sus funcionarios públicos tenían la
obligación de anotar nacimientos, defunciones y matrimonios, sin olvidar los
recuentos periódicos del ganado y de las riquezas contenidas en las tierras
conquistadas. Para el nacimiento de Cristo sucedía uno de estos
empadronamientos de la población bajo la autoridad del imperio.
Durante los mil años siguientes a la caída del imperio Romano se realizaron
muy pocas operaciones Estadísticas, con la notable excepción de las
relaciones de tierras pertenecientes a la Iglesia, compiladas por Pipino el
Breve en el 758 y por Carlomagno en el 762 DC. Durante el siglo IX se
realizaron en Francia algunos censos parciales de siervos. En Inglaterra,
Guillermo el Conquistador recopiló el Domesday Book o libro del Gran
Catastro para el año 1086, un documento de la propiedad, extensión y valor
de las tierras de Inglaterra. Esa obra fue el primer compendio estadístico de
Inglaterra.
Aunque Carlomagno, en Francia; y Guillermo el Conquistador, en Inglaterra,
trataron de revivir la técnica romana, los métodos estadísticos
permanecieron casi olvidados durante la Edad Media.
Durante los siglos XV, XVI, y XVII, hombres como Leonardo de Vinci,
Nicolás Copérnico, Galileo, Neper, William Harvey, Sir Francis Bacon y René
Descartes, hicieron grandes operaciones al método científico, de tal forma
que cuando se crearon los Estados Nacionales y surgió como fuerza el
comercio internacional existía ya un método capaz de aplicarse a los datos
económicos.
Para el año 1532 empezaron a registrarse en Inglaterra las defunciones
debido al temor que Enrique VII tenía por la peste. Más o menos por la
misma época, en Francia la ley exigió a los clérigos registrar los bautismos,
fallecimientos y matrimonios. Durante un brote de peste que apareció a
fines de la década de 1500, el gobierno inglés
comenzó a publicar estadísticas semanales de los decesos. Esa costumbre
continuó muchos años, y en 1632 estos Bills of Mortality (Cuentas de
Mortalidad) contenían los nacimientos y fallecimientos por sexo. En 1662, el
capitán John Graunt usó documentos que abarcaban treinta años y efectuó
predicciones sobre el número de personas que morirían de varias
enfermedades y sobre las proporciones de nacimientos de varones y
mujeres que cabría esperar. El trabajo de Graunt, condensado en su obra
Natural and Political Observations...Made upon the Bills of Mortality
(Observaciones Políticas y Naturales ... Hechas a partir de las Cuentas de
Mortalidad), fue un esfuerzo innovador en el análisis estadístico.
Por el año 1540 el alemán Sebastián Muster realizó una compilación
estadística de los recursos nacionales, comprensiva de datos sobre
organización política, instrucciones sociales, comercio y poderío militar.
Durante el siglo XVII aportó indicaciones más concretas de métodos de
observación y análisis cuantitativo y amplió los campos de la inferencia y la
teoría Estadística.
Los eruditos del siglo XVII demostraron especial interés por la Estadística
Demográfica como resultado de la especulación sobre si la población
aumentaba, decrecía o permanecía estática.
En los tiempos modernos tales métodos fueron resucitados por algunos
reyes que necesitaban conocer las riquezas monetarias y el potencial
humano de sus respectivos países. El primer empleo de los datos
estadísticos para fines ajenos a la política tuvo lugar en 1691 y estuvo a
cargo de Gaspar Neumann, un profesor alemán que vivía en Breslau. Este
investigador se propuso destruir la antigua creencia popular de que en los
años terminados en siete moría más gente que en los restantes, y para
lograrlo hurgó pacientemente en los archivos parroquiales de la ciudad.
Después de revisar miles de partidas de defunción pudo demostrar que en
tales años no fallecían más personas que en los demás. Los procedimientos
de Neumann fueron conocidos por el astrónomo inglés Halley, descubridor
del cometa que lleva su nombre, quien los aplicó al estudio de la vida
humana. Sus cálculos sirvieron de base para las tablas de mortalidad que
hoy utilizan todas las compañías de seguros.
Durante el siglo XVII y principios del XVIII, matemáticos como Bernoulli,
Francis Maseres, Lagrange y Laplace desarrollaron la teoría de
probabilidades. No obstante durante cierto tiempo, la teoría de las
probabilidades limitó su aplicación a los juegos de azar y hasta el siglo XVIII
no comenzó a aplicarse a los grandes problemas científicos.
Godofredo Achenwall, profesor de la Universidad de Gotinga, acuñó en 1760
la palabra estadística, que extrajo del término italiano statista (estadista).
Creía, y con sobrada razón, que los datos de la nueva ciencia serían el
aliado más eficaz del gobernante consciente. La raíz remota de la palabra se
halla, por otra parte, en el término latino status, que significa estado o
situación; Esta etimología aumenta el valor intrínseco de la palabra, por
cuanto la estadística revela el sentido cuantitativo de las más variadas
situaciones.
Jacques Quételect es quien aplica las Estadísticas a las ciencias sociales.
Este interpretó la teoría de la probabilidad para su uso en las ciencias
sociales y resolver la aplicación del principio de promedios y de la
variabilidad a los fenómenos sociales. Quételect fue el primero en realizar la
aplicación práctica de todo el método Estadístico, entonces conocido, a las
diversas ramas de la ciencia.
Entretanto, en el período del 1800 al 1820 se desarrollaron dos conceptos
matemáticos fundamentales para la teoría Estadística; la teoría de los
errores de observación, aportada por Laplace y Gauss; y la teoría de los
mínimos cuadrados desarrollada por Laplace, Gauss y Legendre. A finales
del siglo XIX, Sir Francis Gaston ideó el método conocido por Correlación,
que tenía por objeto medir la influencia relativa de los factores sobre las
variables. De aquí partió el desarrollo del coeficiente de correlación creado
por Karl Pearson y otros cultivadores de la ciencia biométrica como J. Pease
Norton, R. H. Hooker y G. Udny Yule, que efectuaron amplios estudios sobre
la medida de las relaciones.
Los progresos más recientes en el campo de la Estadística se refieren al
ulterior desarrollo del cálculo de probabilidades, particularmente en la rama
denominada indeterminismo o relatividad, se ha demostrado que el
determinismo fue reconocido en la Física como resultado de las
investigaciones atómicas y que este principio se juzga aplicable tanto a las
ciencias sociales como a las físicas.

* Manual de Estadística- David Ruiz Muñoz - Editado por eumed·net 2004

¿Cuál es la relación entre Física y medioambiente? por Francisco Jaque *


Desde que en 1827 el matemático francés Fourier observó (se supone que tijeras de podar en mano) que ciertos gases, en particular el dióxido de carbono, retienen el "calor atmosférico" dentro de los invernaderos o más tarde, el Premio Nobel de 1903, el físico sueco Arrhenius, construye la teoría general del efecto invernadero y del calentamiento planetario, la Física y el Medioambiente iniciaron, como pareja de hecho, una fructífera colaboración que dura hasta nuestros días.



¿Cuál es la relación entre Física y medioambiente?Vamos a ver: la presencia de la Física en el medioambiente y en las técnicas de control y medición de contaminantes se centra en tres áreas: el Sol, la Atmósfera, alta y baja (estratosfera y troposfera), y la Tierra.

Si consideramos la Atmósfera, nos adentramos en la Física de Fluidos. ¿Porqué?, pues por que si hablamos de la contaminación atmosférica, esta se desplaza según la Dinámica de la propia Atmósfera. Un ejemplo lo tenemos en la catástrofe de Chernobil, que sucede en Rusia pero que a los pocos días se detecta en Escocia, como consecuencia de un movimiento de masas de aire. De modo que conocer la Dinámica de la baja atmósfera, aquella que va desde el suelo hasta los 10.000 m. de altura, es fundamental para entender y predecir accidentes en nuestro medioambiente. Pero es que además, la contaminación atmosférica está "globalizada": puede existir un crecimiento del agujero de Ozono localizado en el centro de Europa (en el Hemisferio Sur es donde este fenómeno se manifiesta de manera más contundente) que, en pocas semanas, se desplace hasta el hemisferio Sur. Y para conocer la Mecánica de Fluidos tienes que conocer, a su vez, las bases fundamentales de la Física: las leyes de la Mecánica; de la Conservación de la Cantidad de movimiento, Momento angular, de la Energía así como otros procesos físicos como la propagación de Ondas sonoras y electromagnéticas, etc., etc. Otro ejemplo: caso Prestige. Para conocer los desplazamientos de las corrientes marinas, que determinarán el desplazamiento a su vez de las manchas de petróleo, se emplean métodos físicos, de los que hablaremos después.Has citado la capa de Ozono.... Si, la contaminación en el mar o en la atmósfera pertenece a la Física Troposférica. Pero si miramos la Estratosfera, nos encontramos con la capa de Ozono que, como sabéis, es un absorbente de la radiación ultravioleta. En este caso entonces estamos hablando de radiaciones electromagnéticas, del conocimiento de las ondas electromagnéticas, que representan el movimiento de los campos eléctricos y magnéticos. De manera que, para conocer el daño que se está produciendo en la Capa de Ozono, usamos una gran variedad de procesos físicos: absorción, intensidad de la radiación, espectro electromagnético, etc. De nuevo, Física. Un problema más global: el calentamiento de la Tierra y por tanto el cambio climático. Ahí la Física está tan implicada que vale la pena hacer un poco de historia sobre las personas que, en su momento, señalaron el camino: En 1827, el matemático francés Fourier, observa, por primera vez, que ciertos gases, en particular el dióxido de carbono, retienen el “calor atmosférico”. Este fenómeno es similar al que él mismo ha visto en los invernaderos y por ello crea el termino "effet de serre". Desde entonces, el "efecto invernadero" ha sido el nombre utilizado para designar este fenómeno. Tyndall, físico irlandés de finales del XIX, destacado por sus investigaciones sobre la dispersión de la luz a través de las suspensiones coloidales y de sus estudios sobre el deshielo, profundiza en el estudio del clima y observa que gases como el CO2 presentes en la atmósfera absorben la radiación infrarroja, que es aquella que emite la Tierra, y por tanto pueden afectar al equilibrio térmico de nuestro Planeta. Y el tercero, el que realmente organiza toda la teoría del efecto invernadero y del calentamiento planetario, es el Premio Nobel de 1903, el sueco Arrhenius, un físico que trabaja en electroquímica. De manera que fíjate si la Física tiene presencia en el conocimiento del medioambiente. Sí, da la impresión de que la Física ha tenido una importancia decisiva....Y la tiene...... Para hacer todo ese cálculo uno se apoya en la emisión del “cuerpo negro”, ya sea del Sol o de la Tierra, como “cuerpo negro” imperfecto como consecuencia de la presencia de los gases de efecto invernadero.....Ahí me he perdido.... Bueno, un “cuerpo negro” es un cuerpo que emite toda la radiación igual que absorbe toda la radiación que le llega. La potencia P radiada por un cuerpo negro perfecto viene dada por la ley de Stefan: P = sT4 en donde T es la temperatura en grados kelvin y s la constante de Stefen-Boltzmann. La radiación electromagnética que emite tiene su máxima intensidad a una longitud de onda (expresada en µ) dada por la ley de Wien: I ~ 3000/T . Así como la superficie del Sol se encuentra a una temperatura de ~ 6000 K su máxima intensidad se emite para una longitud de onda de 0.5 µ que corresponde al verde. Por otro lado, la superficie de la Tierra se encuentra a una temperatura media de ~290 K y por lo que emite una radiación cuyo máximo está centrado alrededor de 10 µ. Por tanto, si existen gases en la atmósfera que absorben esta radiación la energía emitida por la tierra se mantiene dentro de ella produciendo un sobrecalentamiento. Este fenómeno es el denominado Efecto Invernadero. Entiendo.......Yo mismo a finales de agosto y en bañador....Ja, ja, ja.....¡sí, algo parecido!Perdóname....Nos habíamos quedado en la Estratosfera....¡tenemos un vehículo por cada tres habitantes, trece veces más que hace sólo 35 años!...Bueno, hay, dentro del medioambiente, otros tipos de contaminación que también conciernen a la Física. El ruido es uno de ellos, una onda sonora que como sabes se mide en decibelios (dB). Una contaminación muy peligrosa, por cierto y cuyo principal causante en las ciudades es el tráfico (¡tenemos un vehículo por cada tres habitantes, trece veces más que hace sólo 35 años!...). Fíjate, nosotros aquí, ahora, estamos a 50/60 dB. Una iglesia o sala de conciertos (sin público ni músicos, claro), puede tener un nivel sonoro de 20/30 dB. Pero si recibes un ruido en tu oído que viene de fuera, o de dentro, y que se llama tinítus que padece mucha gente (¡yo, por ejemplo!), con solo 10 decibelios, menos ruido que el que hace una hoja al caer, te puedes volver loco si tu sistema de defensa no lo puede rechazar.... ¿Debo pensar que estoy ante el típico “físico loco”?...... Si....¡Digo, no!....A ver, no nos dispersemos..... Finalmente está la contaminación radioactiva, que entra también de lleno en el campo de la Física. Por una parte, estamos sometidos a los rayos cósmicos y, por otra, utilizamos la radioactividad para aplicaciones médicas y producir energía, hoy de fisión y, probablemente en el futuro, de fusión. No obstante, este campo está muy solapado con el área de la Química.Me estaba preguntando si un conocimiento tan detallado del medioambiente realmente nos protege frente al futuro........los países pobres venden su potencial contaminante a los países ricos o industrializados...Hombre, yo creo que el conocimiento físico profundo sí que sirve para concienciar a la gente....... Aunque es cierto que todavía estamos lejos de cumplir los acuerdos de Kioto. Fíjate que hoy en día, que se compra y se vende todo, también se compra la cuota de emisión de contaminantes que, en virtud precisamente de estos acuerdos, tenemos los países. Es decir, los países pobres venden su potencial contaminante a los países ricos o industrializados, simplemente porque son pobres, porque carecen de industria y, por lo tanto, de capacidad para contaminar. Esta inercia hay que romperla más pronto que tarde....¿Hay algún proyecto de investigación en el que trabajes actualmente? Actualmente trabajo en un estudio sobre la relación entre la contaminación atmosférica y el fallecimiento por enfermedades respiratorias en la Comunidad de Madrid. Y la verdad es que es impresionante: hemos encontrado que un pequeño aumento de 10 µgr/m3 de Ozono produce un aumento en el número de fallecimientos por causas respiratorias del 14% en personas mayores de 65 años.¿Pero no habíamos quedado en que la contaminación ha disminuido?.....Bueno, la contaminación, en contra de lo que pudiera parecer, no ha disminuido. Más bien ha aumentado. Es decir, ha disminuido la concentración de SO2, de partículas, de óxidos de Nitrógeno, y componentes orgánicos volátiles.....pero el Ozono ha aumentado. Este es un contaminante atmosférico indirecto porque proviene de una reacción de los óxidos de Nitrógeno y de los componentes orgánicos bajo la radiación Ultravioleta solar.(¡Glup!) ¿Y qué es lo que podemos hacer? La verdad es que no es muy halagüeño el futuro... Hombre, yo creo que hay que encontrar una fuente de energía no contaminante. El gran problema es el calentamiento del planeta a lo que contribuyen, principalmente, el transporte, la industria y centrales térmicas. Y solo hay dos energías importantes posibles: la fusión y la fisión. Hay otra menos importante, aunque significativa, que es la energía eólica. La fisión, la energía que se libera con la desintegración del átomo, la energía atómica, tiene muy mala prensa por la supuesta inseguridad de las centrales nucleares y sobre todo por el problema de los residuos radioactivos, etc.......Sin embargo, a pesar de todo, es la energía mejor de que disponemos ahora y, muy al contrario de lo que estamos haciendo, deberíamos seguir investigando en residuos y seguridad nuclear hasta tener a punto la otra gran energía, por fusión, para la que todavía es necesario que pasen bastantes años.Sí, eso lo he leído o me lo ha comentado algún otro físico.....¡No pasáis una!, ¿eh?....Qué nos queda.....¡Ah, sí! Las técnicas físicas que se aplican para todo esto.... La Física tiene una importancia enorme en las técnicas de detección de contaminantes atmosféricos. La mayoría de las técnicas que hoy en día se están utilizando para medir, in situ, los contaminantes atmosféricos son técnicas físicas. Si empezamos por el Ozono, observamos como el aumento en la precisión de las técnicas actuales ha influido mucho en la percepción de los problemas. Hasta hace poco se pensaba que 120 microgramos de metros cúbicos de Ozono no eran peligrosos. Hoy sabemos, precisamente mediante técnicas de absorción ópticas, que variaciones de 10 microgramos son importantes en el nivel de contaminación para considerarlas nocivas (¡ten en cuenta que estamos hablando de partes por billón de Ozono!. Para que te hagas una idea, lo que representaría un solo blanco entre una población de mil millones de negros....). ...el aumento en la precisión de las técnicas actuales ha influido mucho en la percepción de los problemas.Para medir la concentración de los óxidos de Nitrógeno se utilizan métodos por quimiluminiscencia; el SO2, por fotoluminiscencia, también una técnica física; para medir la concentración de partículas se utilizan técnicas de absorción beta o técnicas de dispersión de luz..... No obstante, en los últimos años adquiere mucha importancia la detección remota, la que se utiliza para medir los contaminantes a gran distancia. La utilización de la emisión Láser es muy utilizada en las técnicas remotas: un pulso de luz Láser, muy potente, puede viajar muchos Km. Pues bien, ese rayo de luz, al devolverlo la atmósfera, trae consigo información de lo que ha encontrado por el camino.
Hoy día estos láseres se empiezan a montar en satélites que posibilitan la medición de la contaminación en diferentes áreas del Mundo, incluido el mar. O en aviones, desde donde se puede medir si en una determinada área de un país está contaminada su flora, por ejemplo. A través de la excitación con radiación ultravioleta, las plantas emiten una luz de longitud de onda distinta si están sanas o contaminadas (si están sanas y tienen clorofila emiten en el rojo; si están dañadas, que se denomina estrés de las plantas, emiten en el azul).
Para la medición del ruido se utilizan materiales basados en los PZT, materiales cuyo fundamento está dentro de la Física. No hablemos ya de la radioactividad o de la fusión, es decir, la fabricación de plasma por confinamiento. Algo parecido a lo que se produce en el Sol, formación de plasma por millones de grados, y que nosotros tratamos de lograr por confinamiento magnético. Métodos físicos todos ellos, como verás.






* Catedrático del Departamento de Física de Materiales de la UAM. En la actualidad imparte clases de: Laboratorio de primer curso, así como las asignaturas Bases Físicas del Medioambiente y la optativa Luz y Medioambiente, en Ciencias Mediambientales.