· Los filósofos tratan de conocer la naturaleza de la realidad, tal como es, de forma veraz. · Los científicos transformando la realidad conocen, de forma objetiva, las leyes que rigen el movimiento de la materia.
Las leyes del movimiento de la materia son el objeto de estudio de las ciencias. La capacidad de conocimiento humana es ilimitada, no obstante, el conocimiento humano está históricamente determinado, por lo que la ciencia, igual en física, en biología, en economía-política o en cualquiera otra ciencia, no tiene respuestas para todos los fenómenos observables.
El principio de causalidad es fundamental en todas las ciencias, establece que todos los eventos están causados por otros anteriores, y que dicha causalidad se expresa en términos de leyes científicas. Una condición necesaria para que A sea causa de B, es que B sea un evento que pertenece al cono de luz de A, en términos de distancias espacio-temporales se dice que A y B están separados por intervalo temporaloide.
Las matemáticas son una creación del pensamiento humano, y su utilidad radica en interpretar cuantitativamente relaciones entre fenómenos observables, expresando de forma cuantificable las leyes del movimiento de la materia.
Leyes del movimiento de la materia En el sistema internacional de medidas, las unidades que miden las magnitudes físicas fundamentales de la materia y su movimiento son:
En la definición clásica la materia tiene tres propiedades, que juntas la caracterizan; ocupa un lugar en el espacio, tiene masa y tiene duración en el tiempo. En la física moderna se entiende por materia una dualidad partícula-onda, es decir, cualquier campo, entidad o discontinuidad traducible a fenómeno perceptible que se propaga a través del espacio-tiempo, incluyendo éste, a una velocidad igual o inferior a la de la luz y a la que se pueda asociar energía.
Materia inerte y movimiento La materia es un continuo espacio-temporal en expansión-contracción, en el que se desplazan perturbaciones discretas en forma de onda-partícula con masa, carga, color y sabor a una velocidad igual o inferior a la de la luz. El Universo conocido está formado por una dualidad espacio-tiempo y onda-partícula, un conjunto discontinuo de ondas-partículas en un continuo espacio-tiempo. El movimiento material es la expansión y la contracción del espacio-tiempo, y la variación de la posición, en el espacio, de la onda-partícula, a través del tiempo. La velocidad es la medición de la rapidez de dicho movimiento. Sin espacio-tiempo material es imposible el movimiento de la materia.
La materia como espacio-tiempo es enormemente elástica y de extraordinariamente escasa densidad. En la actualidad se desconoce qué sustancia material es el espacio-tiempo, pero existen dos características que lo describen; · La permeabilidad magnética del espacio vacío, µo = 4π · 10-7 ≈ 1,257 ∙ 10-6 N/A2 · La permitividad eléctrica del espacio vacío, εo = 107 / 4π · c2 ≈ 8,854 ∙ 10-12 F/m
Existen otras constantes universales que definen la relación existente entre el espacio-tiempo con la partícula-onda, entre otras; · La velocidad de la luz, c ≈ 299.792.458 m/s, es la constante que relaciona la permeabilidad y la permitividad del espacio-tiempo con la partícula-onda, estableciendo la velocidad máxima posible en el Universo observable, la relación se expresa mediante la ecuación:
· Constante de gravitación: G ≈ 6’674 · 10-11 N · m2/kg2 · Constante eléctrica: Ke ≈ 8,988 ∙ 109 N · m2/C2 · Constante magnética: Km ≈ 1 ∙ 10-7 N · s2/C2
Las constantes eléctrica y magnética están relacionadas mediante la velocidad de la luz con la ecuación:
Otras constantes de la materia y su movimiento son; · Constante de gravitación de Einstein: GE ≈ 1,886 · 10-26 m2 / Kg ∙ s · Constante de Hubble: H ≈ 6,801· 10-10 (m/s) / m · Constante de Planck: ℎ ≈ 6,626 ∙ 10-34 J · s · Constante reducida de Planck: ℏ = ℎ / 2 · Constante de Boltzmann: k ≈ 1,381 · 10-23 J / K · Constante de Avogadro: NA ≈ 6,022 · 1023 1 / mol · Constante de Faraday: F ≈ 9,649 · 104 C / mol La materia como onda-partícula tiene masa-campo gravitatorio, carga-campo electromagnético, color-campo nuclear fuerte y sabor-campo nuclear débil. Todo el movimiento en el Universo observable es el resultado de cuatro interacciones fundamentales consecuencia de los campos de la onda-partícula.
Debido al corto alcance de las fuerzas que actúan en el núcleo de los átomos los seres humanos no han desarrollado sentidos que pueda interaccionar con estas fuerzas a pesar de su intensidad, por lo que no puede existir una constatación empírica directa sobre su existencia. Su conocimiento es una interpretación puramente teórica. El modelo electro-débil es una teoría física que unifica la interacción débil y el electromagnetismo, dos de las cuatro fuerzas fundamentales de la naturaleza.
Por el principio cosmológico enunciado por Albert Einstein en 1915 se sabe que el Universo es homogéneo e isótropo. Edwin Hubble en 1929 demostró que el Universo está en expansión acelerada. Según datos obtenidos del Fondo Cósmico de Microondas la geometría del Universo es plana.
La teoría de un espacio-tiempo en expansión, junto con las leyes del movimiento de Newton, pone fin al idealismo platónico y a la metafísica aristotélica sobre un Universo estático, donde todo permanece en estado de reposo si no se le aplica una fuerza. El movimiento es absoluto y el reposo es relativo. El reposo es aparente y se produce en un sistema inercial cuando la resultante de fuerzas que intervienen es cero:
Isaac Newton unificó las leyes del movimiento de los planetas de Kepler. 1ª ley de Kepler, o ley de las órbitas de los planetas en torno al Sol; la órbita es una elipse con el Sol en uno de los focos:
Donde r es el radio vector desde el Sol al planeta, e es la excentricidad y d es a-e. L es el momento cinético, mp es la masa del planeta, mS es la masa del Sol. a es el semieje mayor, b el semieje menor.
2ª ley de Kepler, o ley de las áreas iguales en tiempos iguales; el radio vector que une un planeta y el Sol barre áreas iguales en tiempos iguales, que equivale al momento cinético L como el producto de la masa del planeta, su distancia al centro del Sol y su velocidad:
3ª ley de Kepler, o ley del período de la órbita de un planeta; establece que el cuadrado del período de un planeta es proporcional al cubo del semieje mayor
Ley de la aceleración de la gravedad en la Tierra; en el vacío todos los cuerpos caen con la misma aceleración constante, en la superficie de la Tierra se denomina g:
Donde g en el ecuador es de 9,7799 m/s2, mientras que en los polos es superior a 9,83 m/2, el valor que suele aceptarse para la aceleración de la gravedad a la hora de hacer cálculos es de 9,80665 m/s2, y u es el vector unitario.
Existen unas leyes fundamentales de la física conocidas como las leyes del movimiento de Newton y las leyes de la termodinámica, cuyo conocimiento y aplicación técnica son de una inmensa importancia económica. Permiten explicar tanto el movimiento de los astros en el firmamento, como los movimientos de los proyectiles artificiales creados por el ser humano, todo el funcionamiento mecánico de las máquinas, así como los límites de la evolución biológica y el origen de la ganancia capitalista.
1ª ley de Newton, o principio la inercia, enunciado por Descartes sobre los estudios de Galileo, establece que; todo cuerpo permanecerá en movimiento rectilíneo con velocidad uniforme, si no actúa una fuerza neta sobre él:
2ª ley de Newton, establece el concepto de fuerza , como toda causa capaz de modificar la cantidad de movimiento, de la forma de una partícula-onda o del espacio-tiempo. La fuerza es la influencia del resto del Universo sobre la parte del Universo objeto del estudio de su movimiento. Sí sobre un cuerpo actúa una fuerza neta experimentará, en la dirección de la fuerza, un cambio de velocidad en cuanto a módulo y/o dirección. La ecuación para calcular la fuerza es:
Un cuerpo con una gran masa ofrece una gran resistencia a acelerarse por lo que la masa se define como la medida de inercia de un cuerpo, la resistencia a variar su velocidad.
3ª ley de Newtono ley de acción y reacción; si sobre un cuerpo se aplica una fuerza este cuerpo aplica una fuerza igual en intensidad en la misma dirección y en sentido contrario.
En consecuencia, todas las fuerzas en la naturaleza actúan en pares, la existencia de una acción presupone la existencia de una reacción y, acción y reacción, son mutuamente excluyentes.
Esta es la dialéctica de la naturaleza descubierta por Newton; una masa ejerce una fuerza de atracción sobre otra masa, la misma fuerza de atracción es ejercida por la segunda masa sobre la primera, y, al mismo tiempo, ambas masas ofrecen una resistencia a dicha atracción. Por lo cual la menor masa sufre una mayor aceleración.
Newton consideraba la fuerza de la gravedad como una acción y reacción a distancia, e instantánea, de las masas. No fue hasta la teoría de la relatividad de Einstein que se supo que la fuerza de la gravedad es la curvatura del espacio tiempo producida, dicha curvatura, por la masa en una región del espacio.
De la misma forma, que Newton unificó las leyes de movimiento de Kepler y Galileo, James Clerk Maxwell, aprovechando el trabajo de Coulomb, Gauss, Ampere y Faraday, unificó las leyes del movimiento magnético y del movimiento eléctrico. Desde este momento se sabe que dos partículas, a una distancia mayor al radio del núcleo del átomo, se atraen o repelen con una fuerza:
De donde se deduce que una partícula-onda ejerce una fuerza de atracción o repulsión sobre otra partícula-onda, la misma fuerza de atracción o repulsión es ejercida por la segunda partícula-onda sobre la primera, y, al mismo tiempo, ambas partícula-ondas ofrecen una resistencia a dicha atracción o repulsión.
Con el aumento de la velocidad se producen los denominados fenómenos relativistas, determinados por el factor de Lorentz:
Lo que implica que; cuanto mayor es la velocidad de un cuerpo mayor es su inercia, y se hace necesaria una mayor fuerza para variar su velocidad. Existe una velocidad infranqueable; la velocidad de la luz, ya que es necesario aplicar una fuerza infinita para acelerar una masa que se mueve a la velocidad de la luz:
Cualquier objeto material está en movimiento cuya velocidad, en un sistema referencial, es igual o mayor que cero y menor o igual a la de la luz. Constituyendo éste uno de los límites del Universo observable:
La energía es una propiedad de la interacción de las partículas-ondas a través del espacio-tiempo. En la naturaleza existen dos tipos de energía mecánica, la energía potencial (U) y la cinética (K) que sumadas son constantes:
Donde g es el campo gravitatorio, en un punto del espacio, que interacciona con una partícula determinada. Junto a la ley de conservación de la energía existen otras dos leyes de conservación; la ley de conservación de la cantidad de movimiento y la ley de conservación del momento angular.
Se considera que la fuerza gravitatoria es siempre atractiva, no obstante, teniendo en cuenta la tercera ley de Newton y el descubrimiento de Einstein que la masa comprime el espacio curvándolo, cabe la posibilidad que el espacio ofrezca una resistencia a tal compresión. Se calcula g mediante la ecuación:
[Tienes que estar registrado y conectado para ver esa imagen] La compresión del espacio por el campo gravitatorio es representada como en la imagen de la izquierda, aunque la imagen de la derecha la refleja mucho mejor.
La energía es la capacidad de trabajo que tiene un cuerpo o sistema de cuerpos o, en otras palabras, un sistema físico posee energía cuando tiene capacidad para realizar un trabajo. La capacidad de realizar trabajo es inherente a todos los sistemas físicos, y a la vida en todas sus formas, se basa en la conversión, uso, almacenamiento y transferencia de energía. Se realiza trabajo cuando una fuerza desplaza un objeto una distancia determinada, todo movimiento implica un trabajo y se calcula:
El trabajo es la transformación de energía potencial en energía cinética y viceversa, pero, en apariencia, esta transformación no se produce al cien por cien, una parte se convierte en calor. La variación del calor de una sustancia está determinada por la masa, por la variación de temperatura y por el calor específico de la sustancia que compone la partícula:
La ley cero de la termodinámica establece que si dos sistemas, A y B, están en equilibrio termodinámico, y B está a su vez en equilibrio termodinámico con un tercer sistema C, entonces A y C se encuentran en equilibrio termodinámico. De esta ley se deduce el concepto de temperatura, un sistema se encuentra en equilibrio termodinámico con otro sistema estando a la misma temperatura.
[/b]La primera ley de la termodinámica[/b], también conocida como ley de la conservación de la energía, enuncia que la energía no se destruye, al variar la energía interna en un sistema, se produce calor y trabajo. La energía no se pierde, sino que se transforma. En su forma matemática más sencilla se puede escribir para cualquier sistema cerrado:
La segunda ley de la termodinámica indica la dirección en que se llevan a cabo las transformaciones energéticas. El flujo espontáneo de calor siempre es unidireccional, desde los cuerpos de temperatura más alta a aquellos de temperatura más baja. La segunda ley de la termodinámica, establece que ninguna máquina térmica puede transformar en energía mecánica todo el calor que se transfiere, de donde se deriva el concepto de eficiencia térmica η, el cual se define como la razón del trabajo obtenido y el calor que se le suministra:
Sadi Carnot demostró que el límite superior de calor que puede transformarse en trabajo depende de la diferencia de temperatura entre el depósito caliente y el depósito frío. La eficiencia para una máquina térmica de Carnot, se calcula mediante la ecuación:
Donde Tf y Tc son las temperaturas en grados kelvin de los depósitos a menor y mayor temperatura. En esta ley aparece el concepto de entropía, magnitud física que mide la parte de la energía que no puede utilizarse para producir un trabajo, cuya ecuación es:
La tercera ley de la termodinámica afirma que es imposible alcanzar una temperatura igual al cero absoluto, es decir a la ausencia de movimiento, mediante un número finito de procesos físicos, ya que a medida que un sistema se aproxima al cero absoluto, su entropía tiende a un valor constante especifico. A medida que el sistema se acerca al cero absoluto, el intercambio calórico es cada vez menor hasta llegar a ser casi nulo. Ya que el flujo espontáneo de calor es unidireccional, desde los cuerpos de temperatura más alta a los de temperatura más baja -Segunda ley-, sería necesario un cuerpo con menor temperatura que el cero absoluto, y esto es imposible.
Cualquier objeto material tiene una temperatura superior a cero grados kelvin. Constituyendo éste un límite del Universo observable.
Según la teoría cuántica, enunciada por Max Planck, la energía de una partícula es un múltiplo entero de la frecuencia de radiación por una constante:
E = n ∙ h ∙ f
Donde a la cantidad de energía elemental h ∙ f se la denomina cuanto de energía, ℎ es la constante de Planck, f es la frecuencia de onda, paso de una polaridad a otra y vuelta a la primera, en la unidad de tiempo, en el sistema internacional se mide en Hercios y n es un número entero. La energía mínima de una partícula se obtiene cuando n = 1 y f = 1 Hz.
El período se define como el tiempo que tarda una onda en realizar un ciclo, y se calcula:
La longitud de onda (λ) se define como la distancia que recorre la onda en un tiempo igual a un período. Dado que la distancia recorrida es igual a la velocidad por el tiempo, para las ondas electromagnéticas v = c:
La onda material tiene movimiento oscilatorio definido por la frecuencia de la onda, y movimiento ondulatorio definido por la longitud de la onda, cuyo producto es igual a la velocidad a la que se desplaza por el espacio:
La masa-energía del fotón es discreta y variable, estando relacionada con las características de la onda que genera. La mínima energía se produce cuando la longitud de onda del fotón es máxima: 299.792.458 m y la frecuencia es: 1 Hz, entonces:
E = h ∙ f = h
Dado que:
E = m ∙ c2
De donde se deduce que la velocidad mínima a la que se mueve una partícula-onda, si no se ejerce una fuerza neta sobre ella es:
Donde ε0 y µ0 son respectivamente la permeabilidad magnética y la permitividad eléctrica del espacio vacío. Que se corresponde con la masa mínima del fotón:
En los fotones con mayor energía la masa debe aumentar para que c permanezca constante. Si la partícula fotón no tiene masa, implica que su onda portadora es de longitud y frecuencia infinita:
De lo anterior se desprende que la masa-energía de una partícula es directamente proporcional a la frecuencia de onda asociada a dicha partícula. Por lo que la fuerza de atracción gravitacional que ejerce otra masa sobre un fotón es:
Por lo que, cuanto mayor es la masa de la otra partícula y menor la distancia la fuerza de atracción aumenta, hasta que llega un límite que impide que el fotón escape a la fuerza gravitatoria. Es el caso de los agujeros negros.
Los fotones no se atraen entre sí debido a la fuerza de inercia, puesto que los fotones no pueden acelerarse, aunque puede cambiar la longitud y la frecuencia de su onda portadora, así y como la masa y la energía de la partícula.
En consecuencia, la velocidad del movimiento de toda dualidad onda-partícula en el espacio-tiempo queda determinada por la ecuación:
Esta velocidad comparada con la del electrón en el átomo no excitado de hidrógeno: 2.188.000 m/s, da una idea de la fuerza que actúan sobre el electrón en el interior del átomo.
Para una masa como la del cuark abajo: 8,539 ∙ 10-30 Kg:
Toda partícula tiene asociada una onda, definida por la longitud de onda de Broglie. El electrón como onda solo puede existir en orbitales donde produzcan interferencias constructivas determinados por la ecuación:
2 ∙ Π ∙ r = n ∙ λ
Donde n es un número entero y λ es la longitud de onda de Broglie:
Estas son algunas de las leyes científicas del movimiento de la materia, leyes que se pueden comprobar midiendo y haciendo cálculos sobre la realidad material. No son leyes de movimiento de la materia las tesis subjetivas que la filosofía propone, imposibles de verificar midiendo y haciendo cálculos sobre la realidad objetiva. *El Modelo Estándar recoge todo el conocimiento actual en física de partículas, incluye la teoría de interacción fuerte (cromodinámica cuántica o QCD) y la teoría unificada de interacciones débil y electromagnética (electro-débil)
Subjetivismo cuántico En oposición al espacio-tiempo continuo que establece la teoría General de la Relatividad, para el subjetivismo cuántico el tiempo y el espacio son discretos.
El subjetivismo cuántico establece que no tiene sentido hablar de intervalos de tiempo más pequeños que un tiempo de Planck:
Distancia que recorre un fotón en un tiempo de Planck. En consecuencia, la historia del Universo debe contarse a partir del momento en que culmina el primer tiempo de Planck. Igualmente, el volumen del Universo se debe contar a partir de una longitud de Planck de radio. De lo que se desprende que el espacio-tiempo es discreto y no continuo, está “cuantizado” como la masa-energía. El subjetivismo cuántico parece contradecir el descubrimiento de los pitagóricos de un espacio continuo, y con éste el de los números irracionales. Podemos imaginar un espacio formado por cubos de una longitud de Planck de lado (lp), donde la materia desaparece en uno de estos cubos y aparece en otro cubo, adyacente o no, de forma instantánea o en un espacio de tiempo no menor de un tiempo de Planck, al calcular la distancia de la diagonal (d) de una de las caras que forman el cubo de Planck se obtiene:
Lo que implica la existencia de una distancia inferior a la distancia de Planck. Parece que no existe constatación empírica ni demostración teórica sobre la existencia de una distancia mínima, por lo que la afirmación de un espacio cuántico, donde la distancia mínima es la de Planck, es una estimación subjetiva.
Singularidad cuántica. Hipótesis del subjetivismo cuántico donde no se puede definir alguna magnitud física relacionada con los campos gravitatorios, tales como la curvatura. La Relatividad General predice la existencia de agujeros negros, y el subjetivismo cuántico presupone que en su centro existe una singularidad cuántica, un espacio puntual de radio = 0, donde la masa es infinita, no fluye el tiempo y, en consecuencia, no existe movimiento. La ausencia de movimiento en el Universo observable solo es posible si la masa es infinita:
Lo que implica un Universo donde la masa es continua, o una zona espacio-temporal de espacio-tiempo = 0, con una partícula de masa-energía = ∞, cuya onda tiene una longitud = 0 y frecuencia = ∞. Fenómeno hipotético que, según el subjetivismo cuántico, tiene lugar en las singularidades cósmicas. Es una de las hipótesis del estado del Universo anterior al Big Bang, un punto de masa infinita en el cual el espacio-tiempo se curva infinitamente hasta desaparecer.
Donald Page:
Según los teoremas de la singularidad de Hawking, la Teoría de la Relatividad General de Einstein implica que el Universo tuvo una singularidad al principio. La idea de Hawking indicaba que el Universo tenía un comienzo. En la formulación de la ausencia de límites de Hartle-Hawking, el tiempo es imaginario, y en vez de tener un borde es como si se tratara de la superficie del planeta Tierra. Suponiendo tiempo imaginario, el Universo no tuvo comienzo, no tiene límite, es una totalidad en sí mismo. [Tienes que estar registrado y conectado para ver este vínculo]
Tiempo imaginario. Hipótesis matemática de la ausencia de límites, recupera en parte la metafísica aristotélica, y propone la existencia de una cuarta dimensión espacial, que el espacio y el tiempo imaginario juntos forman una superficie finita en su extensión, pero sin fronteras ni bordes. En esta teoría, el espacio-tiempo sería un toroide parecido a la superficie de la Tierra, pero con dos dimensiones.
James Hartle, Tiempo imaginario:
Tiempo imaginario no se refiere a la imaginación: hace referencia a los números complejos. Como demostraron Einstein y Minkowsky, el espacio-tiempo constituye una geometría cuatridimensional. Es posible ir aún más lejos de estos conceptos. Si se miden las direcciones del tiempo utilizando números complejos, se obtiene una simetría total entre espacio y tiempo, que es, matemáticamente, un concepto muy bello y natural. [Tienes que estar registrado y conectado para ver este vínculo]
La mecánica cuántica presenta junto con una evolución determinista recogida en la ecuación de Schrödinger, una evolución no-determinista recogida en el postulado de la decoherencia cuántica. El subjetivismo en la interpretación de Copenhague de la mecánica cuántica, niega la posibilidad que se pueda conocer de forma objetiva la realidad.
El principio de incertidumbre; cuanto más exactamente se mide el momento de una partícula, mayor incertidumbre existe a la hora de determinar su posición. Para el subjetivismo cuántico, si se mide con absoluta precisión la velocidad de una partícula, implica que la partícula puede estar en cualquier parte del Universo. Debido al constante y permanente movimiento e interacción de la materia, existe cierta incertidumbre a la hora de calcular la posición de una partícula-onda en el espacio-tiempo. Toda partícula tiene asociada una onda que viene determinada por la longitud de onda de Broglie. Esta onda indica la probabilidad de que la partícula se encuentre en una posición dada:
La primera distancia es menor que la longitud de Planck, la segunda es inferior a la longitud de Planck. En consecuencia, según el subjetivismo cuántico, podemos calcular con completa seguridad la posición y la cantidad de movimiento de la Tierra y del paseante. Cosa imposible de realizar debido a la precisión de los instrumentos de medición. Con los instrumentos de medición actuales se puede establecer con razonable precisión la posición de una célula, incluso la posición de un átomo en una molécula. La incertidumbre cuántica hace referencia a la imposibilidad de medir a la vez y con exactitud la posición y la velocidad del fotón, del cuark en el núcleo atómico, del electrón en los orbitales atómicos y de los neutrinos. Para el subjetivismo cuántico la suma de múltiples incertidumbres subatómicas produce una gran exactitud macroscópica.
La incertidumbre en el cálculo de la posición (Δx) y del momento (Δp) viene definida por la inecuación:
El radio estimado para un átomo no excitado de hidrógeno es de 0,53 ∙ 10-10 m -radio atómico de Bohr-. La incertidumbre en el cálculo de la posición (Δx) de un electrón de 9’109 ∙ 10-31 Kg de masa y velocidad de 2.188.000 m/s, es tal que:
Donde p es la masa por la velocidad de la partícula. Hay que tener en cuenta los efectos relativistas, del aumento de la masa y la contracción de las distancias, con el aumento de la velocidad.
Cuando se diseña un experimento para establecer la posición de una partícula, existe incertidumbre en la longitud y la frecuencia de onda asociada y viceversa cuando se establece la longitud y frecuencia de onda existe incertidumbre en la posición de la partícula asociada, hasta que la fuerza de gravedad, la distancia (tamaño) o la interacción entre partículas hace despreciable la longitud y la frecuencia de onda. La mayor partícula donde se ha observado el comportamiento cuántico, dualidad partícula onda, es el fulereno, molécula de carbono, con una masa atómica de 720, la longitud de onda de Broglie es de 2,5 ∙ 10–12 m, mientras que el diámetro molecular es de 10–9 m, esto es, 47 veces mayor que el radio del átomo de Borhn.
Las partículas elementales se desplazan a velocidades tales que hay que tener en cuenta los efectos relativistas en el cálculo de su posición en el espacio a lo largo del tiempo.
La longitud en el sentido de desplazamiento del fotón; eje X es:
Para cualquier observador, independientemente de su velocidad, un fotón se mueve a velocidad constante = c y no podrá saber nada con respecto a qué posición ocupa en su longitud de onda, pero desde el punto de vista del fotón, éste se encuentra en reposo: si v = d ∙ t-1 = 0 ∙ ∞-1 = 0 m ∙ ∞ s-1. Un fotón se haya en un espacio de dos dimensiones, sin que fluya el tiempo.
Cualquier partícula al tener masa y/o carga eléctrica interacciona con el resto de partículas del Universo, esta interacción genera unas fuerzas que determinan su movimiento:
Donde m y q son la masa y la carga de la partícula y g y k son los campos gravitatorio y electrostático generados por el resto de masas y cargas del Universo, el movimiento de una partícula queda descrito por dichos campos que se calculan mediante las ecuaciones:
En el cálculo de la diferencia de potencial entre un punto y otro del espacio, de las magnitudes vectoriales g y k, más concretamente; en la medición del conjunto de masas, cargas y de las distancias que las separan, es dónde radica la dificultad de establecer la posición y el momento de una partícula.
Complementariedad cuántica se deduce del principio de incertidumbre y establece que no se puede observar a la vez la materia como onda y como partícula. Cuestiona que se pueda conocer la verdadera naturaleza de la realidad. Los resultados del experimento de la doble rendija de Afshar (2004-2005) lo parece desmentir, al colocar el detector detrás de la pantalla de recepción y conseguir detectar al fotón pasando por una de las rendijas y manifestándose el efecto onda. El experimento de la doble rendija demuestra la naturaleza doble de la partícula, como partícula y como onda. En el experimento de la doble rendija, cuando se crea un campo, una onda, mayor queda oculto el campo, la onda, que crea la partícula y se manifiesta solo como partícula. Experimento de Afshar. Principio de complementariedad predice que en un experimento welcher Weg, obteniendo completamente el patrón de interferencia debe ser imposible establecer la ruta seguida por los fotones. El experimento de Afshar prueba el fracaso de esta predicción en un experimento de interferometría óptica. Un haz de luz láser coherente se pasó por una doble rendija a través de una lente convergente, que forma imágenes bien resueltos de los respectivos agujeros. Una serie de alambres finos se colocan en posiciones previamente medidas corresponden a las franjas oscuras del patrón de interferencia de la doble rendija. No se encontró ninguna reducción en la resolución y el flujo radiante total de cada imagen, lo que se encuentra en desacuerdo directo con las predicciones del principio de complementariedad.
Entrelazamiento cuántico. Para el subjetivismo cuántico, a la par de la incertidumbre, existe el entrelazamiento cuántico, fenómeno que es instantáneo y de alcance infinito. La paradoja EPR hace referencia al experimento mental realizado por A. Einstein, B. Podolsky y N. Rosen. El experimento se plantea ante la necesidad de que tenga algún sentido físico referirse a la cantidad de movimiento y a la posición simultáneamente, a pesar de las relaciones de incertidumbre de Heisenberg en la interpretación de Copenhague, y proponen lo que sigue; dos partículas entrelazadas son recibidas por dos observadores, uno de ellos mide la cantidad de movimiento lineal de la partícula A, por el entrelazamiento cuántico sabe de manera instantánea cual es la cantidad de movimiento lineal de la partícula B. El otro observador determina la posición de la partícula B, por idéntico motivo sabe de manera instantánea la posición de la partícula A, con lo que se determina a la vez, y con precisión, la posición y el momento de las dos partículas.
Otra variante del subjetivismo cuántico niega la existencia de realidad objetiva independiente de la acción subjetiva.
Superposición cuántica es un principio fundamental, del subjetivismo cuántico de la interpretación de Copenhague, que sostiene que un sistema físico tal como un electrón, existe al mismo tiempo en todos y en ninguno de sus teóricamente posibles estados de forma, pero, cuando se mide da un resultado que corresponde a sólo una de las posibles configuraciones, por colapso de la función de onda Ψ asociada a dicha partícula. La paradoja del gato de Schrödinger, plantea un sistema que se encuentra formado por una caja cerrada y opaca que contiene un gato en su interior, una botella de gas venenoso y un dispositivo, el cual contiene una partícula radiactiva con una probabilidad del 50% de desintegrarse en un tiempo dado, de manera que, si la partícula se desintegra, el veneno se libera y el gato muere. Al terminar el tiempo establecido, hay dos probabilidades cada una de ellas con del 50%, una es que el dispositivo se haya activado y el gato esté muerto, y la otra probabilidad es que el dispositivo no se haya activado y el gato esté vivo. Según el subjetivismo cuántico, la descripción correcta del sistema en ese momento, de acuerdo a su función de onda Ψ, será el resultado de la superposición de los estados "vivo" y "muerto" o “ni vivo, ni muerto, sino todo lo contrario”, a su vez descritos por su función de onda Ψ. Cuando se abre la caja para comprobar el estado del gato la función de onda Ψ colapsa, y el gato está vivo o muerto. La interpretación del subjetivismo cuántico implica que el observador "mata" al gato al abrir la caja, un problema que no resuelve la interpretación de Copenhague es que entiende por observador. El observador ¿ha de ser un ser humano?, ¿puede ser un observador cualquier ser vivo, el propio gato?, o ¿cualquier partícula-onda puede ejercer de observador? La ecuación de Schrödinger en palabras de Albert Einstein;
En la teoría cuántica se caracteriza el estado de un sistema mediante una función Ψ, que es una solución de la ecuación de Schrödinger. Toda solución se debe considerar como descripción de un estado físico posible del sistema. La cuestión es ¿En qué sentido describe la función Ψ el estado del sistema? Mi afirmación es esta: la función Ψ no puede ser concebida como descripción completa sino incompleta del sistema. En otros términos: hay propiedades del sistema individual, de cuya realidad nadie duda, que, sin embargo, no están contenidas en la descripción dada por la función Ψ.
Decoherencia cuántica. Esta hipótesis del subjetivismo cuántico establece que, si un sistema cuántico está relacionado con un sistema macroscópico, situación que, por otra parte, es la normalmente existente en la realidad, la función de onda Ψ decae a gran velocidad, por lo que las manifestaciones cuánticas no son observables de forma cotidiana. De hecho, los fenómenos cuánticos solo se manifiestan en laboratorios donde se han creado las condiciones necesarias para que se manifiesten.
Gravedad cuántica. Hipótesis que pretende unificar la Relatividad General y la Mecánica Cuántica, con escaso éxito hasta el momento. Stephen Hawking en su libro Una Breve Historia del Tiempo;
Las leyes de la ciencia, como las conocemos hoy en día, contienen muchas cifras fundamentales, como la medida de la carga eléctrica del electrón y la proporción de las masas del protón y del electrón. No podemos, por lo menos en este tiempo, predecir los valores de estas cifras por la teoría tenemos que encontrarlos por la observación. Puede ser que un día descubramos una teoría completamente unificada que los pronostique todos, pero también es posible que algunos o todos estos varíen de un Universo a otro Universo o dentro de un Universo singular.
El subjetivismo cuántico de la interpretación de Copenhague es una corriente de pensamiento de filosofía idealista que parte de que todo lo que es matemáticamente posible es físicamente real. Esto motiva que en la actualidad en el intento de unificar la Relatividad General con Mecánica Cuántica sean necesarias once dimensiones espacio temporales, existan seis hipótesis sobre la llamada teoría de cuerdas, cuatro niveles de Universos en la denominada hipótesis de los “multiversos” y la necesidad de la materia y la energía oscuras.
La existencia de una línea temporal infinita es físicamente inconsistente, ya que implica el transcurso de un espacio de tiempo infinito para alcanzar el presente, y la propia existencia del tiempo presente es prueba de que el tiempo transcurrido no ha sido infinito. Por el mismo motivo un espacio infinitamente pequeño tampoco es físicamente consistente, es decir, el punto matemático, sin volumen, no existe en el mundo físico. Por lo que el espacio no puede comprimirse infinitamente, por alguna cualidad desconocida del espacio, o fuerza, lo que en principio imposibilita la singularidad cuántica.
La hipótesis del Big Bang La teoría estándar del Big Bang establece que el Universo conocido es finito y múltiplemente conexo. El proceso de creación de la materia, se inició hace 13.700 millones de años con el Big Bang, proceso que todavía continúa en la actualidad. La hipótesis del Big Bang (expresión que acuñó Fred Hoyle, uno de los detractores de esta teoría, en 1949 durante una intervención en la BBC dijo, para mofarse, que el modelo descrito era sólo un big bang, gran explosión) es propuesta por primera vez por el físico y sacerdote católico Georges Lemaître en un artículo publicado en 1931 con el nombre del Átomo primitivo. La evolución del Universo se puede resumir en las siguientes etapas; La época de Planck; 10-43 segundos desde el Big Bang, es el más temprano período de tiempo en la historia del Universo, durante el cual las cuatro fuerzas fundamentales (interacción nuclear fuerte, interacción nuclear débil, interacción electromagnética e interacción gravitatoria, estaban unificadas y no existían partículas elementales.
La época de la Gran Unificación; 10–33 segundos desde el Big Bang. Como el Universo se expande y se enfría desde la época de Planck, la gravedad se empieza a separar de las interacciones de gauge: el electromagnetismo y las interacciones nucleares débil y fuerte. La física a esta escala se puede describir por una gran teoría de unificación en el que los grupos de gauge del modelo estándar se integra en un grupo mucho mayor, que se rompe para producir las fuerzas de la Naturaleza observadas. Eventualmente, la gran unificación se rompe cuando la interacción nuclear fuerte se separa de la fuerza electro débil.
La época electro-débil; 10[/sup]–12[/sup] segundos. Cuando se produce la ruptura espontánea de simetría electro-débil, se cree que todas las partículas fundamentales adquieren masa vía el mecanismo de Higgs en el que los bosones de Higgs adquieren un valor esperado en el vacío, la densidad del Universo se calcula en 1090 Kg/m3. En este momento, los neutrinos se desemparejaron y empezaron a viajar libremente a través del espacio. Este fondo cósmico de neutrinos, a pesar de ser improbable su observación en detalle, es análogo al fondo cósmico de microondas que fue emitido mucho después.
La época del hadrón; de 10–6 a 10–2 segundos. El plasma quark-gluon del que está compuesto el Universo se enfría hasta formar hadrones, incluyendo bariones como los protones y los neutrones.
Núcleo-síntesis; 1 segundo a 3 minutos desde el Big Bang. En este momento, el Universo se ha enfriado lo suficiente como para que se empiecen a formar los núcleos atómicos. Los protones (iones de hidrógeno) y neutrones se empiezan a combinar en núcleos atómicos. Al final de la núcleo-síntesis, unos tres minutos después del Big Bang) el Universo se había enfriado hasta el punto que la fusión nuclear paró.
Dominación de la materia; 70.000 años desde el Big Bang. En este momento, las densidades de materia no-relativista (núcleos atómicos) y radiación relativista (fotones) son iguales. La longitud de Jeans, que determina las estructuras más pequeñas que se pueden formar (debido a la competencia entre la atracción gravitacional y los efectos de la presión), empieza a caer y las perturbaciones, en vez de aniquilarse por la circulación libre de radiación, pueden empezar a crecer en amplitud.
Recombinación; 300.000 años desde el Big Bang. Los datos del WMAP muestran las variaciones del fondo de radiación de microondas a través del Universo. Los átomos de hidrógeno y helio se empiezan a formar y la densidad del Universo disminuye. Durante la recombinación ocurre el des-emparejamiento, causando que los fotones evolucionen independientemente de la materia. Esto significa en gran medida, que los fotones que componen el fondo cósmico de microondas son un dibujo del Universo de esa época. En la época oscura muy pocos átomos son ionizados, así que la única radiación emitida es el spin de 21 cm de la línea del hidrógeno neutro. Es la época más antigua que la tecnología actual permite observar. Inflación cósmica;[14] es una hipótesis matemática, que parte de un Universo estadísticamente homogéneo e isótropo de acuerdo con el principio cosmológico. En el modelo del Big Bang sin inflación la situación es diferente porque la expansión gravitacional no da al Universo suficiente tiempo para equilibrarse. En un Big Bang en el que sólo existe la materia y la radiación conocida en el modelo estándar, dos regiones ampliamente separadas del Universo observable no pueden haberse equilibrado porque nunca han entrado en contacto. En la hipótesis inflacionaria el Universo se expandió con un factor de al menos 1026 durante la inflación. La temperatura y el tiempo en que la inflación cósmica ocurrió no se conocen, pero normalmente se piensa que fue extremadamente corta comparada con la edad del Universo, el periodo de inflación responsable del Universo observable probablemente duró unos 10-33 segundos. Antes de la Inflación Cósmica, el Universo era frío y vacío, el inmenso calor y energía asociada con los primeros estados del Big Bang se crearían en el cambio de fase asociado con el fin de la inflación. El final de la inflación es conocido como recalentamiento o termalización porque la gran energía potencial se descompone en partículas y rellena el Universo con radiación. Aparición de quarks y anti-quarks que se aniquilan mutuamente dejando un ligero exceso de quarks.
La temperatura máxima alcanzada en el Universo inflacionario se calcula en:
Cualquier objeto material tiene una temperatura igual o inferior a 1'416∙1032 grados kelvin, y superior a 0 grados K. Constituyendo éste un límite del Universo observable:
Las observaciones recientes estiman que el radio actual del Universo es de 46.500 millones de años luz y la edad en 13.700 millones de años, lo que implica una velocidad media de expansión de 3’4 veces la velocidad de la luz. Esto significa que el Universo durante 10-33 segundos de existencia no puede explicarse con el conocimiento actual de las leyes de la física, permanece en un terreno desconocido, al menos hasta que se logre una teoría unificadora de las cuatro fuerzas fundamentales. A partir de la época de la Gran Unificación (10-33 s) las leyes de la física que rigen el Universo son las mismas que en la actualidad.
Si tomamos por correcto el radio del Universo y partimos que pueden existir velocidades superiores a la de la luz, resulta que el espacio se ha expandido 32.800 millones de años luz (1’034∙ 1021 m) en 10–33 segundos, si se opera obtenemos que el espacio se ha expandido con una velocidad de:
Unas 3’45∙1045 veces mayor que la velocidad de la luz. Si se calcula el tiempo transcurrido a esa velocidad teniendo en cuenta la dilatación relativista del tiempo:
Donde i = −11/2; se puede deducir que la era de la inflación terminó 2'898∙1079 s antes de comenzar el Big Bang. La masa de las partículas que viajan más rápido que la luz es negativa, por lo que se puede suponer que la gravedad que generan también es negativa y las partículas se repelen.
Si, por el contrario, se considera que no es posible una velocidad superior a la de la luz, se obtiene:
El espacio tuvo una expansión de 32.800 millones de años luz antes que comenzara a transcurrir el tiempo, el tiempo fluye en función de la velocidad y de la masa, al disminuir la velocidad o la curvatura del espacio, al disminuir la densidad del Universo, el tiempo aumenta su velocidad.
Otra hipótesis para la inflación cósmica y que no entraría en conflicto con la teoría de la Relatividad General, según sus defensores, ya que ésta solo afecta al movimiento de la partícula-onda en el espacio, pero no afectaría a la expansión del espacio mismo, por lo que éste podría expandirse a una velocidad mayor a la velocidad de la luz. Por lo tanto, dos galaxias podrían separarse una de la otra más rápidamente que la velocidad de la luz si es el espacio el que se expande. Si la velocidad de expansión del espacio es una constante; es igual a 1.017.543’744 Km/s, 3’39 veces la velocidad de la luz. Considerando la velocidad inicial igual a cero y la expansión del espacio uniformemente acelerada:
Unas 4’78 veces la velocidad de la luz. Si la velocidad de expansión del espacio se ve afectada por las ecuaciones relativistas entonces el tiempo fluye en sentido contrario para el continuo espacio-tiempo que para le onda-partícula.
Otra explicación para la hipótesis de la inflación sería tener en cuenta que, por una parte, la velocidad de la luz depende de las condiciones del medio donde se mueve, la velocidad de la luz está determinada por la permitividad eléctrica, y por la permeabilidad magnética, y por otra parte, con la expansión del Universo ha disminuido su densidad y en consecuencia la curvatura del espacio, resulta que las propiedades geométricas del espacio-tiempo varían en función de su volumen y de la masa que contiene. Si un campo gravitatorio, o una mayor temperatura, también modifica la permitividad eléctrica y la permeabilidad magnética del espacio-tiempo, la velocidad de la luz se ha modificado necesariamente desde el Big Bang, disminuyendo la razón entre las constantes eléctrica y magnética, y entre la energía y la masa. En consecuencia, la velocidad de la luz no es una constante, sino que varía en función de las condiciones del espacio-tiempo.
La teoría estándar del Big Bang plantea que han existido cuatro tipos de Universos diferentes o que el Universo, finito, ha pasado por cuatro estadios diferentes; · Un primer Universo estático donde no existe ni partículas-ondas ni espacio-tiempo. · Un segundo Universo con un radio de una longitud de Planck y de 10-43 segundos de duración, frio (0 K) por lo tanto de entropía y densidad infinitas, donde las cuatro interacciones fundamentales están unificadas en una súper-interacción. · Un tercer Universo inflacionario de 10-33 segundos de duración, donde producto de la expansión exponencial del espacio se produce un súbito calentamiento 1’417∙1032 K, el Universo tiene la mínima entropía, 10-12 segundos después la temperatura y la densidad disminuyen lo suficiente, menor que 1'416∙1032 K y menor que 1’231∙1096 Kg/m3 respectivamente, para que se generen las partículas-ondas, la gravedad se escinde de la súper-interacción. · Un cuarto Universo, el actual, donde todas las interacciones fundamentales se han escindido y las leyes que rigen el movimiento del Universo son las actuales. · La teoría estándar del Big Bang prevé un quinto Universo, cuando el Universo actual muera térmicamente, donde cesará todo movimiento de forma eterna y la entropía es infinita.
En la actualidad, la teoría de cuerdas e infinitos universos, del profesor Michio Kaku, establece que el Big Bang es la fusión de dos Universos, o la fisión de uno, por lo que en la realidad han existido infinidad de bigs bangs. La teoría estándar del Big Bang no ofrece explicación alguna de las causas, ni las leyes, del paso de uno a otro estadio del Universo. Aplicando el principio de parsimonia de Ockham es más plausible la concepción de Engels sobre un Universo eterno y cíclico, en constante y permanente movimiento, de expansión y contracción, regido por las leyes que el conocimiento científico revela. Un Universo donde las partículas-onda están en movimiento de expansión acelerado, junto con el espacio-tiempo, ven aumentar su masa constantemente, aumentando su atracción gravitacional, en oposición a dicha expansión.
Tal vez la interpretación de la mayor desviación hacia el rojo que se observa en las galaxias más lejanas de la Vía Láctea, no se debe a que éstas se alejan más rápido en la actualidad, sino que como son más lejanas en el tiempo su velocidad de alejamiento era mayor en el pasado, y la velocidad de alejamiento se reduce conforme las galaxias están más cercanas en el tiempo, incluso Andrómeda la galaxia más cercana a la Vía Láctea no se aleja, sino que está en rumbo de colisión.
Si se considera que la expansión inicial del Universo es igual a la velocidad de la luz, y la constante de Hubble no mide el aumento de la velocidad de expansión del Universo conforme aumenta la distancia, sino que mide la disminución de la velocidad de expansión del Universo con el paso del tiempo, se calcula la velocidad de expansión del Universo en:
De donde se deduce que el Universo actual se halla prácticamente en la mitad de su ciclo. En 280 millones de años el Universo dejará de expandirse y comenzará a contraerse. Si la constante de Hubble es un error de medición, y la constante que frena la expansión del Universo es la constante de la gravedad, el Universo ha completado el 5 % de su ciclo.
Última edición por Jordi de Terrassa el Mar Mayo 03, 2016 8:51 pm, editado 1 vez
Evolución biológica de la materia El primer acto de un ser humano, como el de cualquier otra forma de vida, consiste en procurarse la materia y la energía necesaria para mantenerse vivo.
Cecie Starr, Ralph Taggart en La unidad y diversidad de la vida:
Si se analiza a un ser humano de 70 kilogramos de masa se obtendrá esta lista de elementos químicos y sus cantidades aproximadas: Oxígeno: 43 kg, 61’43%. Carbono: 16 kg, 22’86%. Hidrógeno: 7 kg, 10%. Nitrógeno: 1’80 kg, 2’57%. Calcio: 1’00 kg, 1’43%. Fósforo: 780 gr, 1’11%. Potasio: 140 gr, 0’2%. Azufre: 140 gr, 0’2%. Sodio: 100 gr, 0’14%. Cloro: 95 gr, 0’14%. Magnesio: 19 gr, 0’03%. Hierro: 4’20 gr, 0’006%. Flúor: 2’60 gr. Cinc: 2’30 gr. Silicio: 1’00 gr. Rubidio: 0’68 gr. Estroncio: 0’32 gr. Bromo: 0’26 gr. Plomo: 0’12 gr. Cobre: 72 mg. Aluminio: 60’00 mg. Cadmio: 50 mg. Cerio: 40 mg. Bario: 22 mg. Yodo: 20 mg. Estaño: 20 mg. Titanio: 20 mg. Boro: 18 mg. Níquel: 15 mg. Selenio: 15 mg. Cromo: 14 mg. Manganeso: 12 mg. Arsénico: 7 mg. Litio: 7 mg. Cesio: 6 mg. Mercurio: 6 mg. Germanio: 5 mg. Molibdeno: 5 mg. Cobalto: 3 mg. Antimonio: 2 mg. Plata: 2 mg. Niobio: 1’5 mg. Circonio: 1 mg. Lantano: 0’80 mg. Galio: 0’70 mg. Telurio: 0’70 mg. Itrio: 0’60 mg. Bismuto: 0’50 mg. Talio: 0’50 mg. Indio: 0’40 mg. Oro: 0’20 mg. Escandio: 0’20 mg. Tantalio: 0’20 mg. Vanadio: 0’11 mg. Torio: 0’10 mg. Uranio: 0’10 mg. Samario: 50 μg. Berilio: 36 μg. Tungsteno: 20 μg. [Tienes que estar registrado y conectado para ver este vínculo]
Estos elementos están constituidos por aproximadamente: 3’41∙1028 electrones, 1’02∙1029 cuarks arriba y 2’33∙1028 cuarks abajo, formando 3’41∙1028 protones y 7’76∙1027 neutrones. Las partículas elementales y el hidrógeno se formaron en el inicio del Universo conocido, y el resto de elementos se formaron por fusión nuclear en una o en varias estrellas, hace entre 13.700 millones de años (fondo de microondas) inicio del Universo observable y 4.500 millones de años (formación de la Tierra). Los seres humanos son, literalmente, polvo de estrellas.
A la cantidad de energía almacenada por cada sustancia se le denomina contenido energético o entalpía. Como en toda la naturaleza, también en las reacciones químicas opera el principio de mínima energía según el cual los sistemas materiales tienden a evolucionar en el sentido en que disminuye su energía potencial, una reacción química evoluciona hacia estados de menor contenido energético. La entropía puede definirse como el grado de desorden de un sistema. Las moléculas no son rígidas ni permanecen fijas, por lo que pueden vibrar, girar o rotar. Cuanto mayor es la libertad para consentir estos movimientos moleculares, mayor es el desorden o entropía. La entropía depende de factores tales como el número de partículas en juego o el estado físico de las sustancias. Así el estado gaseoso es más desordenado que el líquido o que el sólido y corresponde, por lo tanto, a una mayor entropía. Junto con la tendencia a alcanzar el estado de mínima energía, los sistemas químicos tienden de forma natural a alcanzar el estado de máximo desorden, son ambos factores los que controlan conjuntamente el carácter espontáneo de las reacciones químicas. El hecho observado de que la espontaneidad de las reacciones químicas dependa no sólo de la energía sino también del desorden.
En sistemas abiertos, como los sistemas biológicos se requiere una función de estado que incluya tanto energía como entropía. La energía libre de Gibbs, se define como aquella parte de la energía total de un sistema que puede convertirse en trabajo en condiciones isotérmicas:
ΔG = ΔH - T ∙ ΔS
Donde H es el contenido energético o entalpía, T es la temperatura absoluta, S es la entropía y G la llamada energía libre de Gibbs. Esta magnitud G a la que contribuyen tanto la entalpía como la entropía, es la que determina el carácter espontáneo de una reacción química. En todos los procesos espontáneos la energía libre del sistema disminuye, es decir, el valor final de G es menor que el inicial y, por tanto, ΔG es negativa. De acuerdo con la anterior ecuación, tal disminución (ΔG < 0) podrá ser debida a una disminución del contenido energético H (ΔH < 0), a un aumento del desorden S (ΔS > 0) o a ambos. El resultado final de ese balance entre energía y desorden es el responsable de la espontaneidad de la reacción. Si: T ∙ ΔS es mayor que ΔH, aunque el proceso sea endotérmico (ΔH > 0), será espontáneo si: ΔG < 0.
ADN, el objeto de la evolución biológica
Teoría del caldo primordial de Oparin y experimento de Miller y Urey escribió:Stanley Miller demostró un modelo experimental del caldo primigenio en 1953 en la Universidad de Chicago. Introdujo agua, metano, amoníaco e hidrógeno en un recipiente de vidrio para simular las supuestas condiciones de la Tierra primitiva. La mezcla fue expuesta a descargas eléctricas y, una semana después, una cromatografía en papel mostró que se habían formado varios aminoácidos y otras moléculas orgánicas. El modelo postula que el origen de la vida se produjo a partir de tales moléculas que, tras formarse en la atmósfera primitiva, fueron arrastradas por la lluvia hasta el océano primordial, donde se combinaron para formar proteínas, ácidos nucleicos y otras moléculas de la vida.
Para que se genere vida son necesarias una serie de circunstancias físicas y químicas. En primer lugar, un planeta rocoso y no gaseoso con una órbita en la llamada zona habitable, una distancia de la estrella que permita la existencia de agua en estado líquido, y tenga un campo magnético. En segundo lugar, la existencia en la cantidad necesaria de los elementos químicos para la vida, en especial los cinco esenciales; el carbono, el hidrógeno, el oxígeno, el nitrógeno y el fósforo.
Los seres vivos se distinguen de la materia inerte por un conjunto de características, siendo las más importantes; · Una organización molecular compleja y el manejo no espontáneo de su energía interna con capacidad para desarrollarse. · Pueden mantenerse en un ambiente, reconocer y responder a estímulos del exterior, con el que intercambia masa y energía. · Se reproducen permitiendo la continuidad. · Los sistemas vivos son una organización especial y localizada de la materia, donde se produce un continuo incremento de orden o entalpía sin intervención externa.
El segundo principio de la termodinámica dice que la entropía, o desorden, de un sistema aislado siempre aumenta, por lo que todos los seres vivos necesitan realizar un trabajo, para obtener energía externa y mantener la entalpía interna, para: · Realizar trabajo mecánico en la contracción muscular y movimientos celulares. · Transporte activo de iones y moléculas. · Síntesis de bio-moléculas a partir de precursores sencillos. · Amplificación de señales.
Toda la vida en la Tierra tiene una característica en común; está constituido por moléculas de ADN. El ADN es un compuesto orgánico, un largo polímero formado por: · Ácido fosfórico H3PO4: P4(s)+5O2(g) → 2P4O10(s) + 6H2O(l) → H12P2O12(l) · Desoxirribosa C5H10O4: azúcar derivado de la ribosa por pérdida de un O · Y las bases nitrogenadas: Adenina C5H5N5, Guanina C5H5N5O, Citosina C4H5N3O, Timina C5H6N2O2.
Una doble cadena de ADN mide de 22 a 26 angstroms -2,2 a 2,6 nanómetros- de ancho, y una unidad (un nucleótido) mide 3,3 Å -0,33 nm- de largo. Aunque cada unidad individual que se repite es muy pequeña, los polímeros de ADN pueden ser moléculas enormes que contienen millones de nucleótidos. Por ejemplo, el cromosoma humano más largo, el cromosoma número 1, tiene aproximadamente 250 millones de pares de bases. Las moléculas de ADN tienen la capacidad de almacenar información y su función exclusiva es la obtención de la energía y las sustancias necesarias para replicarse, es decir mantener y trasmitir esa información:
Unas moléculas de ADN entran en competencia con otras moléculas de ADN por unos recursos energéticos y materiales, que se vuelven escasos cuando la masa de ADN alcanza una determinada cantidad. Este es el origen de la competencia en la obtención de unos recursos que son escasos pero imprescindibles para sobrevivir y reproducirse. Algunos biólogos denominan a este fenómeno como “egoísmo” genético o gen “egoísta”.
La competencia entre diferentes moléculas de ADN determina que el objeto de la selección natural no es la especie ni tan siquiera los individuos sino el genotipo, esto explica los comportamientos competitivos incluso en las ocasiones en que se perjudica no ya el conjunto de la especie o grupos, sino a los propios individuos. Este fenómeno es conocido popularmente y desde antiguo, un ejemplo es la fábula del escorpión y la rana.* *Había una vez una rana sentada en la orilla de un río, cuando se le acercó un escorpión que le dijo: —Amiga rana, necesito cruzar el río. ¿Podrías llevarme en tu espalda? —No. Si te llevo en mi espalda, me picarás y me matarás. —No seas tonta —le respondió entonces el escorpión— si te picase, me hundiría contigo y me ahogaría. Ante esta respuesta, la rana accedió. El escorpión se colocó sobre la espalda de la rana y empezaron a cruzar el río. Cuando habían llegado a la mitad del trayecto, el escorpión picó a la rana. La rana, al sentir picotazo y darse cuenta que iba a morir, le preguntó al escorpión: — ¿Por qué me has picado, escorpión? ¿No te das cuenta de que tú también vas a morir? A lo que el escorpión respondió: - Rana... mi amiga, no lo pude evitar, porque es mi naturaleza.
La diferencia de la información genética entre el sexo femenino y el masculino en el género humano es:
Los seres humanos de sexo masculino son portadores de los mismos genes que los seres humanos de sexo femenino, puesto que, en el par de los cromosomas sexuales, el veintitresavo, los hombres tiene un cromosoma X completo. La información genética que convierte a uno de los sexos humanos en masculino es:
Aunque el avance en el conocimiento científico, sobre el genoma humano, pueden hacer variar estos datos. Los 454 genes, 6,9 MB de información, del cromosoma Y cumplen la función de inhibir la expresión de sus pares del cromosoma X, más la información necesaria para desarrollar el fenotipo y la bioquímica masculina. Cualquier error de copia, o mutación, en estos pares de genes tiene su manifestación, a veces en forma patológica, en el fenotipo o la bioquímica del individuo. Aunque es sabido que la expresión de unos determinados genes no es debida exclusivamente a causas genéticas, las condiciones ambientales también determinan la expresión de los genes. Las condiciones ambientales incluyen causas físicas, determinadas sustancias y radiaciones, bioquímicas como virus y bacterias, e incluso ideológicas, conocidos son el efecto placebo y el efecto “nocebo”.
La ausencia en el sexo masculino de 1.392 genes, 11,6 MB de información, si se entiende lo normal como media aritmética, y se expresa la normalidad humana en una recta, hacen que un porcentaje mayor de hombres esté ubicado hacia los extremos de dicha recta, y un porcentaje mayor de mujeres en el centro. Aunque la media en conjunto es muy similar, por las leyes de la selección natural en la evolución genética, para el sexo masculino como para el sexo femenino. Supongamos, de forma simplificada, que un gen del cromosoma X, sin par en el cromosoma Y, da al individuo un coeficiente de inteligencia de 150, o de 50, el coeficiente de inteligencia del individuo portador sería de 150, o de 50, por predisposición genética, mientras que un individuo portador de dos cromosomas X con un gen que ofrece un coeficiente de inteligencia de 150, y otro gen que ofrece un coeficiente de inteligencia de 50, ambos “codominantes”, el coeficiente de inteligencia del individuo portador sería de 100 por predisposición genética.
Todas las demás diferencias entre individuos de sexo femenino y masculino son culturales, es decir, ideológicas, son producto de la interpretación que se hace el cerebro humano de la realidad, aunque las creencias ideológicas de los individuos, como condiciones ambientales, pueden determinar la expresión de diferentes genes, en sus manifestaciones fenotípicas y en la bioquímica de los individuos.
El aumento en la eficiencia termodinámica determina la evolución biológica La energía libre de Gibbs (G) es la función termodinámica determinante para los seres vivos, ya que representa la cantidad de energía que puede utilizarse para realizar trabajo. Una reacción química en un ser vivo tiene el mismo cambio en energía libre (ΔG) que esa reacción en la materia inerte, se debe a que el ΔG depende sólo del estado final e inicial del sistema y no del mecanismo o camino por el que el sistema pasa del estado inicial al estado final, por lo que la combustión de glucosa a CO2 y H2O lleva consigo el mismo ΔG independientemente de si se realiza en un laboratorio o en el interior de una célula viviente.
Metabolismo y Respiración:
La oxidación de glucosa en la respiración anaerobia da como resultado la liberación de menos de un 10% de energía química almacenada en la molécula de azúcar. De las 686.000 calorías por mol, solamente se liberan 60.000 calorías en el proceso respiratorio anaerobio. Sabemos que durante la respiración anaerobia de un mol de glucosa, se producen cuatro moles de ATP a partir del ADP y de fosfato inorgánico: un mol de ATP seguido de la oxidación de cada uno de los dos moles de 3-fosfogliceraldehído y otra durante la transfosforilación de cada una de los 2 moles de ácido fosfopirúvico. Puesto que la producción de cada mol de ATP representa la incorporación cerca de 10.000 calorías, la célula ha captado en forma utilizable 40.000 calorías de la 60.000 caloría liberas en la respiración anaerobia. Las restantes se pierden en forma de calor. La producción neta de energía en la levadura es de 2ATP en lugar de cuatro (con una eficiencia de 33%), puesto que utilizan dos moléculas de ATP para fosforilar el azúcar en los primeros estudios de la respiración anaerobia.
La respiración anaerobia del tejido muscular es más eficiente que el de levaduras, debido a que se usa solo un ATP para la fosforilación, puesto que el glicógeno es el substrato en lugar de la glucosa. Se recordará que el glicógeno se divide primero enzimáticamente por el ácido fosfórico hasta dar glucosa-1-fosfato y que enzimáticamente se convierte en glucosa-6-fosfato sin consumir ATP. Por consiguiente, la eficiencia en la respiración anaerobia de las células musculares se obtiene una formación de 3 ATP:
30.000 cal / 60.000 cal = 50%
La respiración aerobia comienza con la oxidación del ácido pirúvico y se procede sucesivamente a través del ciclo del ácido cítrico y del proceso terminal respiratorio para obtener 36 moles de ATP (15 por cada 2 moles de ácido pirúvico oxidado y 3 por cada 2 moles de DPNH originado de la reacción de la triosa-fosfato deshidrogenasa en el mecanismo anaerobio). . Esto representa cerca de 360.000 calorías (36 x 10.000 calorías por mol de ATP) de las 626.000 calorías originalmente presentes en los dos moles de ácido pirúvico y DPNH, formados del desdoblamiento anaerobio de un simple mol de glucosa. La eficiencia de la energía capturada en el esquema de la respiración aeróbica es de cerca de 60%:
360.000 cal / 6260.000 cal = 58%
La captura total de energía útil en el proceso de la respiración de levaduras (anaerobia y aerobia), por ejemplo, podría estar representada por la formación de 28 moles de ATP (2 moles netos de ATP obtenidos en la respiración anaerobia de 36 moles de ATP de la aerobia) corresponden a cerca de 380.000 calorías o sea una eficiencia total de:
380.000 cal / 6860.000 cal = 55%
Este es otro medio de decir que la célula es capaz de capturar en forma útil cerca del 55% de la energía química total almacenada en la molécula de glucosa. Se puede ver en los valores antes dados que en una molécula de levadura, por ejemplo, el mecanismo aerobio da 20 veces más energía útil (38 moles de ATP por mol de glucosa) que en el proceso anaerobio (2 moles de ATP). Por consiguiente, una célula de levadura, debe metabolizar 20 veces más glucosa en ausencia de oxígeno para obtener la misma cantidad de energía que la obtenida por medio de la respiración aerobia. Puesto que los organismos aerobios, en virtud de su proceso respiratorio pueden extraer más energía del mismo substrato para sus actividades vitales, en comparación con los anaerobios, podría parecer una ventaja para sobrevivir utilizando estas fuentes energéticas [Tienes que estar registrado y conectado para ver este vínculo]
Evolución y subjetivismo biológico El biólogo soviético Alejandro Oparin, en 1924, elaboró la hipótesis del origen de la vida en la Tierra se debe a la evolución química gradual a partir de moléculas basadas en el carbono, todo ello de manera abiótica. En 1928 Federico Wöhler logró un compuesto orgánico, urea, a partir de materia inorgánica, cianato de amonio. Los seres humanos poseen la molécula del ADN en el núcleo de sus células y esto quiere decir que son descendientes, como el resto de seres vivos, de un ser, probablemente una bacteria Gram-positiva, según Radhey Gupta, que vivió hace 3.500 millones de años, el último antepasado común universal, conocido por sus siglas en inglés LUCA (Last Universal Common Ancestor) o un progenote según Carl Woese, aunque Thomas Cavalier-Smith postula que LUCA fue una bacteria Gram-negativa. La similitud de los embriones de distintas especies parece probar el origen común, la evolución de los embriones parece reproducir en una escala reducida de tiempo la evolución biológica de las especies.
En los primeros 1.000 millones de años de existencia de vida anaeróbica, la Tierra ofrecía un aspecto diferente al actual, la atmósfera era de un color rojizo debido a la cantidad de dióxido de carbono y el océano tenía un color verdoso por las partículas de hierro suspendidas.
Hace 2.500 millones de años aparecen las primeras formas de vida fotosintéticas, las cianobacterias, que liberan oxígeno transformando grandes cantidades de dióxido de carbono. El oxígeno al reaccionar con el hierro suspendido en los océanos forma óxido de hierro precipitándose al fondo, formando los actuales depósitos de hierro, sin los que hubiera sido imposible la revolución industrial. Las cianobacterias crearon las condiciones para que se transformara la atmosfera de la Tierra de reductora en oxidante y la formación en la alta atmosfera de la capa de ozono, gas que absorbe los rayos ultravioletas creando las condiciones para que la vida pudiera abandonar el mar y colonizar la tierra, la atmósfera y el océano adquieren el color azul. Los seres vivos aeróbicos en competencia por los recursos disponibles con las formas de vida anaeróbicas y debido a una mayor eficacia energética provocaron la extinción del 90 % de las formas de vida existentes hasta el momento.
Los seres humanos por tener su material hereditario fundamental (su información genética) encerrado dentro de una doble membrana, la envoltura nuclear, que delimita un núcleo celular, descienden como el resto de eucariotas, de un ser que vivió hace 1.500 millones de años. Las células eucariotas, con su elevado rendimiento energético, pudieron desarrollar complejos sistemas de locomoción y de relación por la zona superficial de los mares donde el oxígeno es más abundante.
Algunos organismos unicelulares debieron asociarse formando grupos ya coordinados y estables, serían formas rudimentarias de organismos pluricelulares. Los pluricelulares representan organizaciones más complejas y por tanto requieren más energía para mantener su elevado nivel de organización. El desarrollo de un metabolismo de elevada eficacia, el aeróbico, debió ser un requisito necesario para poderse alcanzar este nuevo nivel de organización. Estas agrupaciones proliferaron y evolucionaron hacia formas mayores y más complejas, desarrollando tejidos y órganos especializados.
En el Carbonífero -hace de 360 a 300 millones de años- la superficie continental de la Tierra era pantanosa de poca profundidad, donde por la descomposición de los vegetales, la energía proveniente del Sol y capturada por las plantas mediante la fotosíntesis, se formó el 90 % del carbón.
El petróleo y el gas natural se formaron también en este período cuando grandes cantidades de micro-organismos marinos mueren y son enterrados entre los sedimentos del fondo de estuarios y pantanos, en un ambiente muy pobre en oxígeno. En el Carbonífero la vida fijó la energía que hizo posible la creación de los combustibles fósiles. Nikolai A. Kudriavtsev elaboró una teoría sobre el origen abiótico y profundo del petróleo, que choca con las tesis dominantes acerca de su origen fósil.
Las cianobacterias del precámbrico, los vegetales y animales del carbonífero fueron determinantes en la creación de la principal materia prima, el comburente y los combustibles que hicieron posible la revolución industrial. Sin embargo, existen seres humanos que se arrogan derechos de propiedad sobre estos y otros recursos naturales. Derechos de propiedad que los estados conceden a unos seres humanos en propiedad, privando a otros seres humanos de dicha propiedad.
Los seres humanos, en todas sus actividades, como ocurre con el resto de seres vivos están sometidos a las leyes de la evolución biológica que es el proceso de transformación de unas especies en otras descendientes. La evolución biológica es observable y comprobable, se explica por el aumento de la eficiencia en la obtención y el uso de la energía por parte de los seres vivos. Fue señalado por primera vez como un hecho empírico por Jean-Baptiste Lamarck. Tanto Jean-Baptiste Lamarck como Charles Darwin estudiaron la evolución desde el punto de vista de las propiedades observadas en el organismo, como la morfología, el desarrollo, o el comportamiento, es decir el fenotipo. No fue hasta que Mendel descubrió que las variaciones en el fenotipo eran debidas a las variaciones de los genes, o genotipo, y este conocimiento se extendió por la comunidad científica, que se pudo elaborar una teoría completa sobre la selección natural.
Las condiciones “sine qua non” para que se produzca la evolución biológica son dos, la primera es que exista diversidad genética, es decir, que existan individuos diferenciados genéticamente, sin esta diferenciación no hay nada que seleccionar, la diferenciación se produce por mutación genética y por recombinación genética. La segunda condición es la existencia de un hábitat cambiante con escasez de recursos, en un ambiente idéntico con superabundancia de recursos no existe que seleccione. La diversidad genética constituye la base de la evolución, y el hábitat constituye la condición del cambio.
La mutación genética es un cambio permanente y transmisible en material genético (usualmente el ADN o el ARN) de una célula, que puede ser producida por errores de copia en el material genético durante la división celular y por la exposición a radiación, a agentes químicos o a virus, o puede ocurrir deliberadamente bajo el control celular durante procesos como la meiosis o la híper-mutación. En los organismos pluricelulares, las mutaciones pueden dividirse en mutaciones germinales, que se transmiten a la descendencia, y las mutaciones somáticas, que (cuando son accidentales) generalmente conducen a malformaciones o muerte de células y pueden producir cáncer. Se deben considerar dos aspectos de la mutación:
1. El equilibrio en las mutaciones, que puede ocurrir en ausencia de otras fuerzas evolutivas; Las mutaciones introducen nueva variabilidad genética en las poblaciones, y con ello alteran las frecuencias génicas. Este es el caso cuando la mutación se da sólo en una dirección, o sea de A a a y no vice versa. Sólo en bacterias, donde las generaciones se miden en minutos, se puede considerar a la mutación como factor importante en el cambio de frecuencias. Si se define;
A = Alelo con frecuencia p a = Alelo mutante de A con frecuencia q u = Tasa de mutación de A a a v = Tasa de mutación de a a A Δq = cambio de q, es decir, el cambio en frecuencia de a
La frecuencia del alelo a en la primera generación descendiente es:
q1 = q0 + u ∙ p - v ∙ q
Donde q0 es la frecuencia original del alelo a. El cambio en frecuencias tras una generación:
∆q = q1 - q0 = u ∙ p - v ∙ q
2. Interacción entre mutación y selección natural. Dado que la selección natural es el principal proceso que evita el incremento de las frecuencias de alelos deletéreos, se ha de examinar la interacción de la mutación y la selección al momento de determinar frecuencias génicas. Suponiendo el caso de un alelo recesivo que implica una desventaja selectiva, la reducción en su frecuencia, por acción de la selección natural, disminuye a medida que el alelo reduce su frecuencia. Dado que la selección reduce la frecuencia de dicho alelo, acabará por equilibrase la tasa de mutación y la presión selectiva.
La recombinación genética es el proceso mediante el cual la información genética se redistribuye por transposición de fragmentos de ADN entre dos cromosomas durante la meiosis y más raramente en la mitosis. Variaciones en la expresión de los genes involucrados en la herencia, este proceso deja intacta la información genética y es con frecuencia reversible. Este proceso es llamado herencia epigenética que resulta de la trasmisión de secuencias de información no-ADN a través de la meiosis o mitosis; y puede incluir fenómenos como la metilación del ADN o la herencia estructural. La variación en la expresión de los genes de debe a la existencia de unas determinadas condiciones ambientales u otras.
El flujo genético, o también conocido como migración, se caracteriza por la transferencia de genes de una población a otra de la misma especie o de distinta especie. Constituye, junto con la mutación, la manera en la cual son introducidos nuevas variantes genéticas en una población.
La selección natural o individual, es el modelo primordial de la selección biológica y la idea básica del darwinismo. Es el denominado gen “egoísta” y puede explicarse cómo cada genotipo lucha por su vida y reproducción. Selección natural o individual es una fuerza biológica que hace que los seres vivos tengan una mejor adaptación al medio, una mayor habilidad para obtener o procesar alimento, una mejor capacidad de ocultación, huida o de defensa, una mayor capacidad para resistir fluctuaciones ambientales, etc. En esencia, la selección natural es reproducción diferencial de unas variantes genéticas respecto de otras. La selección natural es un proceso acumulativo que permite incorporar pequeñas mejoras generación tras generación hasta obtener estructuras muy complejas. Esta fuerza fue postulada por Charles Darwin en 1859 en su famosa obra El Origen de las Especies.
A esta conservación de las variaciones y diferencias individualmente favorables y a la destrucción de las que son perjudiciales, le he llamado selección natural o supervivencia de los más aptos. [Tienes que estar registrado y conectado para ver este vínculo]
En la selección sexual o de parentesco el portador de un genotipo hace que un individuo defienda a sus más cercanos familiares. Desde el punto de vista del gen “egoísta” no importa si su propio portador sobrevive mientras sobreviva un portador de dicho genotipo. Cuanto más distante es el parentesco menor la probabilidad de que el pariente lleva el mismo gen, en consecuencia, se ayuda más a parientes cercanos que distantes. Selección sexual o de parentesco es una de las fuerzas biológicas descritas por Charles Darwin para explicar la evolución de las especies. La denominada selección sexual es una manifestación de cómo la voluntad de los individuos puede sobre-determinar a la selección natural, o evolución genética. Esta fuerza biológica implica un acto de voluntad, la aparición del libre albedrío. Para Darwin, la selección sexual incluía fundamentalmente dos fenómenos: la preferencia de las hembras por ciertos machos y las batallas de los machos por el harén más grande.
[La selección sexual] no depende de una lucha por la existencia sino de una lucha entre los machos por la posesión de las hembras; el resultado no es la muerte del competidor que no ha tenido éxito, sino el tener poca o ninguna descendencia. La selección sexual es, por lo tanto, menos rigurosa que la selección natural. Generalmente, los machos más vigorosos, aquellos que están mejor adaptados a los lugares que ocupan en la naturaleza, dejarán mayor progenie. Pero en muchos casos la victoria no dependerá del vigor sino de las armas especiales exclusivas del sexo masculino [...] Entre las aves, la pugna es habitualmente de carácter más pacífico. Todos los que se han ocupado del asunto creen que existe una profunda rivalidad entre los machos de muchas especies para atraer por medio del canto a las hembras. El tordo rupestre de Guayana, las aves del paraíso y algunas otras se congregan, y los machos, sucesivamente, despliegan sus magníficos plumajes y realizan extraños movimientos ante las hembras que, colocadas como espectadoras, eligen finalmente el compañero más atractivo. [Tienes que estar registrado y conectado para ver este vínculo]
¿Cómo actúa la selección natural y la selección sexual sobre la variedad genotípica? Impidiendo que algunos genotipos se reproduzcan o que lo hagan en una menor proporción. Las leyes que rigen este proceso son las leyes de la genética.
La ley de la uniformidad en la primera generación filial (F1) establece que si se cruzan dos razas (F0) puras para un determinado carácter, AA dominante y aa recesivo, los descendientes de la primera generación (F1) serán todos iguales entre sí, igual fenotipo e igual genotipo, e iguales en fenotipo a uno de los progenitores y son al 100 % híbridos o heterocigotos:
Antes era considerada la 1ª ley de Mendel. No es una ley de transmisión de caracteres, sino de manifestación de dominancia frente a la no manifestación de los caracteres recesivos. Por esto no es considerada, en la actualidad, una de las leyes de Mendel.
1ª Ley de Mendel: Ley de la segregación de alelos. En palabras de Mendel;
El carácter hereditario que se transmite como una unidad que no se combina, se diluye o se pierde al pasar de una generación a otra, sólo se segrega o se separa…
Los dos genes que rigen cada carácter no se mezclan ni se fusionan, sino que se segregan a la hora de formarse los gametos, teniendo cada gameto uno y sólo uno de los alelos diferentes…
Resulta ahora claro que los híbridos forman semillas que tienen el uno o el otro de los dos caracteres diferenciales, y de éstos la mitad vuelven a desarrollar la forma híbrida, mientras que la otra mitad produce plantas que permanecen constantes y reciben el carácter dominante o el recesivo en igual número…
Esta ley establece que durante la formación de los gametos cada alelo de un par se separa del otro miembro para determinar la constitución genética del gameto filial. Mendel obtuvo esta ley al cruzar diferentes variedades de individuos diploides con dos variantes alélicas del mismo gen Aa. Y pudo comprobar que la proporción en el fenotipo dominante y el recesivo era de tres cuartos a un cuatro, es decir mantenían una proporción de tres a uno, en la segunda generación filial (F2):
La proporción en el genotipo es raza pura o homocigoto dominante AA = 25 %, hibrido o heterocigoto Aa = 50 %, raza pura o homocigoto recesiva aa = 25 %, es decir 1, 2, 1.
2ª Ley de Mendel: Ley de la segregación independiente de alelos. En palabras de Mendel:
Por tanto, no hay duda de que a todos los caracteres que intervinieron en los experimentos se aplica el principio de que la descendencia de los híbridos en que se combinan varios caracteres esenciales diferentes, presenta los términos de una serie de combinaciones, que resulta de la reunión de las series de desarrollo de cada pareja de caracteres diferenciales.
Mendel concluyó que diferentes rasgos son heredados independientemente unos de otros, no existe relación entre ellos, por tanto, el patrón de herencia de un rasgo no afectará al patrón de herencia de otro. Sólo se cumple en aquellos genes que no están ligados (en diferentes cromosomas) o que están en regiones muy separadas del mismo cromosoma. Representándolo con letras, de padres con dos características AALL y aall (donde cada letra representa una característica y la dominancia por la mayúscula o minúscula), por entrecruzamiento de razas puras (1ª ley de Mendel), aplicada a dos rasgos, resultarían los siguientes gametos:
F0 → AL ∙ al = AL + Al + aL + al → F1
Una frecuencia del 25 % en cada genotipo y fenotipo. Al intercambiar entre estos cuatro gametos, se obtiene la proporción genotípica en la segunda generación filial (F2):
La frecuencia fenotípica es: 9 fenotipos dominantes con A y L, 3 fenotipos con a recesivo y L dominante, 3 fenotipos con A dominante y l recesivo y 1 fenotipo con a y l recesivos. La frecuencia genotípica es de 1/16 o, lo que es lo mismo, del 6’25 %.
Cuando la frecuencia fenotípica se aparta del estándar: 9, 3, 3, 1 o de 1, 2, 1 en el caso de la 1ª ley, el motivo se debe a que uno de los genotipos tiene una eficiencia relativa (W) mayor, o lo que es igual un coeficiente de selección (S) menor, es decir, deja de intervenir el azar por motivo de la selección natural o cualquier otra de las interacciones de la evolución biológica. Eficacia relativa es la medida de la supervivencia y reproducción de diferentes genotipos. Usualmente se mide desde un estadio específico en el ciclo vital de un organismo hasta el mismo estadio en la siguiente generación (de cigoto a cigoto, de adulto a adulto...) En genética de poblaciones se asocia un valor de eficacia relativa (W) a cada genotipo. Este valor es medida de la contribución relativa de cada genotipo a la composición genética de la generación siguiente. Se otorga al genotipo con la mayor eficacia relativa el valor W = 1.0 estableciéndose las eficacias de los demás genotipos a la escala de este genotipo. La intensidad de la selección contra un genotipo dado se expresa a través del coeficiente de selección (S), que mide la reducción proporcional de la contribución genética del genotipo en comparación con un estándar representado por el genotipo más favorecido. Los valores S van de 0 a 1, S y W se determinan como S = 1- W.
Para estimar la frecuencia de los alelos en una población, se pude usar la ecuación de Hardy-Weinberg, siendo; p la frecuencia del alelo dominante (A) q es la frecuencia del alelo recesivo (a) Para toda población se cumple:
p + q = 1
La suma de las frecuencias de ambos alelos es 100 %:
(p + q)2 = 1
De donde:
p2 + 2 ∙ p ∙ q + q2 = 1
Los tres términos de este binomio indican las frecuencias de los tres genotipos; p2 es la frecuencia de AA, homocigoto dominante, 2∙p∙q es la frecuencia de Aa, heterocigoto, q2 es la frecuencia de aa, homocigoto recesivo.
Los seres humanos se reproducen sexualmente porque descienden, como el resto de seres sexuados, de un ser que vivió hace 1.000 millones de años. El gran coste energético que representa la reproducción sexual, la mayor lentitud en la reproducción y el menor número de descendientes, queda paliado por la enorme variabilidad genética y una mayor tasa de evolución, con el consiguiente aumento de las posibilidades de supervivencia de un mayor número de descendientes, ante la variabilidad del hábitat. Es la aparición de una nueva fuerza de la naturaleza conocida como la selección “sexual”.
La deriva genética o deriva génica actúa cambiando las características de las especies en el tiempo. Se trata de un cambio aleatorio en la frecuencia de alelos de una generación a otra. La magnitud de la deriva genética en un número grande de poblaciones separadas, cada una con individuos n y frecuencias alélicas de p y q, después de una generación de apareamiento al azar la deriva genética expresada en términos de la variación en la frecuencia alélicas s2 entre las poblaciones será:
Cuanto mayor sea el número de individuos de la población, menor será la diferencia entre las frecuencias de una generación y otra, aunque lo que cuenta no es el número real de individuos, sino el tamaño efectivo:
Por ejemplo, cuando una población consiste en 90 machos y 10 hembras, el tamaño efectivo de la población es de sólo 36 y la deriva genética sucederá como si la población real consistiera tan sólo de 36 individuos.
La deriva genética tiene varios efectos importantes en la evolución: · La deriva reduce la variabilidad genética de las poblaciones, haciendo que disminuya, potencialmente, la capacidad de una población de evolucionar en respuesta a nuevas presiones selectivas. · La deriva genética actúa más rápido y tiene resultados más drásticos en las poblaciones más pequeñas. Este efecto es especialmente importante en las especies poco comunes o en peligro. · La deriva genética puede intervenir en la especiación. Por ejemplo, una población pequeña aislada puede divergir de la población más grande mediante deriva genética.
Si se compara la deriva genética entre la actual población humana 7.000 millones y un clan ancestral de 150 individuos. Suponemos que una generación está compuesta por una población efectiva (n) de 1.000 millones y 25 respectivamente, la reproducción es al azar, 50 % machos y hembras con frecuencia p = q = 0’5:
Por lo tanto, la variabilidad genética es 6.325 veces menor en la población actual, vista en su conjunto, que en el clan ancestral. La ley no se diluye, sino que actúa en todo su rigor, y explica el hecho empírico observado.
El subjetivismo biológico ha pasado de sostener que la evolución biológica no afectaba a los seres humanos, por ser creacionistas, a sostener que, en la actualidad, los seres humanos ya no evolucionan, que las leyes de la evolución genética ya no les afectan.
El subjetivismo biológico afirma estar de acuerdo con las leyes de la genética, que se cumplen en la naturaleza, pero que ahora no afectan a los seres humanos, de lo que cabría concluir que el género humano ha dejado de formar parte de la naturaleza. Esta afirmación suya la fundamenta en dos aseveraciones. La evolución biológica no se produce en el caso de los seres humanos debido a los avances en medicina y en la salud, porque todos los caracteres son aptos para la supervivencia y para la reproducción.
Yaiza Martínez en La selección natural sigue operando en el ser humano escribió:Aunque los avances en la medicina han mejorado el nivel de vida de los seres humanos, nuestra especie sigue sometida a los cambios de la selección natural, es decir, sigue evolucionando. Un estudio realizado con 2.000 mujeres ha revelado que es posible no sólo constatar estos cambios, sino además predecirlos a corto plazo en generaciones venideras. Los resultados de la investigación han demostrado, por otra parte, que los humanos evolucionamos al mismo ritmo que otras formas de vida del planeta. [Tienes que estar registrado y conectado para ver este vínculo]
Una simple constatación empírica evidencia que estas afirmaciones son subjetivas, no están basadas en los hechos, por lo que las conclusiones que extrae no se corresponden con la realidad, y no pueden considerarse científicas.
En primer lugar, no todos los conjuntos de caracteres que pueden conformar un ser humano son aptos para la supervivencia. Muchos humanos no alcanzan la madurez sexual y no pueden reproducirse, algunos que la alcanzan son estériles, otros no siendo estériles no se reproducen por otros motivos diversos. En consecuencia, y desde el punto de vista de la selección natural su genotipo no es apto, concepto que no tiene carga peyorativa, es decir, que ese genotipo en esas condiciones ambientales dadas no se puede reproducir.
En segundo lugar, no todos los conjuntos de caracteres que pueden conformar un ser humano se reproducen por igual. Es evidente que no todos los humanos tienen el mismo número de descendientes que, a su vez, se reproduzcan.
Estos son hechos incuestionables, que solo una posición subjetiva impide ver. El subjetivismo biológico plantea que la actuación de los seres humanos ralentiza o detiene las leyes de la evolución, cuando es justamente, al contrario. Cuanto menos azar interviene en la evolución más rápida se produce esta. Si se analiza una vaca lechera o en un caniche, desde el punto de vista de la evolución biológica, la una desciende del uro y el otro del lobo, la primera en 6.000 años y el segundo en 15.000 años. La selección natural actuando al azar, en las mismas condiciones ambientales, para conseguir esta evolución biológica tardaría cientos de miles de años, de poder hacerlo.
Los hechos indican que la actividad de los seres humanos acelera la selección natural, favoreciendo unos determinados genes sobre otros, porque se elimina el azar que es la forma más lenta de evolución. Parece que la conciencia y el conocimiento sobre-determinan a la selección natural aumentando su velocidad. La realidad de los hechos establece justamente lo contrario de lo que asevera el subjetivismo biológico.
Nina G. Jablonski y George Chaplin en Evolución del color de la piel humana:
La coloración de la piel de los seres humanos se debe fundamentalmente a un pigmento, la melanina, que producen los melanocitos de nuestra dermis. Su función en la piel es proteger el ADN de la nociva radiación solar.
El color de nuestra piel ha evolucionado en una suerte de fino compromiso entre la tendencia hacia la tonalidad oscura para evitar que la luz solar destruya un nutriente, el folato, y la tendencia hacia la tonalidad clara, para promover la producción de vitamina D.
En latitudes cercanas al ecuador, donde se originó nuestra especie, esta adaptación favoreció la supervivencia del Homo sapiens, y de una forma aún más acusada debido a la falta de protección que supuso la pérdida del pelo corporal. Por ello, los grupos étnicos de regiones ecuatoriales presentan una coloración más oscura en la piel, fruto de esta adaptación.
Pero, ¿por qué no tenemos todos la piel oscura de nuestros ancestros? Para explicarlo debemos buscar a los responsables: la vitamina D y el calcio.
A pesar de que demasiada radiación solar es dañina, el cuerpo humano necesita cierta cantidad para activar la Vitamina D que se encuentra en forma de precursor en nuestra piel. Esta vitamina es vital para el correcto desarrollo óseo, y su ausencia produce, entre otras patologías, el conocido raquitismo.
Cuando los primeros humanos abandonaron África y ascendieron hacia el norte, la pigmentación se convirtió paulatinamente en un problema: con menos intensidad de radiación solar, las altas concentraciones de melanina resultaban tan excesivas que no solo no eran útiles para la protección del ADN, sino que impedían la síntesis de Vitamina D.
Así, el presentar una menor concentración de melanina pasó a ser una ventaja en lugar de un inconveniente y generación tras generación, aquellos grupos humanos fueron perdiendo la coloración oscura a medida que se alejaban del ecuador. El resultado es el que vemos hoy; las coloraciones oscuras prevalecen en las zonas ecuatoriales, mientras que las pieles más claras son típicas de latitudes más boreales. [Tienes que estar registrado y conectado para ver este vínculo]
Frederich Engels en El papel del trabajo en la transformación del mono en hombre:
Primero el trabajo, luego y con él la palabra articulada, fueron los dos estímulos principales bajo cuya influencia el cerebro del mono se fue transformando gradualmente en cerebro humano, que, a pesar de toda su similitud, lo supera considerablemente en tamaño y en perfección. Y a medida que se desarrollaba el cerebro, desarrollábanse también sus instrumentos más inmediatos: los órganos de los sentidos. De la misma manera que el desarrollo gradual del lenguaje va necesariamente acompañado del correspondiente perfeccionamiento del órgano del oído, así también el desarrollo general del cerebro va ligado al perfeccionamiento de todos los órganos de los sentidos. La vista del águila tiene mucho más alcance que la del hombre, pero el ojo humano percibe en las cosas muchos más detalles que el ojo del águila. El perro tiene un olfato mucho más fino que el hombre, pero no puede captar ni la centésima parte de los olores que sirven a éste de signos para diferenciar cosas distintas. Y el sentido del tacto, que el mono posee a duras penas en la forma más tosca y primitiva, se ha ido desarrollando únicamente con el desarrollo de la propia mano del hombre, a través del trabajo. [Tienes que estar registrado y conectado para ver este vínculo]
La Neurología es el campo de conocimiento que estudia la estructura, función y desarrollo de los sistemas Nerviosos Central, Periférico y Autónomo.
El sistema nervioso, sujeto de la evolución biológica Los seres humanos descienden de un animal que vivió hace 600 millones de años y de un cordado que vivió hace 525 millones de años. Si bien la selección natural ya había producido neuronas con este ser se inicia la “encefalización”, un sistema nervioso central, el proceso de creación de ideas que continuará con la aparición del cerebro reptil hace 300 millones de años, con el primer mamífero hace 200 millones de años aparece el cerebro límbico y culminará con el neo córtex de los primates, algunos cetáceos y otros mamíferos superiores hace 100 millones de años, donde la materia empieza a adquirir conciencia de sí misma. Las neuronas son células capaces de almacenar y procesar información en mayor cantidad y de una forma mucho más eficiente que el ADN. La capacidad de almacenar información del cerebro humano es de 1015 bytes, por 5109 bytes de información que almacena en el ADN.
La materia viva adquiere las emociones, la voluntad y con ellas la capacidad de empatía y la cooperación consciente entre distintos individuos en busca de un objetivo común.
Selección social o altruismo. La selección sexual o de los parentescos puede extenderse a grandes grupos endogámicos, donde hay una alta probabilidad de que todos los miembros del grupo llevan el mismo gene. En una especie animal que vive en grupos donde hay una muy baja migración de animales entre grupos, la supervivencia del grupo como un todo depende de la voluntad de los miembros del grupo para cooperar y ayudarse mutuamente. Si la selección social es lo suficientemente fuerte, puede llevar a conductas que reducen la capacidad de reproducción del portador individual del gen, pero aumenta la capacidad de desarrollarse del grupo. Un ejemplo extremo de altruismo es la voluntad de un individuo en sacrificar su vida para defender a su grupo.
Los seres humanos tienen manos y pies con cinco dedos (o pentadáctilos). Pies plantígrados. Dedos de la mano con capacidad de flexión. Clavículas presentes. Dentición poco especializada, con cuatro incisivos, dos caninos, cuatro premolares y seis molares en cada mandíbula. Articulaciones del hombro y del codo bien desarrolladas. Hemisferios cerebrales bien desarrollados. Visión binocular y en color. Órbitas oculares rodeadas d hueso, porque los seres humanos descienden, como el resto de primates, de un primate que vivió hace65 millones de años. Que descienden, como el resto de homínidos, de un homínido que vivió hace 24 millones de años. Los humanos descienden de un australopiteco que vivió hace entre 5 y 7 millones de años con lo que se inicia la evolución hacia caminar erguido sobre las extremidades inferiores, lo que representa una ventaja evolutiva que permite crear y utilizar medios de trabajo, el transporte de herramientas, alimentos, agua o crías con las extremidades superiores. También permite otear el horizonte, ver por encima de los pastos y poder vigilar en caso de peligro. Andar erguido ayuda a regular el calor corporal ya que ofrece menos superficie a los rayos solares, le aleja del suelo fuente que irradia calor y puede aprovechar mejor las brisas. Correr erguido es más lento, pero hace más resistentes en largas distancias.
El lenguaje es una capacidad o facultad extremadamente desarrollada en el ser humano; es un sistema de comunicación más especializado que los de otras especies animales, a la vez es una capacidad física y mental, que le capacita para comunicar ideas complejas. El poder hablar al ser humano le ha impedido poder respirar y beber o comer a la vez, bajo el riesgo de ahogarse. Ciertamente a los seres humanos les gusta hablar, podemos afirmar que son unos homínidos muy parlanchines.
El bipedismo y el lenguaje, que surgió a partir del bipedisno, son adaptaciones evolutivas que han proporcionado al ser humano una gran ventaja sobre otras especies y que se explica mediante la fuerza biológica de la selección natural. El pelo es una adaptación evolutiva que dio ventaja a los mamíferos ya que los sistemas para regular el calor corporal son de vital importancia y el pelo evita de una manera muy eficaz la pérdida del calor y de igual modo evita el calentamiento corporal y la acción nociva de los rayos solares sobre la piel.
El ser humano es el único primate que ha perdido su pelaje, a excepción de la cabeza, axilas y alrededor de los genitales. Desde el punto de vista de la selección natural es una desventaja evolutiva y para perder esta ventaja evolutiva, paliada parcialmente por la melanina en algunos seres humanos, debe existir una muy poderosa razón. El tamaño del pene y del pecho en los seres humanos son, en términos absolutos y relativos, mayores que en cualquier primate. El crecimiento del pene y los pechos en los seres humanos solo es comparable al crecimiento del cerebro, de lo segundo los seres humanos se muestran muy orgullosos de lo primero prefieren no hablar.
Estas diferencias no son una ventaja evolutiva, no parece que sirvan para obtener o procesar alimento, ni que contribuyan a la capacidad de ocultación, huida o de defensa, no parece que mejoren la capacidad para resistir fluctuaciones ambientales, más bien al contrario, estas transformaciones se deben a otra fuerza o interacción biológica la selección social. La evolución de estos genes se debe a actos de voluntad, a las preferencias y gustos de individuos. La voluntad del sistema nervioso se impone sobre las determinaciones del genotipo, el libre albedrío sobre-determina a la selección natural y la selección sexual. Desmond Morris, El mono desnudo
El cerebro humano, la materia adquiere conocimiento sobre sí misma Existe una notable diferencia que distinguen a los humanos modernos del resto de primates; el cerebro.
El cerebro:
Los vertebrados se caracterizan por el aumento de la complejidad del córtex cerebral a medida que se sube por el árbol filogenético y evolutivo. El gran número de circunvoluciones que aparecen en el cerebro de los mamíferos es característico de animales con cerebros avanzados. Estas convoluciones surgieron de la evolución para proporcionar más área superficial (con más materia gris) al cerebro: el volumen se mantiene constante a la vez que aumenta el número de neuronas. Por ello, es la superficie, y no el volumen (absoluto ni relativo), lo que condiciona el nivel de inteligencia de una especie. No obstante, si comparásemos dos cerebros de la misma especie podríamos aproximar que hay más posibilidades que el cerebro más grande de los dos tenga una mayor superficie, aunque tampoco esto es definitorio de la cualidad intelectiva cognitiva sino que se considera como factor clave para mayores capacidades intelectivas y cognitivas a la arquitectura del cerebro: por ejemplo los Homo neanderthalensis podían tener cerebros tan voluminosos o más que los del Homo sapiens actual pero la arquitectura cortical de sus cerebros estaba más dedicada a controlar sus fuertes musculaturas mientras que en los Homo sapiens las áreas corticales más desarrolladas se ubican en las zonas dedicadas al lenguaje simbólico y las áreas pre frontales y frontales -en especial del hemisferio izquierdo- en donde se realizan las síntesis que dan por resultado procesos elaborados de reflexión, cognición e intelección. [Tienes que estar registrado y conectado para ver este vínculo]
El neuro-científico Karl Friston está elaborando una teoría cuya expresión matemática del funcionamiento del cerebro está basada en las ecuaciones de Thomas Baves, introduce dos conceptos; · Energía libre; el cerebro intenta minimizar las cosas que le sorprenden creando explicaciones precisas para los datos. Es un concepto de la física estadística y que en neurociencia ha descrito el proceso del cerebro como una máquina de realizar inferencias que intenta minimizar la energía libre. · Criticidad auto-organizada; se trata de cómo se utilizan en el cerebro los datos para construir una hipótesis, un modelo, una idea interna sobre qué es lo que está provocando las impresiones de los sentidos.
Una nueva ley matemática que propone una gran teoría unificada del cerebro:
El profesor Friston ha concebido una ley matemática que se acerca a una teoría de gran unificación de funcionamiento del cerebro humano. Una tal teoría, acompañada de una ecuación simple, podría esclarecer el misterio que rodea las enfermedades neurógenas y otras enfermedades, y mostrar como el ser humano piensa y toma sus decisiones. En el ser humano, cerca del 35% de las enfermedades tiene su origen en el cerebro. Los trabajos del profesor Friston se apoyan en la teoría del cerebro bayesiano, que supone que el cerebro funciona según un principio probabilista en el que evalúa permanentemente las previsiones del mundo exterior, y después los pone al día en función de las informaciones que le aportan los sentidos. [Tienes que estar registrado y conectado para ver este vínculo]
El cerebro a los seres humanos los ha convertido en los seres vivos más fuertes, veloces e infatigables, les ha dotado con la más inexpugnable de las corazas, de los más temibles colmillos y garras, de la visión más aguda, del oído más fino, del olfato más sensible con que la selección natural ha dotado al resto de seres vivos, el cerebro humano se caracteriza por;
El cerebro:
La corteza cerebral del cerebro humano contiene aproximadamente 15.000 a 33.000 millones de neuronas dependiendo del género y la edad.
Cada una de las cuales se encuentra conectada hasta con 10.000 conexiones sinápticas. Cada milímetro cúbico de córtex cerebral contiene aproximadamente 1000 millones de sinapsis.
De todo el peso de nuestro cuerpo, el cerebro solo representa entre el 0,8% y el 2% (aproximadamente entre 1.300-1.600 gramos) pero consume el 20% de la energía que se produce. Las mediciones de la densidad neuronal por unidad de volumen, hacen suponer que en un cerebro humano cuya capacidad oscila entre los 1.100 cm3 y los 1.500 cm3, puedan contener un orden de unos 100 mil millones, cada una de las cuales se conecta con otras por un número de sinapsis que va de varios centenares a más de 20.000.
Toda experiencia sensorial, consciente o inconsciente, queda registrada en el aparato neuronal y podrá ser evocada posteriormente, si se dan ciertas condiciones propicias.
Igualmente, la vastedad y los recursos de la mente son tan eficientes que el hombre puede elegir, en un instante dado, cada una de las 10.000.000.000 oraciones diferentes de que dispone una lengua culta.
El cerebro humano puede almacenar información que "llenaría unos veinte millones de volúmenes, como en las mayores bibliotecas del mundo" Carl Sagan, 1980 Cosmos.
"El cerebro del infante humano, a diferencia del de cualquier otro animal, se triplica en tamaño durante su primer año. [Tienes que estar registrado y conectado para ver este vínculo]
El aprendizaje cambia la estructura física del cerebro, organiza y reorganiza el cerebro. Diferentes partes del cerebro pueden estar listas para aprender en tiempos diferentes. El desarrollo del cerebro no es solo un proceso evolutivo impulsado biológicamente, sino que es también un proceso activo que obtiene información esencial de la experiencia y fundamentalmente de las expectativas. El cerebro es un órgano dinámico, determinado por los genes, la cultura y la experiencia, pero el cerebro, a su vez, moldea sus experiencias, la cultura donde vive y sobre-determina a los genes, decidiendo que genotipos se reproducen.
Con el cerebro humano la materia adquiere conocimiento de sí misma. Pero este fenomenal instrumento no es gratuito, tiene un coste energético. El cerebro humano pudo aumentar de tamaño debido a una combinación de estrategias que están presentes en otras especies, pero sólo ocurrieron a la vez en el homo sapiens; · Los primeros humanos incrementaron la energía destinada al cerebro aumentando la calidad de la dieta con un incremento en el consumo de pescado, carne y tuétano, y la cocción de los alimentos, disminuyendo el gasto energético en la digestión. · Reduciendo el gasto de energía de hembras reproductivas y sus hijos mediante la cría en grupo. · El cerebro humano se benefició de la energía “liberada” por la reducción de los costes de locomoción mediante la adquisición del desplazamiento bípedo. · La reducción de la tasa metabólica mediante una deceleración del ritmo de vida.
Este último factor, combinado con la cría en grupo, habría aumentado la tasa de natalidad, mucho más elevada que en otras especies de primates.
El coste energético del cerebro humano
Francisco Grande Covián, Cerebro y músculo:
Los cálculos que he realizado en varias ocasiones indican que mientras las necesidades de energía del cerebro humano representan un 20% del metabolismo basal, como queda dicho, sólo representan un 8% o un 9% del metabolismo basal en los monos superiores y un 3% o menos en las demás especies consideradas (elefante, caballo, cerdo, oveja, perro, conejo, cobaya, rata y ratón). El gasto energético de la musculatura humana en reposo, según varios cálculos, incluyendo los míos, son del orden de un 20% a un 25% del metabolismo basal. Esto quiere decir que la musculatura, que en conjunto pesa unas 20 veces más que el cerebro, tiene unas demandas energéticas de mantenimiento comparables a las del cerebro. [Tienes que estar registrado y conectado para ver este vínculo]
Según la ecuación de Harris-Benedict la Tasa Metabólica Basal en el hombre es:
La contribución de la actividad física diaria al Gasto Energético Total es muy variable, pudiendo ir desde un 10% hasta un 50% La disminución de la temperatura ambiente hace aumentar el gasto energético total para mantener la temperatura corporal de entre un 5 % a un 20 %. Las necesidades energéticas medias de un ser humano de 35 años de edad, de 1’75 m de altura, 70 Kg de peso lo que da un Índice de Masa Corporal de 22’86, se pueden cifrar en:
Lo que hace una media de 2.780 Kcal día, que implica que las necesidades energéticas diarias del cerebro ascienden a:
2.780 ∙ 20 % ≈ 556 Kcal día
Si se multiplica las necesidades medias diarias de energía, 2.780 Kcal, por los 7.000 millones de habitantes actuales de la Tierra nos da unas necesidades energéticas anuales de la humanidad de 7’105∙1015 Kcal, más las necesidades de agua, de oligoelementos, de abrigo y habitación. A pesar de que el cerebro solo representa un 2% del peso corporal, recibe el 15% de la salida cardíaca, 20% de todo el oxígeno consumido por el cuerpo y utiliza un 25% de la glucosa total. Un “aumento” en la actividad mental no aumenta apreciablemente las necesidades de energía del cerebro, mientras que la actividad física eleva considerablemente las necesidades de energía de la musculatura y la naturaleza de los combustibles utilizados. En el planeta Tierra es necesario un gasto medio de 0,135 J∙s por individuo, para que la materia adquiera conocimiento sobre sí misma. Estas necesidades energéticas solo se han podido satisfacer gracias al desarrollo de la productividad de la fuerza de trabajo humana. Este desarrollo de las fuerzas productivas, desde el punto de vista de la evolución de las formas de vida, solo ha sido posible por existencia de un cuarto tipo de fuerza de evolución biológica.
La selección por ayuda mutua o beneficio recíproco. Si dos individuos o más se ayudan mutuamente de tal manera que de la cooperación consciente surge un beneficio recíproco, entonces cualquier genotipo que favorece dicha cooperación se ve favorecido bajo ciertas circunstancias. Los seres humanos al cooperar conscientemente aumentan la probabilidad de supervivencia mutua y reproducción, por lo que existe un claro beneficio recíproco producto de la ayuda mutua. Lo que distingue a los seres humanos de las bacterias es la cooperación y la ayuda mutua consciente. También se da el caso de individuos que capitalizan los beneficios de la ayuda, pero no socializan el beneficio de la ayuda mutua.
Ecuación de Price:
La ecuación de Price es una ecuación de covarianza que proporciona una descripción matemática de la evolución y la selección natural. La ecuación de Price fue obtenida por George R. Price, mientras trabajaba en Londres en la reelaboración de los trabajos de W. D. Hamilton sobre selección por parentesco.
La ecuación de Price es un teorema; es una declaración de hecho matemático entre ciertas variables, y su valor radica en la penetración obtenida mediante la asignación de ciertos valores encontrados en genética evolutiva de las variables. Proporciona una manera de entender los efectos que la transmisión de genes y la selección natural en la proporción de genes dentro de cada nueva generación de una población.
Donde cov y E son equivalentes a las definiciones tradicionales de covarianza y media de la muestra, se designa como Δzi a la variación en la característica para el grupo i, donde cada valor zi tiene asociado una aptitud wi. [Tienes que estar registrado y conectado para ver este vínculo]
No he tenido tiempo de leerlo todo, pero me ha llamado la atención que menciones el experimento de Afshar. Justo leía un artículo hace poco que desmentía que Afshar pudiese afirmar por qué rendija había pasado el fotón a la vez que comprobaba que se había dado interferencia, falseando el Principio de Complementareidad al presentar un experimento que confirma ambos comportamientos simultáneamente. Por lo visto, se trata de una mala interpretación de la actuación de la rendija que va justo antes de la lente.
Grosso modo, el confirmar que los fotones se encuentran en estado S (la forma ondulatoria de la luz) en la rendija invalida que, al escindirse en dos haces por acción de la lente y contados los fotones que llegan a dos sensores L' o U' (la forma corpuscular, sólo puede ir a un sensor, ya que una partícula no puede estar en dos sitios a la vez), se pueda afirmar que los dos posibles resultados (un sensor u otro) se correlacionen directamente con los dos posibles estados L o U (una rendija u otra) y no sea una superposición de ambas, como lo es S. En otras palabras, un fotón que pasó por la rendija L puede acabar con cierta probabilidad en U', lo que implica que el fotón alterna su comportamiento en cada medición de su estado y no manifiesta ambas naturalezas a la vez, cumpliendo el Principio.
Este hilo forma parte de un conjunto que pueden titularse Apuntes de economía, más que una investigación, es un estudio sobre las investigaciones de otros autores, de ahí la utilización de gran cantidad de citas y de la extensión de algunas de ellas. El estudio es sobre algunas leyes de las llamadas ciencias sociales y los conceptos que utilizan. El estudio está dividido en cuatro secciones, teoría del conocimiento, materialismo histórico, economía política y lucha de clases en España.
El folclorismo izquierdista es revisionismo subjetivista. Un análisis de la actualidad de Movimiento comunista en lucha contra el subjetivismo como el principal error teórico del Movimiento Comunista Internacional. El folclorismo izquierdista, en sus proclamas, continuamente utiliza términos como marxismo, materialismo, ciencia, …, como los jóvenes "marxistas" en tiempos de Engels, sin embargo, tanto los unos como los otros son flojos en el estudio y prefieren adherirse a una doctrina teológica a la que llaman "marxismo-…". Si el “marxismo” es la doctrina que predica el folclorismo izquierdista, hay que proclamar; “tout ce que je sais, c'est que je ne suis pas marxiste”;
Friedrich Engels en Carta a Konrad Schmidt escribió:Marx había dicho a fines de la década del 70, refiriéndose a los «marxistas» franceses, que «tout ce que je sais, c'est que je ne suis pas marxiste*»…
…Usted, que ha hecho realmente algo, habrá notado por fuerza qué pocos de los literatos jóvenes que se cuelgan al partido se toman la molestia de estudiar Economía política, historia de la Economía política, historia del comercio, de la industria, de la agricultura, de las formaciones sociales. ¡Cuántos conocen a Maurer sólo de nombre! La suficiencia del periodista tiene que suplirlo todo, y así anda ello. A veces, parece como si estos caballeros creyesen que para los obreros cualquier cosa es buena. ¡Si supiesen que Marx no creía nunca que incluso sus mejores cosas eran bastante buenas para los obreros y que consideraba un crimen ofrecer a los obreros algo que no fuese lo mejor de lo mejor!... [Tienes que estar registrado y conectado para ver este vínculo]
*Todo lo que yo sé, es que yo no soy marxista
Teoría del conocimiento. Sobre los principios ideológicos y el punto de vista filosófico Ideología comunista. Violencia, dictadura y democracia. Trata sobre la ideología comunista como ideología opuesta a todo tipo de estado, se definen las nociones de dictadura y democracia, el papel histórico de la violencia y su relación con el estado en la ideología comunista, así como las dos fases de la sociedad comunista y el período de transición desde el capitalismo. Se define el revisionismo, o folclorismo de izquierdas "marxista", y el anarco-capitalismo como folclorismo de derechas, se estudia el libre mercado y la planificación económica a la luz de la ideología comunista.
Lucha de clases en la URSS, en la R. P. de China, y revisionismo. Se esboza un análisis de la lucha de clases en la extinta URSS, y en la República Popular China, de los errores de principios ideológicos y de las concepciones subjetivistas en el Movimiento Comunista Internacional, lo que algunos han dado en llamar el ciclo de octubre.
Materialismo dialéctico, ¿la filosofía comunista?. Se estudia una concepción filosófica materialista, la relación entre materia e ideas, se define las concepciones de sensación, emoción y percepción, así como la relación entre idolología filosofía y ciencia y se propone un criterio de verdad. Se estudia concepciones y tesis filosóficas con apariencia materialista pero que realmente son subjetivismo ideológico, revisionismo folclórico de izquierdas "marxista", junto a concepciones filosóficas sobre la sociedad propias del folclorismo de derechas, declaradamente de subjetivismo idealista.
Dialéctica de la materia. Ciencia y subjetivismo filosófico. Se estudia como solo las leyes científicas, no las tesis filosóficas que solo sirven para extraviar a la ciencia, dan conocimiento objetivo sobre la realidad material, cómo, dicho conocimiento, puede servir para transformar la realidad conforme a las leyes objetivas del movimiento material, y la relación que guardan entre sí las diferentes leyes científicas.
Materialismo histórico. Sobre el desarrollo de las fuerzas productivas y relaciones de producción Materialismo histórico. Sucesión de formaciones sociales y filosofía subjetiva de la historia. Se estudia el desarrollo histórico de las sociedades humanas, el desarrollo de las fuerzas productivas, los modos de producción, la sucesión de las formaciones sociales, la aparición del mercado y de la lucha de clases. Se definen diferentes modos de producción y conceptos como formación social, clase social, lucha de clases, etc…
Desarrollo histórico de las relaciones capitalistas de producción. Se esboza la aparición del modo de producción capitalista, la necesaria acumulación primitiva de capital y la imprescindible producción de la mercancía fuerza de trabajo, y diferentes fases de su desarrollo el gremio, la manufactura, la industria y la gran industria. Al igual que diferentes clases de capital, el capital comercial, el agrario, el industrial y el bancario. De igual modo se esbozan las líneas generales de algunas escuelas de pensamiento económico, como la escuela de Salamanca, el mercantilismo, la fisiocracia hasta la conversión de la economía en ciencia con Adam Smith.
Usura, capital financiero e imperialismo. Se analiza el ciclo económico del capital bancario, la forma en que con el capital bancario aparece una nueva clase social los gerentes profesionales del capital, la evolución histórica del capital bancario y como éste se convirtió en hegemónico sobre el capital comercial, el agrario y el industrial a finales del siglo XIX. También se apunta cómo el capital comercial y el agrario desarrollan el colonialismo, el capital industrial el librecambismo, el capital bancario conduce de forma inexorable, por la ley de la tendencia al monopolio del capitalismo financiero, al imperialismo como fase ulterior del capitalismo y, finalmente como el imperialismo se redujo a dos superpotencias hegemonistas, los cambios en la lucha por la hegemonía mundial y como la lucha hegemonista conduce a la extinción del capitalismo.
Economía política. Sobre la producción, circulación, distribución y consumo de mercancías Circulación de mercancías. Valor objetivo de la mercancía y función subjetiva de utilidad marginal. Se estudia la circulación capitalista y el ciclo económico comercial del capital, diferentes conceptos de la economía política; el dinero y como sustituyó al trueque en el intercambio de mercancías, diferentes tipos de dinero como el dinero mercancía, el fiduciario, el dinero bancario y la evolución histórica de las diferentes leyes del intercambio de mercancías. Así y como los conceptos de mercancía y libre mercado, los conceptos de recurso natural, de utilidad, de valor de uso y de valor de cambio. Al igual que se estudia la ley general del valor de cambio de una mercancía, como la ley de la oferta y la demanda tiende a igualar la tasa de ganancia capitalista y a la concentración del capital. También se definen los conceptos de precio de mercado, capital fijo, capital circulante, capital variable, precio de costo, precio de producción, valor de producción, la ganancia capitalista o plusvalía, la tasa de ganancia y la tasa de plusvalía.
Producción de mercancías en el capitalismo. Teoría sobre el valor y el precio de las mercancías. Se estudia las leyes de producción capitalista de mercancías, se define los conceptos de trabajo, fuerza de trabajo, como la fuerza de trabajo genera un plus-trabajo, mediante el desarrollo de las fuerzas productivas y la división técnica del trabajo o ley de asociación de Ricardo. El ciclo económico industrial, la ley del valor y de la ganancia capitalista, la ley de la tasa de ganancia y de la tasa de plusvalía.
Distribución capitalista de mercancías, consumo y ánimo de lucro . Se estudia la distribución de la plusvalía entre diferentes clases sociales, así y como el subjetivismo acientífico de la preferencia temporal por el consumo en la escuela austríaca, del multiplicador keynesiano del ingreso y el monetarismo neoliberal. También se estudia el límite demográfico a la expansión capitalista, el estancamiento sistémico del capitalismo y las alternativas para el desarrollo de las fuerzas productivas.
Lucha de clases en España. Sobre la producción y distribución de plusvalía y la crisis económica española Las clases sociales en España. Límites de la democracia española. Es una aplicación de los conceptos y leyes estudiados en las anteriores secciones a la formación social española. Se estudian las diferentes clases sociales y su desarrollo histórico. También se estudia las carencias democráticas del estado español, estado al servicio de los intereses económicos y políticos de oligarquías financieras, de igual modo se estudia la cuestión nacional en España, las diferentes nacionalidades su evolución histórica y las relaciones de dominación del estado con las minorías nacionales.
La plusvalía en España, su producción y distribución. Se estudia la producción de plusvalía en España, su evolución durante la crisis económica y su distribución entre diferentes clases sociales, así como las exigencias del imperialismo sobre la oligarquía española.
La crisis económica española. Causas y consecuencias. Se estudia la crisis económica en España, sus causas y consecuencias, entre otras; la enorme e impagable deuda. También se estudian los privilegios económicos de los oligarcas y financieros en España.
Programa mínimo de transformaciones económicas y políticas para España
Aunque se pueden leer de forma aleatoria es aconsejable leerlos en el orden indicado.
Todos los hilos se pueden descargar en formato .pdf del siguiente enlace;
[Tienes que estar registrado y conectado para ver esa imagen] Apuntes de economía Subjetivismo filosófico y ciencia