Archivo de la categoría: Física

Resolviendo la paradoja de Zenón.

Si se arroja una flecha hacia un blanco, según Zenón, nunca llegaría.

Paradoja de la flecha | LA FILOSOFIA LA DROGA DEL PASADO

Ilustración publicada en “Paradoja de la flecha, LA FILOSOFIA LA DROGA DEL PASADO”

En una de sus paradojas, dice que luego de recorrer la mitad de camino, le faltará la otra mitad. Luego, le faltará la mitad de esa mitad, y así, siempre le faltará la mitad del resto del camino por lo que nunca llegará a destino.
Sin embargo, sabemos que llega; sólo tenemos arrojar una piedra contra una pared desde cierta distancia con la suficiente velocidad para ver que la alcanza; no se nos ocurriría ponernos delante del camino de una flecha.
Hay dos maneras de demostrarlo, una matemática y otra física.

Vamos con la matemática.
Se puede demostrar que la suma dada por: ½ + ¼ + ⅛ + … = 1.
Veamos:

Sea S = ½ + ¼ + ⅛ + …
Luego, 2*S = 1 + ½ + ¼ + ⅛ + …
Así, 2*S – S = 1 + (½ + ¼ + ⅛ + …) – (½ + ¼ + ⅛ + …)
Cancelando los términos entre paréntesis nos queda que: 2*S – S = 1.
Finalmente: S = 1.

También, dividiendo un “todo” en mitades sucesivas, se puede demostrar que la suma de ellas da ese todo.

https___blogs-images.forbes.com_startswithabang_files_2020_05_successive-halves

Imagen de dominio público (ver referencia al pie de este artículo)

Así, de esta manera, estudiando la sucesión de las mitades, podemos decir que la flecha llega a destino.

Veamos la demostración física.
Para recorrer un trayecto de A a B, la flecha empleará un cierto tiempo, de tal manera que se desplazará con una cierta velocidad “v”, la que será (casi) constante a corta distancia. De no serlo (porque la distancia es grande y la flecha se va frenando por rozamiento con el aire), se desplazará cada vez más despacio, con una cierta velocidad promedio.
Esa velocidad (constante o promedio) será igual al cociente entre el espacio recorrido “e” y el tiempo empleado “t”.

O sea que: v = e / t

Si la paradoja dice que el espacio recorrido es infinito (siempre falta la mitad del resto del camino), eso implica que el tiempo empleado en ir de A a B también será infinito. Si recorrer cada mitad lleva un cierto tiempo, al haber infinitas mitades por recorrer, estaremos infinitamente recorriendo mitades.

El cociente entre dos cantidades infinitas está indeterminado, o sea que no tiene resultado.
Veamos por qué.
Si el numerador es infinito, el resultado debería ser infinito (ej.: si tengo infinitas tortas para repartir entre amigos, a cada uno le tocará infinitas tortas).
Si el denominador es infinito, el resultado debería ser nulo (ej.: si tengo que repartir tortas entre infinitas personas, a cada una le toca nada).
Así el cociente entre dos cantidades infinitas debería ser infinito por un lado y nulo por el otro, luego, está indeterminado.

Pero la velocidad v es finita y está determinada.
Eso implica que el cociente e / t está determinado. Luego ambas cantidades e y t son finitas y así el espacio recorrido no será infinito.
Luego habrá un espacio determinado recorrido en un tiempo determinado y por lo tanto la flecha llegará de destino.

Referencia:

pdp.

¿Un autómata celular puede ser la base de la Teoría del Todo?

Artículo retocado el 26/abr/2020 a las 20:27 HOA.
La Física describe la Naturaleza que nos rodea y muchas veces se derrumba para rehacerse ajustada a la realidad.
Hoy en día, la Física Moderna tiene dos grandes pilares: La Relatividad y a Cuántica.
Cada una reina en diferentes escenarios.
La Relatividad explica el comportamiento de la Naturaleza a grandes escalas para altas energías. La Cuántica, explica la Naturaleza en el Universo atómico, donde viven las partículas. A veces se “tocan” y no se ponen de acuerdo, lo que no implica que estén divorciadas, solamente están desarrolladas para diferentes escenarios (Cuántica y Relatividad no se contradicen | pdp | https://paolera.wordpress.com/2017/02/10/cuantica-y-relatividad-no-se-contradicen/ ).

En la Física Clásica, se dice que dos cuerpos con cierta masa se van a atraer “como si existiera una fuerza” directamente proporcional a sus masas e inversamente proporcional a la distancia.
Así, ese modelo explica clásicamente la gravitación donde la supuesta fuerza actuante es algo propio de los cuerpos físicos.
Pero la Relatividad mostró que los planetas se mueven en líneas rectas y que la única explicación para tener órbitas cerradas era que “el espacio esté curvado por las masas” (Una forma de ver la curvatura del Espacio | pdp | https://paolera.wordpress.com/2014/10/17/una-forma-de-ver-la-curvatura-del-espacio/ ).

Ilustración de espacio clásico y relativista – crédito NASA

Por otro, lado la Cuántica desde lo microscópico, explica la evolución de las estrellas, y hasta el nacimiento del Universo.

De pozos y corrales cuánticos

Ilustración crédito: launion.com.mx.

Pero Cuántica y Relatividad suelen chocar.

Para la primera, existe la escala o longitud de Planck (EP), que es la menor distancia dentro de la cual podemos aplicar la Física conocida y la geometría es la que conocemos. Esa EP es una cantidad invariante. Pero en Relatividad existen las Tranformadas de Lorentz (TL), las que pasan una medida hecha en un sistema en movimiento a otro en reposo. Pero para las TL, la EP no es invariante en la dirección del movimiento (La violación de las TL y la EP | pdp | https://paolera.wordpress.com/2013/05/03/la-violacion-de-las-invariancias-de-lorentz-y-la-escala-de-planck/ ).
En detalles como éste, se basan estudios sobre la Energía Obscura. Esa energía capaz de acelerar la expansión del Universo, sería el resultado de violar las TL.
Para la Cuántica, no es necesario un espacio que se deforme ante la presencia de una masa. O sea que si no tenemos en cuenta a la gravedad, ambas teorías se llevan bien.

La Teoría del Todo o Teoría Madre, pretende unificarlas.
Hubo y hay muchos intentos, pero ninguno satisfactorio. Todos se pelean entre ellos.

Un atómata, es una entidad (por no decir una cosa) capaz de evolucionar bajo ciertas reglas.
Un autómata celular (AC), es un conjunto de autómatas que evolucionan dando así las propiedades del todo. Este modelo (basado en una matriz), puede recrear el comportamiento de un cardumen de peces o cualquier otro sistema compuesto por elementos que evolucionan en conjunto.
En este aspecto, es muy conocido el Juego de la Vida de Conway.

Una forma de salvar esta situación, es hacer que en Cuántica no sea problema un Espacio capaz de deformarse para que la gravedad pueda hacer de las suyas.
En el escenario Cuántico, el Espacio está dado por “casilleros” que pueden ser ocupados por partículas, nótese que ellas no pueden estar en cualquier parte, pues no pueden ubicarse entre casilleros. Nosotros somos demasiado grandes para “sentir” esos casilleros y nos movemos sobre ellos como si se tratara de un Espacio continuo. Cada casillero está vinculado con sus vecinos a través de “caminos”; así, las partículas pueden moverse en un Espacio cuantificado, saltando de casillero en casillero.
El problema aparece cuando la masa quiere deformar ese Espacio.
Aquí es donde viene el intento de solución de Stephen Wolfram.
Él plantea que un casillero puede ser substituido por otros con sus correspondientes caminos. Ésto, llevado a un nivel de cierta complejidad, permitiría la deformación del Espacio en el ambiente Cuántico.
Ahora bien, esto de un Espacio que evoluciona con casilleros que se substituyen bajo ciertas reglas, (me) suena a un modelo de AC.

Visual summary of the Wolfram Physics Project

Esquemas de casilleros y caminos entre ellos que son substituidos por otros – Stephen Wolfram

Esto no sería raro si tenemos en cuenta que Stephen Wolfram, a trabajado con este tipo de modelos (Stephen Wolfram: Official Website | https://www.stephenwolfram.com/).

Habrá que esperar a que esta teoría esté terminada para sacarnos las dudas.

Referencias:

Fuente:

pdp.

La Roseta de Schwarzschild

La Relatividad se aplica en los escenarios de altas energías.
Explica características de eventos en esos ambientes que la Física clásica o Newtoniana no puede. Un caso fue el movimiento o precesión del perihelio de Mercurio.

El perihelio, es el punto en la órbita de un planeta más cercano al Sol. En ese punto, la velocidad del planeta es máxima. Mercurio muestra que su perihelio se desplaza en lo que se conoce como precesión, en este caso, del perihelio.
Primero se pensó en la acción gravitatoria de un planeta interior a la órbita Mercurial. Se lo llamó Vulcano. Más tarde, los cálculos no encajaban con la posible existencia de este planeta. Luego, la precesión del perihelio de Mercurio resultó ser el primer ejemplo en el Sistema Solar de un efecto Relatívístico. De esta manera, la órbita elíptica de Mercurio genera lo que se llama una “roseta”, en este caso, la conocida como Roseta o Precesión de Schwarzschild.

Video: Precesión del perihelio de Mercurio

Víctor Pérez

En torno a Sag A*, el agujero negro supermasivo central de la Vía Láctea, hay un grupo de estrellas masivas y calientes. Entre ellas, se encuentra la catalogada como SO-2 o simplemente S2, una estrella caliente (de tipo B), de unas 15 veces la masa del Sol.
En su periastro, lugar de su órbita más cercacno a Sag.A*, esta estrella alcanza una velocidad de unos 7000 Km./seg., lo que es algo Relativístico. Así, esta estrella muestra también un ejemplo de Precesión de Schwarzschild, cosa que se esperaba desde el año 2018, siendo el primer caso observado en una estrella en torno de un agujero negro (El acercamiento de S2 a Sag.A* | pdp | https://paolera.wordpress.com/2018/03/14/el-acercamiento-de-s2-a-sag-a/).

Artist’s impression of Schwarzschild precession

Ilustración del caso de Precesión de Schwarzschild de la estrella S2. – Crédito: ESO/L. Calçada

Referencias:

Fuente:

pdp.

 

La Crisis Cósmica – midiendo distancias.

Sabemos que el Universo se expande.
En un principio se supuso que lo hacía con velocidad constante. Eso hacía que los objetos se alejen entre sí con velocidades respecto de ellos (por ejemplo respecto a Nosotros) que aumentaban linealmente con la distancia. La variación de la velocidad de recesión con la distancia es conocida como Constante de Hubble (H0).
Ésta está íntimamente relacionada con la evolución de Universo, en particular con su edad. Una variación en el valor de H0, tiene fuertes repercusiones en Cosmología.
Sucede que se encontró que las galaxias lejanas, escapan con mayor velocidad que la esperada según H0. Luego, habría una aceleración de la velocidad de alejamiento con la distancia. Eso implica la existencia de una energía obscura, lo que mereció el Nobel de Física de 2011 (https://www.investigacionyciencia.es/noticias/premio-nobel-a-la-energa-oscura-9897). Esta energía recibe ese nombre por ser de origen desconocido hasta ahora y sería la responsable de la aceleración en la expansión del Universo (https://paolera.wordpress.com/2018/08/05/sobre-el-origen-de-la-energia-obscura/).

Así las cosas, hay que medir H0 para saber cómo varía con la distancia y saber cómo es la aceleración en la expansión Universal.

Es aquí donde comienza La Crisis Cósmica.
Medir un valor de H0 implica medir la velocidad y la distancia de un objeto lejano. No hay mayor problema en medir su velocidad. Sólo hay que obtener un espectro de su luz y observar cómo varía al rojo (https://es.wikipedia.org/wiki/Espectroscopia_astron%C3%B3mica). El tema en discordia viene con la medición de la distancia.

expanding universe distance ladder

Ilustración crédito de JPL-CALTECH/NASA.

Ésta se mide en MegaParsecs (Mpc), es decir en millones de parsecs (Pc), donde un Pc es la distancia bajo la cual se observa el radio de la órbita Terrestre (igual a 1 UA) bajo un ángulo de 1 segundo de arco (1”). Recordemos que en 1° hay 3600”, luego 1 Pc equivale a 206265 UA.

Las diferentes técnicas arrojaron valores muy distintos. Si bien algunos se parecen, en general hay mucha dispersión. Los valores van desde 67,4 Km./seg./Mpc. a 76,5 Km./seg./Mpc.).
Por un lado están los que piensan que todo es debido a un error de medición. Que los métodos utilizados involucran medidas de cantidades que no son invariantes con la distancia. Para ellos, la energía obscura no existe. Por otro lado están lo que defienden su existencia; y en el medio, los que aceptan a la energía obscura pero descreen de algunas técnicas y se inclinan por otras.

Todo se basa en la medición de cantidades que no varían con la distancia.

Algunos usan “candelas”, objetos de luminosidad propia o intrínseca conocida. Así, observando la luminosidad aparente disminuida por la distancia y sabiendo la intrínseca, se puede obtener la distancia. Para eso se ha usado supernovas de tipo Ia, las que fueron descalificadas por algunos por asegurar que su brillo propio es función de la distancia (https://paolera.wordpress.com/2020/01/14/la-energia-obscura-podria-no-existir-2/).
Otros usaron variables de tipo Cefeidas y de tipo Mira
También se usan estrellas gigantes rojas. Es sabido que éstas tienen el mismo máximo brillo propio en su evolución. En este aspecto se ha argumentado que éstas pueden ver su brillo atenuado por perturbaciones en sus capas exteriores producidas por objetos planetarios asimilados por ellas en su crecimiento (https://paolera.wordpress.com/2020/04/09/las-gigantes-rojas-pueden-indigestarse-de-planetas/).

También se han usado las observaciones del fondo de micro-ondas producido en el nacimiento de Universo. Utilizando el Observatorio Plank, podemos ver como era el Universo y compararlo con cómo es Hoy (https://es.wikipedia.org/wiki/Planck_(sat%C3%A9lite) ).
Las lentes gravitacionales son útiles para medir H0.
Éstas están producidas por una gran masa que genera el efecto de lente convergente y produce varias imágenes de objetos más distantes. Observado las variaciones en la posición de estas imágenes virtuales, podemos saber el alejamiento de la fuente gravitatoria (http://www.astronoo.com/es/articulos/lente-gravitacional.html).

Estas técnicas, y otras que involucran radiación de determinada frecuencia por parte de nubes de gas sometidas a la gravedad de agujeros negros, son las que compiten por el verdadero valor de H0.
La ganadora determina la edad y evolución del Universo.

Referencias y Fuentes:

pdp.

Las ondas gravitatorias no son riesgosas.

Las ondas transportan energía y son capaces de entregarla.
Su amplitud o tamaño, junto con la energía que transportan, hacen que sean o no de riesgo. Ambas disminuyen con la distancia, por lo que la lejanía de la fuente de las ondas suele protegernos.
El sonido es una onda que nos trae información. Pero si es muy intensa, nos puede dañar. Lo mismo sucede con la luz. Nos ilumina y nos informa de lo que nos rodea, pero su intensidad o energía, puede hacernos daño si es muy alta.

Todo depende de la energía que transportan, la que está relacionada con su amplitud, y de cuán efectivas son en el momento de entregarla.

Las ondas gravitatorias se originan en eventos donde están involucradas las masas de los objetos. Éstos son capaces de curvar el espacio que los rodea por acción de su gravedad. Así es cómo un objeto puede ver curvada su trayectoria al pasar cerca de otro que es más masivo. Recordemos que la gravedad aumenta con las masas en juego y disminuye con la distancia. Llega a todas partes; no se puede deshojar una margarita sin perturbar una estrella.

ondaGravit

Las ondas gravitatorias alternan contracciones y expansiones en todas las direcciones del espacio – Animación crédito: ESA–C.CARREAU

Cuando un objeto estalla, genera una perturbación gravitatoria que viaja por el espacio como un pulso; de la misma manera que una perturbación viaja por la superficie del agua.
Cuando dos masas se orbitan mutuamente, cada una de ellas se acerca y aleja de nosotros de manera periódica. Eso genera periódicos aumentos y disminuciones de su gravedad sobre nosotros, lo que nos llega en forma de ondas: ondas gravitatorias.
Estas ondas deforman el espacio que habitamos y compartimos esa deformación. Así, nos deformamos con el espacio donde viajan esas ondas. De hecho, los detectores de ondas gravitatorias, son capaces de medir su deformación a medida que lo hacen junto con el espacio cuando éstas nos llegan. Toda la Tierra las siente y las sintió desde siempre, y sin embargo, acá estamos. Luego, desde ya podemos afirmar que no son un peligro.

No hay riesgo en la deformación que se sufre ya que acompañamos al espacio en ese proceso. Las partículas que nos conforman no se desplazan respecto del espacio que ocupan, por lo que nuestra elasticidad no está en riesgo. Nos deformamos con el espacio.
Pero hay entrega de energía.
Con ella, las partículas pueden animarse de cierto movimiento y desplazarse respecto del espacio que ocupan. Las ondas gravitatorias llegan con poca energía debido a la gran distancia que recorren y no son muy eficientes a la hora de entregarla.
Las que fueron detectadas originadas en el choque de agujeros negros y estrellas de protones, produjeron una deformación en nuestro Planeta del orden del tamaño de una docena de protones. Despreciable para Nosotros y apreciable para los detectores.
Si una onda de esas se hubiese producido dentro del Sistema Solar, digamos a una distancia igual a la Tierra – Sol, nuestro Planeta habría sentido una deformación de 1 metro, lo mismo que produce las mareas Lunares.

Debería ser una onda colosalmente mayor a las detectadas y generada dentro del Sistema Solar, para que las partículas que nos conforman adquieran la energía necesaria para chocar, producir fracturas y desgarros; todo lo que generaría terremotos, aumento del vulcanismo y otras consecuencias graves. Pero eso no se da, por lo que estas ondas, por la distancia a su origen y su pobre capacidad de entrega de energía, no son un riesgo.

Fuente:

pdp.

Las cúspides de halos de materia obscura podrían no ser reales.

A mis ex-alumnos de Simulaciones.

Un amigo dice que donde mueren las palabras nace la música.
Podríamos decir que en Ciencia, donde muere el estudio analítico nace la simulación.

Con las computadoras, comenzaron las simulaciones numéricas. Podemos introducir las ecuaciones que describen el comportamiento de un sistema y ver qué le sucede bajo ciertas condiciones.
El problema de dos cuerpos, en el que dos masas interaccionan gravitacionalmente, tiene solución analítica, es decir, con lápiz y papel. El problema de tres cuerpos se resuelve analíticamente bajo ciertas condiciones, donde uno es del dominante y otro tiene masa despreciable frente a los otros dos. Ya, para resolver el de N cuerpos, el estudio analítico es imposible y hay que recurrir a la simulación. Se codifican las ecuaciones de movimiento de un cuerpo bajo la acción gravitatoria de los otros, y se hace evolucionar el sistema para ver su comportamiento.
Así pudimos confirmar la estabilidad del Sistema Solar, analizar el resultado de colisiones de galaxias y de formación de sistemas estelares.

Video: Star cluster simulation.

F.I. Pelupessy

Hoy en Día, se realizan simulaciones para probar la validez de teorías y modelos según representen lo que se observa. Luego, en caso favorable, se puede extrapolar y predecir el comportamiento del sistema en estudio.
En simulaciones numéricas, hay errores técnicos relacionados con el sistema que se usa para la emulación. Por un lado están los errores de truncamiento. Estos errores aparecen cuando utilizamos desarrollos en serie o aproximaciones de las expresiones algebraicas. Contra menos términos de la serie se consideren, o mayor sea la aproximación, mayor será el error aunque se ahorra tiempo de proceso.
Para reducirlo ese error, debemos tomar más cantidad de términos de los desarrollos en serie, lo que nos da mayor precisión aunque se agregue tiempo de cálculo, pero eso puede generar un error de redondeo. Eso se debe a las características de las variables del lenguaje de programación usadas para almacenar los datos.

Recordemos que la materia obscura no es observable y es la que mantiene gravitacionalmente unida a las estructuras galácticas. Sin ella, sus estrellas más alejadas escaparían y las galaxias se desmenuzarían.

En su juventud, el Universo mostraba una densidad de materia bastante uniforme con una intrincada red de imperfecciones y fluctuaciones en todas las escalas que originaban variaciones de densidad.
A gran escala, digamos a escalas cósmicas, la fluctuaciones son pequeñas y el problema de su evolución se puede resolver analíticamente. En Cosmología se lo conoce como régimen lineal.
A escalas menores, digamos a escalas galácticas, nos alejamos del régimen lineal y son necesarias las simulaciones ya que las fluctuaciones de densidad de materia son mayores. Teniendo en cuenta la acción gravitacional de la materia obscura, se llega a que aparecen halos de esta materia muy densos en su centro. Esa densidad disminuye hacia afuera con cierto ritmo, y luego de una determinada distancia, desciende con mayor rapidez.
A eso se lo llama cúspides de halos (o halos cúspides).
Según esto, todas las galaxias deberían mostrar grandes concentraciones de materia en su parte interior, donde los objetos masivos convergen luego de varias interacciones. Más afuera, se ubican los más livianos con la posibilidad de llegar a escapar.
Pero sucede que en las galaxias de baja masa, los objetos centrales muestran velocidades que corresponden a densidades centrales constantes.
Luego, las cúspides de halos podrían ser un efecto no real observado en las simulaciones producido por errores numéricos; más precisamente, en las aproximaciones de los algoritmos que describen la gravitación en el núcleo del halo, donde hay muchas partículas interactuando en una pequeña región.

Esta falla a pequeña escala no derriba la existencia de la materia obscura, la que permanece sin dudas a grandes escalas cósmicas.

Referencia:

Fuente:

pdp.

La partícula X17 podría no existir.

La Matemática es constructivista, se erige sobre ella misma.
Pero éste no es el caso de la Física. En ella, un descubrimiento puede derrumbar los modelos existentes y luego se rehace una nueva teoría que incluye las nuevas evidencias.
Incluso hay diferentes teorías para diferentes escenarios; por ejemplo, la Física Clásica para bajas energías y la Relatividad para altas energías, sin olvidar la Cuántica para el mundo microscópico.

En la Naturaleza hay cuatro fuerzas fundamentales.
La gravitatoria, que es la fuerza atractiva que ejercen las masas de los cuerpos; la electromagnética, que es la que ejercen las cargas eléctricas; la nuclear fuerte, que es la que mantiene unidos a los protones en el núcleo atómico y la nuclear débil que es la responsable de la desintegración radiactiva donde se producen nuevos elementos.

Cuando se hacen experimentos de colisión de partículas, se busca analizar la estructura de las partículas que chocan. En esos procesos, se dan eventos de creación de pares de partículas – antipartículas que se separan bajo un cierto ángulo.
Estas experiencias, están respaldadas por modelos que predicen cuántos eventos de creación de estas partículas se darán con determinados ángulos de separación entre ellas. La teoría predice mayor cantidad de eventos con pequeños ángulos y menor cantidad para grandes separaciones, tendiendo a anularse hacia los 180°.
En una experiencia de este tipo, se encontró una mayor cantidad de eventos para ángulos de 140° que lo que predecía la teoría. A esto se lo llamó anomalía Atomki.

anomaliaX17

Exceso de señal indicado en rojo por E. Siegel adjudicado a la anomalía Atomki – (A.J. KRASZNAHORKAY ET AL., 2016, PHYS. REV. LETT. 116, 042501).

Esta anomalía fue adjudicada a una nueva partícula (un bosón liviano) llamada X17.
La “X” se debe a que era desconocida hasta el momento y no dispone de un mejor nombre y “17” se debe a su masa medida en unidades de energía (electrón Volts [eV]) ya que la masa es una forma de energía. Esta partícula sería responsable de una quinta fuerza natural, y siguiendo con el hilo de la teoría explicativa, estaría relacionada con la fuerza que ejerce la materia obscura en su acción de mantener “armadas” a las galaxias.

Ahora bien; en la Naturaleza, suelen haber varias causas para un mismo efecto, y hay que buscar cuál es la más probable.
Si la materia obscura es tan abundante en el Universo, ¿cómo es que esta partícula no fue detectada en experimentos de colisión anteriores?
En experiencias de este tipo, es fundamental la calibración de los instrumentos involucrados. Una mala calibración nos dará una mala visión de lo sucedido. En el caso de la anomalía Atomki, es más probable que se trate de una mala calibración de los instrumentos que de la existencia de una nueva partícula.

Si la partícula realmente existe, deberá “aparecer” en todos los experimentos del mismo tipo realizados bajo las correspondientes configuraciones.
La historia de la Física está plagada de afirmaciones fantásticas que se desmoronaron bajo un escrutinio más detallado | Don Lincoln, físico de partículas (https://en.wikipedia.org/wiki/Don_Lincoln).

Referencia:

Fuentes:

pdp.

El tamaño de los agujeros negros.

Sabemos que los agujeros negros son regiones del espacio de donde nada puede escapar.
Cuando un cuerpo tiene masa M, genera un campo gravitatorio del que es necesario una velocidad mínima para escapar. Por debajo de esa velocidad, volveremos a caer luego de alcanzar cierta altura.

La relación dada por:

V2 = 2GM/R

nos vincula la velocidad V de escape con la masa del cuerpo y su radio, suponiéndolo esférico (por ejemplo un planeta o estrella), donde G es la constante de gravitación Universal (https://es.wikipedia.org/wiki/Constante_de_gravitaci%C3%B3n_universal ). Esa expresión se obtiene de relacionar la energía potencial gravitatoria y la cinética de un cuerpo cuando está sobre otro de masa M y cuando está en el infinito luego de escapar.

Puede verse que a menor radio, debe aumentar la velocidad de escape.
Si se llega a un valor R*, la velocidad de escape será la velocidad de la luz C. A ese radio se lo conoce como radio de Schwarzschild. Por debajo de ese radio ni la luz podrá escapar, y como nada puede superarla, nada podrá escapar.
Nace así un agujero negro. Una región del espacio de donde nada sale. Incluso el objeto generador de ese agujero negro puede seguir colapsando, pero eso no lo notaremos porque nada se observa dentro de ese radio límite, por lo que el radio de Schwarzschild también es conocido como horizonte de sucesos.

Todo cuerpo ejerce gravedad y tiene una velocidad de escape. Luego, todo cuerpo puede colapsar hasta convertirse en un agujero negro. Lo que sucede es que los objetos menores de 3 masas Solares no colapsan por sí solos por no tener tanta masa y tanta autogravitación. De esta manera, no se convierten en agujeros negros a menos que se los comprima.

Si en la ecuación anterior imponemos la condición de que la velocidad de escape sea la de la luz, podremos despejar el valor del radio límite para una determinada masa.
Eso queda:

R* = 2GM/C2

y ese es el radio del agujero negro. Luego, si conocemos la masa de un objeto (por ejemplo por su acción gravitatoria en sus vecindades) podemos saber el tamaño del agujero negro que generaría o está generando.

Por ejemplo: una masa de una tonelada (1000 Kgr.) debe comprimirse hasta un radio de 0,00000000000000000000000148 mts. para que se convierta en un agujero negro.
El siguiente video nos muestra los tamaños de los agujeros negros generados por estrellas masivas y de los que viven en el centro de las galaxias.

Video: Black Hole Comparison

morn1415

Referencia:

pdp.

La mínima órbita circular estable en un agujero negro (¿cuánto puede comer un agujero negro?)

Los agujeros negros son regiones del espacio de los que no escapa ni la luz.
Recordemos que para escapar de la gravedad de un cuerpo, hace falta alcanzar la velocidad de escape. Ésta depende de la gravedad, la que depende de su masa y de la distancia al objeto.
Cuando una estrella masiva colapsa, aumenta la gravedad en su superficie porque disminuye la distancia a su centro manteniendo toda la masa debajo de la superficie. Fuera de ella, la gravedad es la misma para una determinada distancia. Luego, para escapar de la superficie de la estrella mientras colapsa, hará falta cada vez más velocidad. Estando fuera de ella, la velocidad es siempre la misma para una determinada distancia. A mayor distancia, menor gravedad y menor será la velocidad de escape.

En el colapso, se llega a un radio límite (radio de Schwarzschild) a partir del cual ni la luz escapa. Nace así una región del espacio llamada agujero negro. Como la velocidad de la luz es un límite físico, nada la supera y por lo tanto nada puede escapar de un agujero negro. La estrella (o estrella de Plank) puede seguir colapsando, pero eso no lo notaremos porque a partir del radio límite nada se observa. Por ese motivo, a ese radio también se lo llama horizonte de sucesos.

Video: La NASA distorsiona el tiempo y el espacio en un agujero negro.

La pregunta es ¿cuánto puede “comer” un agujero negro?
Nada escapa de él. Los hay de masas estelares (varias veces la masa del Sol), de masas intermedias (de cientos a millones de masas Solares) y supermasivos en el centro de las galaxias (millones a decenas de miles de millones – nuestro tiene 4 millones de masas solares – ).

Además del horizonte de sucesos, hay otro parámetro a tener en cuenta. Se trata de la mínima órbita circular estable (MOCE); o sea, la órbita circular más cercana que se puede tener en torno a un agujero negro.
Recordemos que la órbita es un caso particular de caída libre (Qué es estar en órbita | pdp, https://paolera.wordpress.com/2013/02/06/qu-es-estar-en-rbita/).
A menor distancia, necesitaremos más velocidad para estar en órbita; de lo contrario, caeremos en forma de espiral. A mayor velocidad, escaparemos de la órbita. Luego, existe una velocidad que nos permite estar en órbita estable, una caía libre que es un equilibrio entre el escape y la caída en una trayectoria curva.
Pero la mínima orbita (o las más cercana al agujero negro) implica la mayor velocidad posible, y esa es la velocidad de la luz. O sea que la MOCE es la que tiene un objeto moviéndose a la velocidad de la luz.
La MOCE tiene dos propiedades:
1 – dentro de ella nada escapa y cae en espiral al agujero negro.
2 – sobre ella, la partícula nunca escapará ya que no se puede superar la velocidad de la luz.
Luego, la MOCE determina qué está y qué no está condenado a caer en el agujero negro.
Más allá de la MOCE, las cosas aún pueden escapar. Lejos, la materia siente más la gravedad de sus vecindades que la del agujero negro y no sólo puede escapar sino que puede colapsar y formar estrellas. Es así que las galaxias no sucumben a su agujero negro central.
A medida que el agujero negro se alimenta y crece a costa del material que lo rodea, aumenta su horizonte de sucesos y su MOCE. Pero la materia que lo rodea no es infinita. Llega un momento en que ésta es menor y su alimento comienza a escasear. Cuando haya terminado con todo el material que lo rodea, sólo podrá desgarrar algo de materia de algún cuerpo que pase por su MOCE, los que no son tan abundantes. Luego, sólo le quedarán los que caigan directamente a él, los que son menos abundantes aún.
Si bien en una fusión de galaxias los agujeros negros supermasivos se unen formando colosales monstruos, nunca absorberán toda la galaxia resultante, su tamaño estará limitado. Así, si bien pueden alimentarse por siempre, no tienen toda la materia a su disposición.
Haciendo números en base a estas ideas, se estima que un agujero negro supermasivo no llega a crecer más de 270 mil millones de veces la masa del Sol.

Referencia:

Fuente:

pdp.

Fluidos no Newtonianos (explicando el Oobleck)

La viscosidad de un fluido, es una propiedad que está relacionada con su consistencia.
Un fluido poco viscoso (como el agua) se deforma con facilidad y por eso se desparrama sobre una superficie con poco esfuerzo. Uno viscoso (como la mayonesa) no se desparrama sobre una superficie con tanta facilidad como el anterior.
Los fluidos que mantienen su viscosidad sin importar cómo se los trate o manipule, se llaman Newtonianos. Por el contrario, un fluido no Newtoniano (como la miel y la sangre entre otros), muestra diferencias en su viscosidad según cómo se lo trate.
A éstos se los suele llamar Oobleck por la substancia viscosa que acechaba al reino de Bartholomew Cubbins en el libro Bartholomew y el Oobleck (Dr. Seuss 1949) (https://en.wikipedia.org/wiki/Bartholomew_and_the_Oobleck)

File:Bartholomew and the Oobleck-Dr. Seuss (1949).png

Imagen de Wikipedia. Fuente: Publisher and copyright holder is Random House (see http://www.seussville.com/ )

Los fluidos no Newtonianos se muestran como líquidos cuando se los trata con cuidado; por ejemplo, cuando es movido con suavidad en un recipiente como quien mueve suavemente un fino vino en una copa para apreciar su aroma. Si lo golpeamos o amasamos, lo sentiremos como una goma viscosa. Incluso, podemos frotarlo con movimientos circulares entre las palmas de las manos y haremos una bola de ese fluido. Luego, al dejar de amasar, esa bola se derrama como un líquido entre nuestros dedos.

Video (en español): Cómo hacer fluido no newtoniano – Experimento con maicena (Experimentos Caseros) 

Ese comportamiento se debe a la estructura del fluido.
Este tipo de fluidos están compuestos por partículas de muy pequeño tamaño; micropartículas de centésimas partes del tamaño de un grano de arena, mezcladas con un fluido líquido Newtoniano como el agua.
Cuando se lo trata con cuidado, las micropartículas se mantienen separadas por el fluido líquido habiendo una repulsión entre ellas. Si es comprimido bruscamente, el líquido es rápidamente desplazado, la repulsión es vencida y las partículas llegan a tocarse apareciendo una fricción que resulta en un aumento de la viscosidad. Luego, todo vuelve a ser como antes cuando el esfuerzo ejercido sobre el fluido se termina.

Video (en inglés): The science of cornstarch and water

Referencia:

pdp.