lunes, 10 de mayo de 2010

The Universe (History Channel)

Profe me parecio muy interesante el programa, de por si me interesan muchas cosas sobre el espacio y con esto pude aprender más de lo que ya sabia, la verdad es que no me gusto algun capitulo en especifico:)

Supernova

Una supernova (del latín nova, «nueva») es una explosión estelar que puede manifestarse de forma muy notable, incluso a simple vista, en lugares de la esfera celeste donde antes no se había detectado nada en particular. Por esta razón, a eventos de esta naturaleza se los llamó inicialmente stellae novae («estrellas nuevas») o simplemente novae. Con el tiempo se hizo la distinción entre fenómenos aparentemente similares pero de luminosidad intrínseca muy diferente; los menos luminosos continuaron llamándose novae (novas), en tanto que a los más luminosos se les agregó el prefijo «super-».

Las supernovas producen destellos de luz intensísimos que pueden durar desde varias semanas a varios meses. Se caracterizan por un rápido aumento de la intensidad hasta alcanzar un máximo, para luego decrecer en brillo de forma más o menos suave hasta desaparecer completamente.

Se han propuesto varios escenarios para su origen. Pueden ser estrellas masivas que ya no pueden desarrollar reacciones termonucleares en su núcleo, y que son incapaces de sostenerse por la presión de degeneración de los electrones, lo que las lleva a contraerse repentinamente (colapsar) y generar, en el proceso, una fuerte emisión de energía. Otro proceso más violento aún, capaz de generar destellos incluso mucho más intensos, puede suceder cuando una enana blanca miembro de un sistema binario cerrado, recibe suficiente masa de su compañera como para superar el límite de Chandrasekhar y proceder a la fusión instantánea de todo su núcleo: esto dispara una explosión termonuclear que expulsa casi todo, si no todo, el material que la formaba.

La explosión de supernova provoca la expulsión de las capas externas de la estrella por medio de poderosas ondas de choque, enriqueciendo el espacio que la rodea con elementos pesados. Los restos eventualmente componen nubes de polvo y gas. Cuando el frente de onda de la explosión alcanza otras nubes de gas y polvo cercanas, las comprime y puede desencadenar la formación de nuevas nebulosas solares que originen, después de cierto tiempo, nuevos sistemas estelares (quizá con planetas, al estar las nebulosas enriquecidas con los elementos procedentes de la explosión).

Estos residuos estelares en expansión se denominan remanentes y pueden tener o no un objeto compacto en su interior. Dicho remanente terminará por diluirse en el medio interestelar al cabo de millones de años.

Las supernovas pueden liberar varias veces 1044 J de energía. Esto ha resultado en la adopción del foe (1044 J) como unidad estándar de energía en el estudio de supernovas.

Experimento de Chadwick

Chadwick estudió en la universidad de Victoria, y trabajó bajo las ordenes del físico Ernest Rutherford. Tras finalizar la Primera Guerra Mundial se trasladó a la Universidad de Cambridge, en la cual, continuó trabajando con Rutherford, hasta el año 1935, año en el cual le fue otorgado el premio Nobel de Física.

En 1932, Chadwick descubre el neutrón, explicándolo también matemáticamente. Chadwick llegó a dicha conclusión, debido primeramente por los experimentos realizados en 1930 por los alemanes, Walther Bothe y Herbert Becker. Bothe y Becker realizaron experimentos bombardeando núcleos de berilio con partículas de helio, o partículas alfa, ello dio el resultado de una partícula nueva y desconocida, a la que le dieron el nombre de radiación de berilio, y percatándose del poder penetrante de dicha radiación en la materia. Poco después Joliot y Curie, profundizaron en dicho experimento, probando la radiación de berilio en cera hidrogenada, y dando como resultado la separación de los núcleos de hidrógeno de la cera. Todo esto llevo a Chadwick a analizar estos experimentos, llevándole en 1932 a explicar matemáticamente la radiación de berilio poniéndole a dicha partícula una carga neutra, y siendo ésta más tarde llamada neutrón. El descubrimiento del neutrón dio paso a la fisión nuclear, y con ello, a la bomba atómica.

Aunque Rutherford, había predicho dicha partícula diecisiete años antes que Chadwick la encontrase, fue Chadwick formando parte del grupo Rutherford quien la descubrió como tal. Chadwick dirigió entre 1943 y 1945 la delegación británica que trabajó en el laboratorio científico de los Álamos, en Nuevo Mexico. Sir James Chadwick moría el 24 de julio de 1974.

"0" alt=""id="

sábado, 8 de mayo de 2010

Touchscreen

Una pantalla táctil (touchscreen en inglés) es una pantalla que mediante un toque directo sobre su superficie permite la entrada de datos y órdenes al dispositivo. A su vez, actúa como periférico de salida, mostrándonos los resultados introducidos previamente. Este contacto también se puede realizar con lápiz u otras herramientas similares. Actualmente hay pantallas táctiles que pueden instalarse sobre una pantalla normal. Así pues, la pantalla táctil puede actuar como periférico de entrada y periférico de salida de datos.

Las pantallas tactiles se han ido haciendo populares desde la invención de la interfaz electrónica táctil en 1971 por el Dr. Samuel C. Hurst. Han llegado a ser comunes en TPVs, en cajeros automáticos y en PDAs donde se suele emplear un estilete para manipular la interfaz gráfica de usuario y para introducir datos. La popularidad de los teléfonos inteligentes, pipePDAs, de las vídeo consolas portátiles o de los navegadores de automóviles está generando la demanda y la aceptación de las pantallas táctiles.

La interacción efectuada por tal objeto permitió que en 1993 se integraran al mercado varios productos interactivos para niños tales como los libros gráficos de la Matel.

El HP-150 fue, en 1983, uno de los primeros ordenadores comerciales del mundo que disponía de pantalla táctil. En realidad no tenía una pantalla táctil en el sentido propiamente dicho, sino una pantalla de tubo Sony de 9 pulgadas rodeada de transmisores y receptores infrarrojos que detectaban la posición de cualquier objeto no-transparente sobre la pantalla.

Las pantallas táctiles de última generación consisten en un cristal transparente donde se sitúa una lámina que permite al usuario interactuar directamente sobre esta superficie, utilizando un proyector para lanzar la imagen sobre la pantalla de cristal. Se sale de lo que hasta hoy día se entendía por pantalla táctil que era básicamente un monitor táctil.[1]

Las pantallas táctiles son populares en la industria pesada y en otras situaciones, tales como exposiciones de museos donde los teclados y los ratones no permiten una interacción satisfactoria, intuitiva, rápida, o exacta del usuario con el contenido de la exposición.

Cómo funcionan?
Consiste en una membrana de vidrio con transductores emisores y receptores ubicados en los bordes frontales de la pantalla.

La controladora envía una señal eléctrica de 5 mhz al Transductor transmisor que convierte la señal en ondas ultrasónicas y las envía sobre la superficie del vidrio a través de una serie de Deflectores. Cuando esta señal le llega a los deflectores del lado opuesto, este la envía al transductor receptor que reconvierte las ondas acústicas en una señal digital. Este proceso se repite en cada eje de coordenada.

Cuando uno toca la pantalla absorbe las ondas acústicas que viajan sobre la misma. Las señales recibidas por X e Y son comparadas con el mapa original, el cambio es reconocido y se calcula así la coordenada.

Paradoja de los gemelos

La paradoja de los gemelos (o paradoja de los relojes) es un experimento mental que analiza la distinta percepción del tiempo entre dos observadores con diferentes estados de movimiento.

Esta paradoja fue propuesta por Einstein al desarrollar lo que hoy se conoce como la relatividad especial. Dicha teoría postula que la medida del tiempo no es absoluta, y que, dados dos observadores, el tiempo medido entre dos eventos por estos observadores, en general, no coincide, sino que la diferente medida de tiempos depende del estado de movimiento relativo entre ellos. Así, en la teoría de la relatividad, las medidas de tiempo y espacio son relativas, y no absolutas, ya que dependen del estado de movimiento del observador. En ese contexto es en el que se plantea la paradoja.

Formulación de la paradoja [editar]En la formulación más habitual de la paradoja, debida a Paul Langevin, se toma como protagonistas a dos gemelos (de ahí el nombre); el primero de ellos hace un largo viaje a una estrella en una nave espacial a velocidades cercanas a la velocidad de la luz; el otro gemelo se queda en la Tierra. A la vuelta, el gemelo viajero es más joven que el gemelo terrestre.

De acuerdo con la teoría especial de la relatividad, y según su predicción de la dilatación del tiempo, el gemelo que se queda en la Tierra envejecerá más que el gemelo que viaja por el espacio a gran velocidad (más adelante se prueba esto mediante cálculo) porque el tiempo propio del gemelo de la nave espacial va más lento que el tiempo del que permanece en la Tierra y, por tanto, el de la Tierra envejece más rápido que su hermano.

Pero la paradoja surge cuando se hace la siguiente observación: visto desde la perspectiva del gemelo que va dentro de la nave, el que se está alejando, en realidad, es el gemelo en la Tierra (de acuerdo con la Invariancia galileana) y, por tanto, cabría esperar que, de acuerdo con los cálculos de este gemelo, su hermano en la Tierra fuese quien tendría que envejecer menos por moverse respecto de él a velocidades cercanas a la de la luz. Esto es, el gemelo de la nave es quien tendría que envejecer más rápido.

La paradoja quedaría dilucidada si se pudiese precisar quién envejece más rápido realmente y qué hay de erróneo en la suposición de que, de acuerdo con los cálculos del gemelo de la nave, es el gemelo terrestre quien envejece menos.

Solución de la paradoja según la relatividad especial [editar]A Einstein le costó aclarar esta paradoja unos cuantos años, hasta que formuló la relatividad general y demostró que, ciertamente, es el gemelo de la Tierra quien envejece más rápido.

Sin embargo, aunque Einstein resolvió la paradoja en el contexto de la relatividad general, la paradoja puede resolverse dentro de los límites de la teoría de la relatividad especial, como muestra este artículo.

Para dilucidar la aparente paradoja es necesario realizar los cálculos desde el punto de vista del gemelo que permanece en la Tierra y desde el punto de vista del gemelo viajero, y ver que las estimaciones de tiempo transcurrido coinciden examinadas desde ambos puntos de vista.

El cálculo desde el punto de vista del gemelo terrestre es rutinario y muy sencillo. El cálculo desde el punto de vista del gemelo viajero es más complejo porque requiere realizar cálculos en un sistema no inercial.

ejer y preguntas de repaso pag 617-618

Distribuidor de automovil


El distribuidor es el aparato destinado a sincronizar la acción mecánica del motor con la accion eléctrica del sistema de encendido.El distribuidor está formado por un eje de metal que se acopla al arbol de levas del motor.Cada cilindro se enciende cuando el piston llega al tope,es decir,al pms.El distribuidor gira a la mitad de la velocidad del motor.La dirección de la rotación varia;puede ser en el sentido de las agujas del reloj o en el sentido contrario.
Las principales funciones que realiza el distribuidor son las siguientes:
a)Distribuir el alto voltaje desde la bobina al rotor y desde la tapa del distribuidor a las bujias individuales de cada cilindro en el tiempo apropiado para que se efectue la exploción de la mezcla.
b)Abrir y cerrar los contactos(platinos) que alimentan el devanado primario de la bobina de encendido por intermedio del giro de una leva.
c)Alojar el condensador.
d)Contener un sistema centrifugo que controla el tiempo de apertura y cierre de los contactos en relacion con la velocidad del motor.
e)Alojar un sistema de vacio que controla la apertura y cierre de los contactos en relacion con la posición de la válvula de estrangulación del carburador,según ésta se controla con el pedal del acelerador.

eje pag 476

Experimentos de Galvani


Luigi Galvani (Bolonia, Italia, 9 de septiembre de 1737 - id., 4 de diciembre de 1798), médico, fisiólogo y físico italiano, sus estudios le permitieron descifrar la naturaleza eléctrica del impulso nervioso.

A partir aproximadamente de 1780, Galvani comenzó a incluir en sus conferencias pequeños experimentos prácticos que demostraban a los estudiantes la naturaleza y propiedades de la electricidad. En una de estas experiencias, el científico demostró que, aplicando una pequeña corriente eléctrica a la médula espinal de una rana muerta, se producían grandes contracciones musculares en los miembros de la misma. Estas descargas podían lograr que las patas (incluso separadas del cuerpo) saltaran igual que cuando el animal estaba vivo.
El médico había descubierto este fenómeno mientras disecaba una pata de rana, su bisturí tocó accidentalmente un gancho de bronce del que colgaba la pata. Se produjo una pequeña descarga, y la pata se contrajo espontáneamente. Mediante repetidos y consecuentes experimentos, Galvani se convenció de que lo que se veía eran los resultados de los que llamó "electricidad animal". Galvani identificó a la electricidad animal con la fuerza vital que animaba los músculos de la rana, e invitó a sus colegas a que reprodujeran y confirmaran su descubrimiento.

Así lo hizo en la Universidad de Pavía el colega de Galvani Alejandro Volta quien afirmó que los resultados eran correctos pero no quedó convencido con la explicación de Galvani.

Los cuestionamientos de Volta hicieron ver a Galvani que aún restaba mucho por hacer. La principal traba a su explicación era el desconocimiento de los motivos por los que el músculo se contraía al recibir electricidad. La teoría obvia era que la naturaleza del impulso nervioso era eléctrica, pero quedaba demostrarla.

El fisiólogo llamó a esta forma de producir energía "bioelectrogénesis". A través de numerosos y espectaculares experimentos —como electrocutar cadáveres humanos para hacerlos bailar la "danza de las convulsiones tónicas"— llegó a la conclusión de que la electricidad necesaria no provenía del exterior, sino que era generada en el interior del propio organismo vivo, que, una vez muerto, seguía conservando la capacidad de conducir el impulso y reaccionar a él consecuentemente.

Pensó correctamente que la electricidad biológica no era diferente de la producida por otros fenómenos naturales como el rayo o la fricción, y dedujo con acierto que el órgano encargado de generar la electricidad necesaria para hacer contraer la musculatura voluntaria era el cerebro. Demostró asimismo que los "cables" o "conectores" que el cerebro utilizaba para canalizar la energía hasta el músculo eran los nervios.

on sus explicaciones, Galvani había por fin desestimado las antiguas teorías de Descartes que pensaba que los nervios eran tan solo caños que transportaban fluidos. La verdadera naturaleza del sistema nervioso como un dispositivo eléctrico enormemente eficiente había sido comprendida por fin.

Desafortunadamente, en tiempos de Galvani no existían instrumentos de medición capaces de determinar los escasísimos niveles de voltaje que circulan por los nervios: la tarea quedó necesariamente en manos de científicos posteriores dotados de una tecnología más avanzada.

Los estudios de Luigi Galvani inauguraron una ciencia entera que no existía hasta ese momento: la neurofisiología, estudio del funcionamiento del sistema nervioso en la que se basa la neurología.

Experimento de cavendish

El experimento de Cavendish o de la balanza de torsión constituyó la primera medida de la fuerza de gravedad entre dos masas y, por ende, a partir de la Ley de gravitación universal de Newton y las características orbitales de los cuerpos del Sistema Solar, la primera determinación de la masa de los planetas y del Sol.

Una versión inicial del experimento fue propuesta por John Michell, quien llegó a construir una balanza de torsión para estimar el valor de la constante de gravedad. Sin embargo, murió en 1783 sin poder completar su experimento y el instrumento que había construido fue heredado por Francis John Hyde Wollaston, quien se lo entregó a Henry Cavendish.

Cavendish se interesó por la idea de Michell y reconstruyó el aparato, realizando varios experimentos muy cuidadosos con el fin de determinar la densidad media de la Tierra. Sus informes aparecieron publicados en 1798 en la Philosophical Transactions de la Royal Society. A principios del siglo XIX se pudo obtener, por primera vez, el valor de la constante de gravitación universal G a partir de su trabajo, el cual (6.74·10-11) difería del actual (6.67·10-11) en menos de un 1%.[1]

Descripción general
El instrumento construido por Cavendish consistía en una balanza de torsión con una vara horizontal de seis pies de longitud en cuyos extremos se encontraban dos esferas metálicas. Esta vara colgaba suspendida de un largo hilo. Cerca de las esferas Cavendish dispuso dos esferas de plomo de unos 175 kg cuya acción gravitatoria debía atraer las masas de la balanza produciendo un pequeño giro sobre esta. Para impedir perturbaciones causadas por corrientes de aire, Cavendish emplazó su balanza en una habitación a prueba de viento y midió la pequeña torsión de la balanza utilizando un telescopio.

miércoles, 17 de marzo de 2010

Generador de Van der Graaff

El generador de Van de Graaff es una máquina electrostática que utiliza una cinta móvil para acumular grandes cantidades de carga eléctrica en el interior de una esfera metálica hueca. Las diferencias de potencial así alcanzadas en un generador de Van de Graaff moderno pueden llegar a alcanzar los 5 megavoltios. Las diferentes aplicaciones de esta máquina incluyen la producción de rayos X, esterilización de alimentos y experimentos de física de partículas y física nuclear.

DESCRIPCIÓN
El generador consiste en una cinta transportadora de material aislante motorizada, que transporta carga a un terminal hueco. La carga es depositada en la cinta por frotamiento a través del efecto triboeléctrico. Dentro del terminal, la carga es recolectada por una varilla metálica que se aproxima a la cinta. La carga, transportada por la cinta, pasa al terminal esférico nulo.

HISTORIA
Este tipo de generador eléctrico fue desarrollado inicialmente por el físico Robert J. Van de Graaff en el MIT alrededor de 1929 para realizar experimentos en física nuclear en los que se aceleraban partículas cargadas que se hacían chocar contra blancos fijos a gran velocidad. Los resultados de las colisiones nos informan de las características de los núcleos del material que constituye el blanco. El primer modelo funcional fue exhibido en octubre de 1929 y para 1931 Van de Graaff había producido un generador capaz de alcanzar diferencias de potencial de 1 megavoltio. En la actualidad existen generadores de electricidad capaces de alcanzar diferencias de voltaje muy superiores al generador de Van de Graaff pero directamente emparentados con él. Sin embargo, en la mayor parte de los experimentos modernos en los que es necesario acelerar cargas eléctricas se utilizan aceleradores lineales con sucesivos campos de aceleración y ciclotrones. Muchos museos de ciencia están equipados con generadores de Van de Graaff por la facilidad con la que ilustra los fenómenos electrostáticos.

El generador del Van der Graaff es un generador de corriente constante, mientras que la batería es un generador de voltaje constante, lo que cambia es la intensidad dependiendo que los aparatos que se conectan.

martes, 16 de marzo de 2010

¿Qué es relámpago, tornado y huracán?

RELÁMPAGO
El relámpago o refucilo es el resplandor muy vivo producido en las nubes por una descarga eléctrica.

La diferencia de voltaje se debe sobre todo a las diferentes velocidades de ionización de los componentes de los gases que forman dichas nubes. La ionización de estos componentes se debe en sí misma al efecto de la luz solar y a la diferencia de temperaturas entre los distintos estratos de la nube, así como a la diferencia de temperaturas entre día y noche. Al igual que el rayo, el relámpago seguirá lo que se llama gradiente de voltaje o de potencial eléctrico; esto es, la línea recta más corta que une dos variaciones máximas de voltaje, dándole al rayo esa forma tan peculiar.

La presencia de vapor de agua en dicha nube (inevitable en nuestra atmósfera) no implica necesariamente la aparición del relámpago, ni viceversa. Es posible también, observar relámpagos y rayos en atmósferas carentes de agua: tormentas en el desierto o en otros planetas y lunas, como Marte, Venus o Titán.

Al ser una descarga de tanta energía en tan poco tiempo, su única manifestación posible es en forma de luz.


TORNADO
Un tornado es una violenta, peligrosa y destructiva columna rotativa de aire en movimiento la cual se encuentra en contacto tanto con la superficie de la tierra como con una nube de cumulonimbo o, raramente, la base de una nube grande. Los tornados pueden presentarse en diversos tamaños, siendo típica la forma de nube embudo, cuyo final alcanza el suelo y generalmente está rodeado por una nube de escombros y polvo. La mayor parte de los tornados tienen velocidades de viento entre 64 kilómetros/h y 177 kilómetros/h, miden aproximadamente 75 m y se desplazan durante varios kilómetros antes de disiparse. Algunos logran velocidades de viento de más de 480 kilómetros/h, se extienden através de más de 1.6 kilómetros, y permanecen en tierra durante más de 100 kilómetros.


HURACÁN
Ciclón tropical es un término meteorológico usado para referirse a un sistema de tormentas caracterizado por una circulación cerrada alrededor de un centro de baja presión y que produce fuertes vientos y abundante lluvia. Los ciclones tropicales extraen su energía de la condensación de aire húmedo, produciendo fuertes vientos. Se distinguen de otras tormentas ciclónicas, como las bajas polares, por el mecanismo de calor que las alimenta, que las convierte en sistemas tormentosos de "núcleo cálido". Dependiendo de su fuerza y localización, un ciclón tropical puede llamarse depresión tropical, tormenta tropical, huracán, tifón o simplemente ciclón.

último bim :(

jueves, 4 de febrero de 2010

El arcoíris


El arco iris[1] o arcoíris[2] es un fenómeno óptico y meteorológico que produce la aparición de un espectro de luz continuo en el cielo cuando los rayos del sol atraviesan pequeñas partículas de humedad contenidas en la atmósfera terrestre. La forma es la suma de un arco multicolor con el rojo hacia la parte exterior y el violeta hacia la interior. Menos frecuente es el arco iris doble, el cual incluye un segundo arco más tenue con los colores invertidos, es decir el rojo hacia el interior y el violeta hacia el exterior.
A pesar de que el arco iris muestra un espectro continuo de colores, comúnmente se suele aceptar como siete los colores que lo conforman, los cuales son el rojo, naranja, amarillo, verde, azul, añil y violeta producto de la descomposición de frecuencias de la luz, y es formado por los 3 colores primarios y los 3 secundarios, aunque tradicionalmente se habla de 7 colores, incluyendo el añil entre el azul y el violeta.

Historia de la ciencia del arco iris
Hace más de tres siglos, Isaac Newton logró demostrar con ayuda de un prisma que la luz blanca del Sol contiene colores partiendo del rojo, a su vez pasando por el naranja, amarillo, por el verde, por el azul y añil hasta llegar al violeta. Esta separación de la luz en los colores que la conforman recibe el nombre de descomposición de la luz blanca.
El experimento de Newton no es difícil de reproducir, pues no es necesario contar con instrumental científico especial para llevarlo a cabo. Incluso hoy en día resulta ser uno de los más hermosos e instructivos para los incipientes estudiantes de óptica en educación básica, media y superior. se puede lograr con un prisma, el cual es atravesado por un rayo de luz blanca del sol, este se refracta y sale por el lado opuesto descompuesto en los 7 colores ya mencionados.
Pero muchos siglos antes de que naciera Newton la naturaleza ya había descompuesto la luz del Sol una y otra vez ante los ojos de nuestros antepasados. Algunas veces, después de una llovizna; otras, tras una tormenta. Lo cierto es que el arco iris fue durante mucho tiempo un fenómeno tan asombroso como sobrecogedor. Tomado en ocasiones como portador de augurios, en otras como inspiración de leyenda, y siempre como una obra de arte, nunca ha dejado de parecer maravilloso al ser humano.
La Teoría Elemental del arco iris fue, sin embargo, anterior a Newton. Desarrollada primero por Antonius de Demini en 1611, fue retomada y refinada luego por René Descartes. Posteriormente, la Teoría Completa del arco iris fue propuesta en forma inicial por Thomas Young y, más tarde, elaborada en detalle por Potter y Airy.

Problemas






sábado, 30 de enero de 2010

Fibra óptica

1. Introducción

La Historia de la comunicación por la fibra óptica es relativamente corta. En 1977, se instaló un sistema de prueba en Inglaterra; dos años después, se producían ya cantidades importantes de pedidos de este material.
Antes, en 1959, como derivación de los estudios en física enfocados a la óptica, se descubrió una nueva utilización de la luz, a la que se denominó rayo láser, que fue aplicado a las telecomunicaciones con el fin de que los mensajes se transmitieran a velocidades inusitadas y con amplia cobertura.
Sin embargo esta utilización del láser era muy limitada debido a que no existían los conductos y canales adecuados para hacer viajar las ondas electromagnéticas provocadas por la lluvia de fotones originados en la fuente denominada láser.
Fue entonces cuando los científicos y técnicos especializados en óptica dirigieron sus esfuerzos a la producción de un ducto o canal, conocido hoy como la fibra óptica. En 1966 surgió la propuesta de utilizar una guía óptica para la comunicación.
Esta forma de usar la luz como portadora de información se puede explicar de la siguiente manera: Se trata en realidad de una onda electromagnética de la misma naturaleza que las ondas de radio, con la única diferencia que la longitud de las ondas es del orden de micrómetros en lugar de metros o centímetros.

2. ¿Qué es la Fibra Óptica?

Los circuitos de fibra óptica son filamentos de vidrio (compuestos de cristales naturales) o plástico (cristales artificiales), del espesor de un pelo (entre 10 y 300 micrones). Llevan mensajes en forma de haces de luz que realmente pasan a través de ellos de un extremo a otro, donde quiera que el filamento vaya (incluyendo curvas y esquinas) sin interrupción.
Las fibras ópticas pueden ahora usarse como los alambres de cobre convencionales, tanto en pequeños ambientes autónomos (tales como sistemas de procesamiento de datos de aviones), como en grandes redes geográficas (como los sistemas de largas líneas urbanas mantenidos por compañías telefónicas).

3. ¿Cómo Funciona la Fibra Óptica?

En un sistema de transmisión por fibra óptica existe un transmisor que se encarga de transformar las ondas electromagnéticas en energía óptica o en luminosa, por ello se le considera el componente activo de este proceso. Una vez que es transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito se encuentra un tercer componente al que se le denomina detector óptico o receptor, cuya misión consiste en transformar la señal luminosa en energía electromagnética, similar a la señal original. El sistema básico de transmisión se compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector óptico, línea de fibra óptica (primer tramo ), empalme, línea de fibra óptica (segundo tramo), corrector óptico, receptor, amplificador y señal de salida.
En resumen, se puede decir que este proceso de comunicación, la fibra óptica funciona como medio de transportación de la señal luminosa, generado por el transmisor de LED’S (diodos emisores de luz) y láser.
Los diodos emisores de luz y los diodos láser son fuentes adecuadas para la transmisión mediante fibra óptica, debido a que su salida se puede controlar rápidamente por medio de una corriente de polarización. Además su pequeño tamaño, su luminosidad, longitud de onda y el bajo voltaje necesario para manejarlos son características atractivas.

jueves, 14 de enero de 2010

Radiacion de Cherenkov

La radiación de Cherenkov (también escrito Cerenkov, aunque se debería transliterar Čerenkov) es una radiación de tipo electromagnético producida por el paso de partículas en un medio a velocidades superiores a las de la luz en dicho medio. La velocidad de la luz depende del medio y alcanza su valor máximo en el vacío. El valor de la velocidad de la luz en el vacío no puede superarse pero sí en un medio en el que ésta es forzosamente inferior. La radiación recibe su nombre del físico Pavel Alekseyevich Cherenkov quien fue el primero en caracterizarla rigurosamente y explicar su producción. Cherenkov recibió el Premio Nobel de Física en 1958 por sus descubrimientos relacionados con esta reacción.

La radiación Cherenkov es un tipo de onda de choque que produce el brillo azulado característico de los reactores nucleares. Éste es un fenómeno similar al de la generación de una onda de choque cuando se supera la velocidad del sonido. En ese caso los frentes de onda esféricos se superponen y forman uno solo con forma cónica. Debido a que la luz también es una onda, en este caso electromagnética, puede producir los mismos efectos si su velocidad es superada. Y esto, como ya se ha dicho, solo puede ocurrir cuando las partículas en un medio distinto del vacío, viajan a velocidades superiores a la de los fotones en dicho medio.

La radiación Cherenkov sólo se produce si la partícula que atraviesa el medio está cargada eléctricamente, como por ejemplo, un protón. Para que se produzca radiación Cherenkov el medio debe ser un dieléctrico. Es decir; debe estar formado por átomos o moléculas capaces de verse afectados por un campo eléctrico. Por tanto, un protón viajando a través de un medio hecho de neutrones, por ejemplo, no emitiría radiación Cherenkov.