martes, 25 de noviembre de 2008

IMAGENES DE CELULARES SONY ERICSSON

SONY ERICSSON
SONY ERICSSON T303
SONY ERICSSON K780
SONY ERICSSON W850i
SONY ERICSSON K618
SONY ERICSSON W580i
SONY ERICSSON W44SSONY ERICSSON W950i
SONY ERICSSON K1

SONY ERICSSON

Sony Ericsson C905

Sony Ericsson presento el Sony Ericsson C905, tambien llamado Shiho. Cuenta con una pantalla QVGA de 2.4 pulgadas y una camara de 8.1 megapixeles con autofocus, reconocimiento de caras, estabilizador de imagen, reduccion de ojos rojos y flash. Con esta camara podras realizar fotos de gran calidad y grabar video. Tiene tecnologia HSDPA que te permitira realizar conexiones a gran velocidad y dispone de GPS que podras utilizar el telefono como navegador. Dispone de salida de TV, conectividad Wifi para realizar conexiones a cualquier red inalambrica disponible e incluso viene con Bluetooth para intercambiar archivos. Tiene el puerto USB para sincronizarlo con cualquier ordenador. El Sony Ericsson C905 cuenta con una tarjeta Memory Stick Micro de 2GB. Tiene una autonomia de 9 horas en conversacion, 4 horas en uso de la tecnologia 3G y 360 horas en espera.

Sony Ericsson K790

Es el primer telefono en Cyber-shot, una autentica marca de calidad en imaging. Ambos telefonos moviles poseen altas prestaciones con camaras digitales integradas de 3,2 Megapixeles y Autofocus, flash de Xenon y BestPic™ - la tecnologia exclusiva en imaging de Sony Ericsson que permite capturar exactamente el momento que deseas. El K800 y K790 combinan prestaciones avanzadas para la captura de imagenes con transferencia de datos a alta velocidad, convirtiendolos en herramientas perfectas para obtener y compartir fotos y videos de alta calidad.

Sony Ericsson K850
El Sony Ericsson K850 es un potente teléfono HSDPA con una cámara Cyber-shot de 5 megapíxeles y 40 MB de memoria interna. Incluye además un menú de nueva generación mucho más intuitivo que hace más fácil utilizar las funciones del terminal y un navegador multimedia capaz de gestionar fotos, música, videos o podcast, ordenando y clasificando toda la información desde un único punto. Viene equipado además con una pantalla TFT de 260.000 colores, slot para tarjetas de mapliación de memoria Memory Stick, Bluetooth 2.0, radio FM con RDS, reproductor MP3 y MPEG4, reconocimiento de música TrackID, publicación blog de fotografías y manos libres integrado.

Sony Ericsson S500
El Sony Ericsson S500 es un llamativo teléfono con una interfaz de usuario que se adapta contantemente a las estaciones del año o a los momentos del día y a los días de la semana. Es un teléfono slider disponible en dos colores muy vistosos, Mysterious Green o Spring Yellow. Integra una pantalla TFT de 2 pulgadas y 260.000 colores, 12 MB de memoria interna compartida, tonos de llamada MP3, Bluetooth con A2DP, lector de feeds RSS, reproductor de audio Walkman y cámara digital de 2 megapixeles.

Sony Ericsson F305
Se presento un nuevo movil de Sony Ericsson, se trata del Sony Ericsson F305 y es un telefono bastante basico que va dirigido a los usuarios que jugar con el movil. Cuenta con una pantalla TFT de 2 pulgadas y viene con tres juegos instalados, Ademas, como tiene un sensor de movimiento podras utilizar esta caracterista para los juegos. Viene con una memoria interna de 10 MB, que podras ampliar si adquieres una tarjeta Memory Stick Micro. Tiene un reproductor multimedia tanto para audio como para video. Ademas, cuenta con radio FM que te permitira escuchar tus emisoras favoritas. Como la mayoria de los Sony Ericsson, viene con la funcion TrackID. Podras realiar conexiones a traves del Bluetooth tanto para el manos libres como para intercambiar archivos y tambien, dispone del puerto USB para sincronizar el movil con tu ordenador.

REDES Y TELECOMUNICACIONES

Redes de Área Amplia (WAN)
Una red de área amplia puede ser descripta como un grupo de redes individuales conectadas a través de extensas distancias geográficas.
Los componentes de una red WAN típica incluyen:
  • Dos o más redes de área local (LANs) independientes.
  • Routers conectados a cada LAN
  • Dispositivos de acceso al enlace (Link access devices, LADs) conectados a cada router.
  • Enlaces inter-red de área amplia conectados a cada LAD
La combinación de routers, LADs, y enlaces es llamada inter-red.
La inter-red combinada con las LANs crea la WAN.

Un dispositivo de acceso al enlace (LAD) es necesario para convertir las señales para ser transmitidas desde la LAN en un formato compatible con el tipo de enlace de área amplia inter-red utilizado.
Las conexiones entre LADs pueden ser punto a punto o a través de la red intermedia de un proveedor de servicios de red.
Nota: Una red intermedia se define como una red utilizada para conectar dos o más redes.
En un enlace punto a punto, los LADs se comunican directamente entre sí sobre un circuito de telecomunicaciones. Este circuito puede ser temporal, como el de una red conmutada de telefonía pública, o permanente, por ejemplo una línea de datos dedicada contratada a un proveedor.
Algunos ejemplos de LAD incluyen:
Modem.
  • Data service unit/channel service unit (DSU/CSU).
  • Terminal adapter (TA).
  • Packet assembler/disassembler (PAD).
  • Frame Relay access device (FRAD).

En un enlace de red intermedia, los LAD son conectados una red de transporte de datos, controlada y administrada por uno o más proveedores de servicios de red. Las conexiones al proveedor de servicios de red son realizadas usando enlaces punto a punto temporales o permanentes. Una vez que los datos son recibidos por el proveedor de servicios de red, son transferidos hasta la LAN de destino a través de una red de área amplia inter-red dedicada.
Los proveedores de servicio de red reciben múltiples flujos de datos en forma simultánea desde varias organizaciones. Todos los datos son transferidos un paquete a la vez por la red del proveedor de servicios, potencialmente con cada paquete tomando un camino diferente. El enrutamiento se basa en la información de direccionamiento incluida en el paquete.
Existen muchas conexiones y rutas posibles en la topología en forma de malla de la red del proveedor. Varias tecnologías de enrutamiento y conmutación a alta velocidad son utilizadas por el proveedor de servicios de red para dirigir los paquetes hasta su destino. Dado que existen múltiples caminos, un paquete puede ser enrutado para evitar cualquier falla o área congestionada de la red, el enrutamiento del paquete es dinámico.
Cuando se usan las redes de alta velocidad de un proveedor de servicos de red como enlaces de red intermedios, no existe un circuito predefinido de extremo a extremo entre las LAN comunicadas; es por ello que las tasas de transmisión de la inter-red pueden ser aumentadas o disminuidas según se requiera mediante acuerdos con el proveedor de servicios de red.
Internet es la red intermedia global más grande. Otros ejemplos incluyen redes satelitales y de relevo de tramas (Frame Relay).

Modos de transmisión de datos
La comunicación en los medios informáticos se realiza de dos maneras


Paralelo
Todos los bits se transmiten simultáneamente, existiendo luego un tiempo antes de la transmisión del siguiente boque.
Este tipo de transmisión tiene lugar en el interior de una maquina o entre maquinas cuando la distancia es muy corta. La principal ventaja de esto modo de transmitir datos es la velocidad de transmisión y la mayor desventaja es el costo.
También puede llegar a considerarse una transmisión en paralelo, aunque se realice sobre una sola línea, al caso de multiplexación de datos, donde los diferentes datos se encuentran intercalados durante la transmisión.

Serie
En este caso los n bits que componen un mensaje se transmiten uno detrás de otro por la misma línea.

A la salida de una maquina los datos en paralelo se convierten los datos en serie, los mismos se transmiten y luego en el receptor tiene lugar el proceso inverso, volviéndose a obtener los datos en paralelo. La secuencia de bits transmitidos es por orden de peso creciente y generalmente el último bit es de paridad.
In aspecto fundamental de la transmisión serie es el sincronismo, entendiéndose como tal al procedimiento mediante el cual transmisor y receptor reconocen los ceros y unos de los bits de igual forma.
El sincronismo puede tenerse a nivel de bit, de byte o de bloque, donde en cada caso se identifica el inicio y finalización de los mismos.
Dentro de la transmisión serie existen dos formas:


Transmisión asincrónica
Es también conocida como Stara/stop. Requiere de una señal que identifique el inicio del carácter y a la misma se la denomina bit de arranque. También se requiere de otra señal denominada señal de parada que indica la finalización del carácter o bloque.

Generalmente cuando no hay transmisión, una línea se encuentra en un nivel alto. Tanto el transmisor como el receptor, saben cual es la cantidad de bits que componen el carácter (en el ejemplo son 7).
Los bits de parada son una manera de fijar qué delimita la cantidad de bits del carácter y cuando e transmite un conjunto de caracteres, luego de los bits de parada existe un bit de arranque entre los distintos caracteres.
A pesar de ser una forma comúnmente utilizada, la desventaja de la transmisión asincrónica es su bajo rendimiento, puesto que como en el caso del ejemplo, el carácter tiene 7 bits pero para efectuar la transmisión se requieren 10. O sea que del total de bits transmitidos solo el 70% pertenecen a datos.


Transmisión sincrónica
En este tipo de transmisión es necesario que el transmisor y el receptor utilicen la misma frecuencia de clock en ese caso la transmisión se efectúa en bloques, debiéndose definir dos grupos de bits denominados delimitadores, mediante los cuales se indica el inicio y el fin de cada bloque.
Este método es más efectivo por que el flujo de información ocurre en forma uniforme, con lo cual es posible lograr velocidades de transmisión más altas.
Para lograr el sincronismo, el transmisor envía una señal de inicioi de transmisión mediante la cual se activa el clock del receptor. A partir de dicho instante transmisor y receptor se encuentran sincronizados.
Otra forma de lograr el sincronismo es mediante la utilización de códigos auto sincronizantes los cuales permiten identificar el inicio y el fin de cada bit.


Canal de Comunicación
Se denomina así al recurso físico que hay que establecer entre varios medios de transmisión para establecer la comunicación.
Al canal de comunicación también se lo denomina vínculo o enlace.


Tipos de comunicación
En los canales de comunicación existen tres tipos de transmisión.


Simplex
En este caso el transmisor y el receptor están perfectamente definidos y la comunicación es unidireccional. Este tipo de comunicaciones se emplean usualmente en redes de radiodifusión, donde los receptores no necesitan enviar ningún tipo de dato al transmisor.

Duplex o Semi-duplex
En este caso ambos extremos del sistema de comunicación cumplen funciones de transmisor y receptor y los datos se desplazan en ambos sentidos pero no simultáneamente. Este tipo de comunicación se utiliza habitualmente en la interacción entre terminales y un computador central.

Full Duplex
El sistema es similar al duplex, pero los datos se desplazan en ambos sentidos simultáneamente. Para ello ambos transmisores poseen diferentes frecuencias de transmisión o dos caminos de comunicación separados, mientras que la comunicación semi-duplex necesita normalmente uno solo.
Para el intercambio de datos entre computadores este tipo de comunicaciones son más eficientes que las transmisiones semi-duplex.

REDES INALAMBRICAS LASER
Redes inalámbricas ópticas Free Space Optics (FSO)
La tecnología óptica láser punto a punto se utiliza para conectar redes en áreas metropolitanas densamente pobladas. Permite conectar redes que se encuentran separadas desde unos pocos metros hasta 4 o 5 kilómetros. Esta tecnología utiliza el espectro no licenciado mediante rayos de luz infrarroja y se pueden alcanzar velocidades de hasta 1500 Mbps.
Un inconveniente es la necesidad de los equipos cuenten con una línea de visión directa entre ellos, es decir no puede haber otros edificio, arboles u otras estructuras que bloqueen la línea de visión entre ellos. Pero esto se compensa con el hecho de que no es necesario negociar o pagar derechos por la utilización de la azotea ya que puede instalarse detrás de una ventana.
Otras ventajas de esta tecnología incluyen el hecho de que no hay que tirar ningún cable o fibra óptica ni contratar enlaces a las empresas de telecomunicaciones. Es relativamente fácil de instalar y, a diferencia de las microondas, no requiere una licencia por el uso del una radiofrecuencia. Es inmune a interferencias o saturaciones.
La señalización óptica con láseres es inherentemente unidireccional, de manera que cada edificio necesita su propia unidad inalámbrica óptica cada una de las cuales constan de un transceptor óptico con un transmisor (láser) y un receptor (fotodetector) para proveer una comunicación bidireccional o full-duplex . Este esquema ofrece un ancho de banda muy alto y un costo muy bajo. La ventaja del láser, un haz muy estrecho, es aquí también una debilidad. Apuntar un rayo láser de 1 mm de anchura a un blanco de 1 mm a 500 metros de distancia requiere mucha puntería y precisión en la instalación. Por lo general, se añaden lentes al sistema para desenfocar ligeramente el rayo.

Inconvenientes
Uno de los principales problemas de los sistemas de comunicación basados en tecnología óptica es la niebla densa. La lluvia y la nieve tienen poco efecto sobre estos sistemas, pero la niebla es diferente. La niebla esta compuesta por pequeñas gotas de agua suspendidas, que solo poseen unos pocos cientos de micrones de diámetro, pero pueden cambiar las características de la luz o impedir su pasaje completamente a través de una combinación de absorción, dispersión y reflexión. La solución para este problema es disminuir la distancia de los enlaces e incluir redundancia. Por ejemplo existen productos que poseen hasta cuatro transmisores láser y cuatro receptores que aumentan notablemente la confiabilidad de la comunicación.
Con respecto a la seguridad, estos dispositivos utilizan tecnología láser para realizar las transmisiones, lo cual plantea principalmente un posible inconveniente. Este es la exposición directa de los ojos a los rayos de luz, sin embargo los láseres utilizados trabajan a una longitud de onda segura, por ejemplo 850 nm con clasificación de tipo Class 1 de la IEC/CDRH.

Fibra óptica

El primer intento de utilizar la luz como soporte para una transmisión fue realizado por Alexander Graham Bell, en el año 1880. Utilizó un haz de luz para llevar información, pero se evidenció que la transmisión de las ondas de luz por la atmósfera de la tierra no es práctica debido a que el vapor de agua, oxigeno y partículas en el aire absorben y atenúan las señales en las frecuencias de luz.
Se ha buscado entonces la forma de transmitir usando una línea de transmisión de alta confiabilidad que no reciba perturbaciones desde el exterior, una guía de fibra llamada Fibra óptica la cual transmite información lumínica.
La fibra óptica puede decirse que fue obtenida en 1951, con una atenuación de 1000 dB/Km. (al incrementar la distancia 3 metros la potencia de luz disminuía ½), estas perdidas restringía, las transmisiones ópticas a distancias cortas. En 1970, la compañía de CORNING GLASS de Estados Unidos fabricó un prototipo de fibra óptica de baja perdida, con 20 dB/Km. Luego se consiguieron fibras de 7 dB/Km. (1972), 2.5 dB/Km. (1973), 0.47 dB/Km. (1976), 0.2 dB/Km. (1979). Por tanto a finales de los años 70 y a principios de los 80, el avance tecnológico en la fabricación de cables ópticos y el desarrollo de fuentes de luz y detectores, abrieron la puerta al desarrollo de sistemas de comunicación de fibra óptica de alta calidad, alta capacidad y eficiencia. Este desarrollo se vio apoyado por diodos emisores de luz LEDs, Fotodiodos y LASER (amplificación de luz por emisión estimulada de radiación).
La Fibra Óptica es una varilla delgada y flexible de vidrio u otro material transparente con un índice de refracción alto, constituida de material dieléctrico (material que no tiene conductividad como vidrio o plástico), es capaz de concentrar, guiar y transmitir la luz con muy pocas pérdidas incluso cuando esté curvada. Está formada por dos cilindros concéntricos, el interior llamado núcleo (se construye de elevadísima pureza con el propósito de obtener una mínima atenuación) y el exterior llamado revestimiento que cubre el contorno (se construye con requisitos menos rigurosos), ambos tienen diferente índice de refracción ( n2 del revestimiento es de 0.2 a 0.3 % inferior al del núcleo n1 ).
El diámetro exterior del revestimiento es de 0.1 mm . aproximadamente y el diámetro del núcleo que transmite la luz es próximo a 10 ó 50 micrómetros. Adicionalmente incluye una cubierta externa adecuada para cada uso llamado recubrimiento.

Redes Virtuales VLANs
Una red de área local (LAN) esta definida como una red de computadoras dentro de un área geográficamente acotada como puede ser una empresa o una corporación. Uno de los problemas que nos encontramos es el de no poder tener una confidencialidad entre usuarios de la LAN como pueden ser los directivos de la misma, también estando todas las estaciones de trabajo en un mismo dominio de colisión el ancho de banda de la misma no era aprovechado correctamente. La solución a este problema era la división de la LAN en segmentos físicos los cuales fueran independientes entre si, dando como desventaja la imposibilidad de comunicación entre las LANs para algunos de los usuarios de la misma.
La necesidad de confidencialidad como así el mejor aprovechamiento del ancho de banda disponible dentro de la corporación ha llevado a la creación y crecimiento de las VLANs.
Una VLAN se encuentra conformada por un conjunto de dispositivos de red interconectados (hubs, bridges, switches o estaciones de trabajo) la definimos como como una subred definida por software y es considerada como un dominio de Broadcast que pueden estar en el mismo medio físico o bien puede estar sus integrantes ubicados en distintos sectores de la corporación.

viernes, 21 de noviembre de 2008

GORILLAZ - VIDEOS

GORILLAZ




Gorillaz es un grupo virtual formado por el cantante de las bandas Blur y The Good, The Bad And The Queen, Damon Albarn, y Jamie Hewlett, dibujante inglés creador de cómics como Tank Girl y Los Freebies, y otros artistas que han colaborado en sus proyectos. El grupo, en su formato virtual, esta compuesto por 2D, Murdoc Niccals, Noodle, Russel Hobbs y la eventual aparición de Del, el fantasma del mejor amigo de Russel Hobbs que vive en su cuerpo, y producido por Dan "the Automator" Nakamura el mismo lúcido productor de Lovage, proyecto trip hop en el que participa Mike Patton.

Su primer álbum, “Gorillaz” (2001), vendió más de 6 millones de copias en todo el mundo y les valió una entrada en el libro Guinnes de los récords como la banda virtual más exitosa. Su segundo álbum de estudio “Demon Days” fue lanzado en el 2005.

Creación del Grupo

Murdoc Niccals (un rufián de mala muerte que tocaba el bajo) quería crear un grupo para alcanzar el éxito. Un día —previamente drogado— decide irrumpir en el "Emporio del Órgano del tio Norm" con su coche a robar los instrumentos necesarios para crear la banda. En medio del desastre atropella “accidentalmente” a Stuart Tusspot (apodo Stu-Pot), que pierde un ojo y queda en estado vegetativo. Sentencian a Murdoc a 30.000 horas de servicio comunitario más 10 horas a la semana de cuidados para Stu-Pot. Tiempo después, mientras Murdoc intentaba dibujar un círculo cerrado derrapando en el aparcamiento del Tesco en Nottingham, arrojó a Stu-Pot a través del parabrisas directamente hacia un bordillo, perdiendo el otro ojo. Sin embargo, el aparente desastre acabó siendo un milagro, ya que el golpe resucitó a Stu-Pot de su estado vegetal. Es entonces cuando Stuart Pot pasa a llamarse 2D (Two Dents), debido a sus dos accidentes (“Dent” significa “abolladura” en inglés, pero alguna gente lo traduce al español como “Dos Desgracias” o “Dos Dientes”, ya que también pierde casi todos sus dientes en los accidentes, quedándose finalmente sólo con dos de ellos). Murdoc pudo darse cuenta de que 2D contaba con una voz estupenda y un gran dominio del teclado, por lo que decide que debe formar parte en su banda. Paula Cracker —guitarrista y novia de 2D— también entra en el grupo: ahora Murdoc sólo necesitaba un batería.2-d. Tiempo atrás, en el estado de Nueva York, un chico de clase media llamado Russel fue expulsado de un elegante colegio privado porque había sido poseído por el diablo. Estuvo cuatro años en coma hasta que le practicaron con éxito un exorcismo y su familia se mudó a Brooklyn, donde Russel pudo conocer el hip-hop y establecer amistad con mucha gente de esa cultura, especialmente con un muchacho llamado Del. Un día, él y sus amigos se encuentran en medio de un tiroteo entre pandillas y todos fueron asesinados excepto Russel, quien queda en un profundo estado de shock (eso explica que siempre le dibujen con los ojos completamente blancos) y por si fuera poco es poseído por sus amigos —entre ellos Del, el cual sale a menudo de su cuerpo en forma de fantasma— dotándole de unas asombrosas dotes para la percusión, el rap y el hip-hop en general. Sus padres deciden mudarse ahora a Inglaterra, donde esperan que tenga la ocasión de gozar de una vida más tranquila, pero no habían contado con Murdoc: al enterarse de la historia del muchacho, rapta a Russel y le obliga a formar parte del grupo. La banda ya hubiera estado lista si no fuera por Russel, que encontró a Murdoc intimando con Paula en los baños de Kong Studios —lugar de residencia de Gorillaz, comprado por Murdoc, quien también eligió el nombre de la banda buscando algo que significara "ir desnudo y mostrando el trasero" y pensó en los gorilas, de modo que se le ocurrió “Gorillaperz” y luego pasó a ser “Gorillaz”—. Russel le rompió la nariz a Murdoc de un puñetazo y, obviamente, Paula se vio obligada a abandonar el grupo. La banda ya estaba casi completa, y para encontrar al guitarrista que les faltaba pusieron un anuncio en el New Musical Express —semanario musical del Reino Unido—. Ese mismo día les llegó un paquete de Fed-Ex que contenía una niña japonesa con una guitarra Les Paul. Ella no dominaba el inglés, sólo sabía hablar japonés a excepción de una palabra que estuvo repitiendo debido a que tenía hambre: “noodle” (fideos en inglés). Al final decidieron llamarla así y al ver que dominaba perfectamente la guitarra la dejaron formar parte de la banda. Más tarde se dieron cuenta de que tenía buena voz y pasó a ser también vocalista. Russel le tradujo algunas canciones, pero Noodle fue aprendiendo el inglés poco a poco y actualmente lo habla con total fluidez. Ahora le gusta comer champiñones y su hobbie es derretir plastico y quemarse los ojos.

Después de alcanzar la fama, la fortuna y el éxito, fueron a por un director de cine para comenzar la producción de una película, mientras que Murdoc intentó meterse en un programa de televisión sin éxito. El grupo se separó durante un tiempo: Murdoc fue a México y lo arrestraron por pasar cheques falsos a las prostitutas de un burdel en Tijuana. Disfrutó de su corta estancia en la cárcel junto a su cuervo Cortez —el cual conoció allí— y dos gángsters mexicanos que más tarde le ayudarían a escapar. En la cárcel se hizo algún tatuaje y ganó el título de “Dr. Niccals”. 2D regresó a su hogar y trabajó en un parque de atracciones que tenía su tío, en los autos de choque, donde intentó llevar una vida más o menos tranquila y donde trató de acostumbrarse a su nueva popularidad entre las chicas. Russel desapareció del estado y se marchó a exorcisar —en sentido literal y figurado— a sus demonios personales, lamentablemente incluyendo al fantasma de Del, dejándole agotado. Después de andar arrastrándose por Los Ángeles durante un tiempo, Iker Turner le ayudó a recuperarse y mientras vivía en su sótano registró su propio álbum que fue apartado debido a la extraña actividad sobrenatural que poseía la música, algo que Russel describió como “algo de una interrupción cósmica”. Noodle viajó a Japón para descubrir los secretos de su pasado y averiguó que ella era un sujeto de prueba en un proyecto del Gobierno de “super soldados”. Mr.Kyuzo, el hombre que llevaba el proyecto, fue quien la envió a Inglaterra para salvarla. Supo que el Gobierno la buscaba y regresó enseguida a los Kong Studios, creó Demon Days y llamó al resto de la banda para que volvieran.

Miembros de la banda

  • Stuart Tusspot (2D) - (nacido el 23 de Mayo de 1978 (entró con 23 años) en Crawley, Reino Unido) - vocalista, teclado. Como anteriormente mencionado, es ciego de ambos ojos, causado por "Murdoc"; es el más guapo de los integrantes, posee una cabellera envidiable la cual cuida con especial atención. Lamentablemente se le puede describir como un tipo sin mucho cerebro; es de caracter amable e ingenuo y no duda en ayudar a quien lo necesita. Le fascinan los zombies, los asesinos y el graffitti. Es un excelente teclista y productor (tiene una obsesión con el teclado) y tiene una voz angelical (lo que le da mucho éxito con las mujeres). En un principio es odiado por Murdoc (al que irónicamente admira) y Russel, pero cada vez se irán llevando mejor. Sufre de migraña. Sus influencias son Phill Oakey y Lucio Fulci.
  • Murdoc Niccals - (nacido Nacido el 6 de Junio de 1966 (entró con 34 años) en Stoke-on-Trent Inglaterra, Reino Unido) - bajo. Aunque su aspecto es bastante rudo y sombrío, es un tipo agradable y hablador, le encanta ser el centro de atención. Aun así es sádico, agresivo, malvado, completamente macabro y casi nunca admite cuando se equivoca. Aunque es de Inglaterra, sus familiares son Mexicanos. Su dios único: Satanás (se considera el Anticristo). Su hobby: torturar gatos. Está negado a cualquier actividad ligada a la higiene personal. Es adicto al tabaco. Ama el peligro y le gusta ir a altas velocidades. Desde un principio su único interés fue el dinero, pero en realidad aprecia a su banda. Odia a 2D al cual considera homosexual y siempre molesta o tortura. También odia que la gente piense que 2D es el líder. Sus influencias son Black Sabbath, Dub, J Andrew Anderson y Dennis Willson.
  • Russel Hobbs - (nacido el 3 de Junio de 1975 (entró con 25 años) en Nueva York, Estados Unidos) - batería, instrumentos de percusión. Es el más diplomático, educado, amable y culto de los Gorillaz. Se le considera el alma de la banda, por ser el más centrado y tranquilo. Se dice que sin él los Gorillaz no podrían sobrevivir. Russel es también quien le da el toque de hip hop a las composiciones. Ama la comida y es el gordinflón de la banda. No le agrada que Murdoc abuse de los demás, es un experto baterista y un gran amigo pero de carácter muy fuerte cuando se necesita. Tiene un cerdo como mascota y muy buena relación con Noodle. Sus influencias son Frrakhan, Chaka Khan, Tupac Shakur.
  • Noodle, de nombre Miho Hatori - (nacida el 31 de Octubre de 1990 (entró con 10 años) en Osaka, Japón) - guitarra electrica, vocalista. Es la guitarrista y única representante del sexo femenino en el grupo. Es una niña muy precoz y especialista en artes marciales. Le encanta Pokemon, escuchar la radio, bailar en su habitación con la música a todo volumen, el J-Pop, los cascos y los gorros. Después del primer álbum de Gorillaz ella se vuelve la mente maestra de la banda. Tiene un mono llamado Mike como mascota y muy buena relación con Russel. Odia que invadan su cuarto. Sus influencias son Loa Zi y Richie Zambora.

Artistas detrás de la banda virtual

Gorillaz fue creado por Damon Albarn —cantante de Blur—, Jamie Hewlett —dibujante inglés creador de Tank Girl— y el productor Dan “The Automator” Nakamura. Damon Albarn da voz a 2D, mientras que el resto de voces pertenecen a muchos otros artistas que colaboran con la banda; los más importantes de los cuales son: Miho Hatori (de Cibo Matto), Tina Weymouth y Chriz Frantz (de Talking Heads), Kid Koala (de Coldcut), Ibrahim Ferrer (integrante del Buenavista Social Club).

  • Personas reales detrás de Noodle:

- Miho Hatori, Tina Weymouth y Rosie Wilson (vocalistas)

- Haruka Kuroda (actriz que da su voz en las entrevistas)

- Simon Katz, Simon Tong y Damon Albarn (instrumental, guitarra)

  • Personas reales detrás de 2D:

- Damon Albarn (instrumental y vocalista)

- Nelson De Freitas (da su voz en las entrevistas)

  • Personas reales detrás de Murdoc:

- Phil Cornwell

- Jamie Hewlett (ocasionalmente)

  • Personas reales detrás de Russel:

- Remi Kabaka.


Damon Albarn decidió en un momento que ya bastaba con Gorillaz, y que su historia seguiría adelante sin hacer nuevos temas. De todas maneras, la banda ha seguido sacando nuevos temas e incluso tuvo participación en los juegos olímpicos del 2008, en China.

OPEN SOURCE



¿QUÈ ES EL OPEN SOURCE?

Código Abierto (open source en inglés) es un término que empezó a utilizarse en 1998 por algunos usuarios de la comunidad del software libre, usándolo como reemplazo al ambiguo nombre original, en inglés, del software libre (free software), que no significaba exactamente lo que se pretendía (free significa a la vez "gratis" y "libre").
El significado obvio del término "código abierto" es "se puede mirar el código fuente", lo cual es un significado más exacto que el del software libre. El software de código abierto (OSS por sus siglas en inglés) es software para el que su código fuente está disponible públicamente. Un programa de código abierto puede ser software libre, pero también puede serlo un programa por el que hay que pagar. Los términos de licenciamiento específicos del Código Abierto varían respecto a lo que se puede hacer con ese código fuente. O sea, "abierto" no necesariamente es "gratis", aunque en su gran mayoría lo sea.
La idea que late detrás del Código Abierto (open source) es bien sencilla: cuando los programadores en internet pueden leer, modificar y redistribuir el código fuente de un programa, éste evoluciona, se desarrolla y mejora. Los usuarios lo adaptan a sus necesidades, corrigen sus errores. Y esto puede ocurrir a tal velocidad que el que está acostumbrado al ritmo de desarrollo de los programas comerciales no lo puede concebir.
A diferencia del Código Cerrado, el Código Abierto permite que varios programadores puedan leer, modificar y redistribuir el código fuente de un programa, por lo que ese programa evoluciona constantemente. La gente lo mejora, lo adapta y corrige sus errores a una velocidad impresionantemente mayor a la aplicada en el desarrollo de software convencional o cerrado, dando como resultado la producción de un mejor software.
Linux, hijo de este movimiento, es el sistema operativo de Código Abierto de mayor crecimiento en el mundo gracias a sus magníficas cualidades: estable, seguro, confiable, liviano y multiplataforma, entre varias más.
Todo el mundo sabe que Internet es una de las más poderosas e importantes herramientas de la actualidad, pero pocos se dan cuenta de que la mayoría de los sitios web que existen, así como los correos electrónicos que a diario son intercambiados en la Red, son servidos por programas de Código Abierto, incluso, el importantísimo sistema de dominios, el cual nos permite referirnos a un servidor de Internet con palabras y no números, está basado completamente en Código Abierto. Así, y sin duda alguna, se puede afirmar que la Internet y su actual repercursión ecómica y social en el mundo existen gracias al Código Abierto.
Los orígenes del Código Abierto pueden trazarse hasta hace unos 20 años, en las tierras de la academia, sin embargo este movimiento cobra cada vez más importancia en la actualidad debido a su empleo en empresas de todos los tamaños así como en los gobiernos de varios países, ya que no puede hablarse de soberanía ni de seguridad nacional si un gobierno utiliza Software Cerrado producido por una empresa extranjera.
El Código Abierto está cambiando viejos esquemas y rígidas reglas de una forma pragmática y lógica, amenazando muchas veces a compañías establecidas (por ejemplo, Microsoft), quienes paradójicamente proclaman su superioridad en calidad y soporte, mientras prefieren basar su defensa en el terreno jurídico, en base a patentes y patrañas, en lugar de hacerlo en el plano de la excelencia técnica.
Con la cantidad óptima de recursos, bajos costos y adaptando tecnologías de Código Abierto con tecnologías propietarias, hemos logrado exitosos desarrollos e implantaciones de tecnología sin importar el tamaño del cliente o del proyecto, conózcalos.

OPEN OFFICE


OpenOffice.org es una suite ofimática de software libre y código abierto de distribución gratuita que incluye herramientas como procesador de textos, hoja de cálculo, presentaciones, herramientas para el dibujo vectorial y base de datos. Está disponible para muchas plataformas: como Microsoft Windows, sistemas de tipo Unix con el Sistema X Window como GNU/Linux, BSD, Solaris y Mac OS X. También está disponible para Mac Os X un programa similar derivado denominado NeoOffice. OpenOffice está pensado para ser altamente compatible con Microsoft Office, con quien compite. Soporta el estándar ISO OpenDocument con lo que es fácil el intercambio de documentos con muchos otros programas, y puede ser utilizado sin costo alguno.
OpenOffice.org posee como base inicial a StarOffice, una suite ofimática desarrollada por StarDivision y adquirida por Sun Microsystems en agosto de 1999. El código fuente de la suite fue liberado en julio de 2000, proporcionando una alternativa abierta, gratuita y alta calidad con la suite de Microsoft Office. El código fuente de la aplicación está disponible bajo la licencia LGPL.
Las versiones más recientes de StarOffice, la versión comercial de Sun, están basadas en el código base de OpenOffice.org. Se puede decir que la relación entre open office y StarOffice tiene algunos parecidos con la relación que hubo entre Netscape Navigator y Mozilla.
El proyecto y el programa son denominados "OpenOffice" de forma informal, pero los responsables del proyecto dicen que este término es una marca registrada en posesión de otra empresa, obligándoles a adoptar "OpenOffice.org" como nombre formal, y abreviado como OOo.
Existe una versión portátil de OpenOffice.org que puede ser transportada y usada directamente desde una memoria USB sin necesidad de instalarse en el computador.

Desarrollado en un principio como una suite ofimática propietaria por la compañía alemana StarDivision, el código fue adquirido en 1999 por Sun Microsystems. En agosto de 1999 la versión 5.2 de StarOffice se hizo disponible de forma gratuita.
El 19 de julio de 2000, Sun Microsystems anunció que estaba dejando disponible el código fuente de StarOffice para descarga bajo tanto la Licencia pública general limitada de GNU (LGPL) como la Sun Industry Standards Source License (SISSL) con la intención de construir una comunidad de desarrollo de código abierto alrededor del software. El nuevo proyecto fue bautizado como OpenOffice.org, y su sitio web vio la luz el 13 de octubre de 2000.
El trabajo en la versión 2.0 comenzó a principios de 2003 con los siguientes objetivos: mejor la interoperatibilidad con Microsoft Office,; mejor rendimiento, con una mejora en la velocidad y un menor uso de memoria; mayores funcionalidades de scripting; mejor integración, en particular con GNOME; una interfaz con facilidades de búsqueda y uso de base de datos para crear informes, formularios y consultas; una nueva base de datos SQL integrada; una usabilidad mejorada. El 4 de marzo de 2005 se lanzó una versión beta.
El 2 de septiembre de 2005, Sun anunció que iba a abandonar la Sun Industry Standards Source License (SISSL). A consecuencia de ello, el Consejo de la Comunidad de OpenOffice.org Community anunció que no continuaría la licencia dual en la suite ofimática, y que las versiones futuras sólo usarían la LGPL.
El 20 de octubre de 2005, OpenOffice.org fue lanzado de forma oficial. Sin embargo, ocho semanas después del lanzamiento de la versión 2.0, se presentó la actualización OpenOffice.org 2.0.1. La versión 2.0.1 corrige errores menores e introduce nuevas características.
Desde 2005, OpenOffice.org cambió su ciclo de lanzamientos de 18 meses a la presentación de actualizaciones, mejoras de características y correcciones de bugs cada tres meses.

STAROFFICE

Sun ayuda al desarrollo de OpenOffice.org y le utiliza como base para el desarrollo de su propia versión comercial denominada StarOffice. Las versiones de StarOffice desde la 6.0 han estado basadas en el código fuente de OpenOffice.org, con algunos componentes propietarios adicionales, como:
  • Fuentes adicionales (en especial las fuentes de idiomas asiáticos).
  • Base de datos Adabas D.
  • Plantillas de documento adicionales.
  • Herramienta de estimación de migración (Enterprise Edition).
  • Filtros de archivos adicionales.
  • Funcionalidades de ordenación para las versiones asiáticas.
  • Herramienta de migración de macro (Enterprise Edition).
  • Herramienta de gestión de la configuración (Enterprise Edition).
  • En la actualidad se distribuye de manera gratuita a través del Google Pack desde marzo de 2007.

RENDIMIENTO EN EL ARRANQUE

Algunos usuarios han experimentado problemas en cuanto a la rapidez de arranque cuando se lanza porprimera vez OpenOffice.org en versiones previas a la 3.0. Esto puede mejorarse notablemente siguiendo los siguientes pasos.

  • Lanzar OpenOffice - no importa qué subprograma se utilice.
  • En el menú Herramientas, elegir Opciones
  • Elegir la opción Memoria de la lista de la izquierda
  • Bajo el epígrafe Caché de gráficos, cambiar la configuración a los siguientes valores:
  • Uso de OpenOffice.org - 128 MB
  • Memoria por objeto - 20.0 MB
  • Bajo el epígrafe Caché para objetos insertados, cambiar la configuración a los siguientes valores:
  • Número de objetos - 20
  • Seleccionar Java en la lista de la izquierda
  • Bajo el epígrafe opciones de Java, deseleccionar la opción Utilizar un entorno de ejecución Java
  • Pulsar Aceptar
  • Cerrar OpenOffice

EstoS cambios permiten a OpenOffice arrancar mucho más rápidamente, a costa de aumentar el consumo de memoria. Dependiendo del S.O., esto no debería ser un problema con 1 GB o más de memoria RAM.
Otra posibilidad es usar el programa de Arranque Rápido, una aplicación que se ejecuta al arrancar el S.O., y que carga parte del software necesario para OpenOffice en ese momento. Esto ralentiza el arranque del ordenador, pero hace el arranque de OpenOffice mucho más rápido.

MICROSOFT SURFACE


Microsoft Surface es un producto de Microsoft que permite al usuario manejar contenidos digitales con movimientos de las manos u objetos. Esta tecnología es resultado de la combinación entre software con hardware. Este producto fue anunciado el 30 de mayo de 2007 y se espera que sea lanzado al mercado en noviembre de 2007. Los primeros clientes, se estima que sean hoteles, tiendas, restaurantes y lugares de entretenimiento.

Surface es esencialmente un computador con Windows Vista dentro de una base de mesa negra. En la parte superior hay una pantalla con tecnologia Multitactil (touchscreen) de 30 pulgadas protegido por un cuadro de acrílico. Seis cámaras, y sensores de movimiento, que se encuentran debajo pueden detectar los objetos que se acercan a la pantalla. Los usuarios pueden interactuar con el computador tocando o desplazando sus dedos y objetos como pinceles a través de la pantalla o con elementos del mundo real marcados con un código de barras especial.

Surface también puede responder a más de un toque. Durante una demostración con un reportero la semana pasada, Mark Bolger, el director de marketing de Surface, declaró que "manché mis dedos en una paleta de colores en la pantalla, entonces los desplacé a través de la pantalla para dibujar una cara feliz. Entonces, usé los 10 dedos al mismo tiempo para dibujarle el pelo".

Además de reconocer el movimiento de los dedos, Microsoft Surface también puede identificar objetos físicos que tiene un código de barras. Microsoft anunció que si una persona acerca un vaso de vino a la mesa, entonces se podrá sugerir algunas alternativas de vino para cada comensal.

Los precios se estima será de 5.000 a 10.000 dólares por cada unidad, sin embargo, Microsoft estimó que los precios bajarán para hacer que el producto penetre en el mercado objetivo.

Historia

La tecnología detrás de Surface es llamada Multi-touch. Tiene al menos 25 años de historia, comenzando en 1982, con el trabajo inicial hecho en la Universidad de Toronto (multi-touch tablets) y Bell Labs (multi-touch screens). La idea del producto para Surface fue inicialmente conceptualizada en 2001 por Steven Bathiche de Microsoft Hardware y Andy Wilson de Microsoft Research. En Octubre de 2001, un equipo virtual fue formado con Bathiche y Wilson como miembros claves, para llevar la idea al siguiente paso del desarrollo.

En el 2003, el equipo presentó la idea al Microsoft Chairman Bill Gates, en una revisión de grupo. Más tarde, el equipo virtual fue expandido y un prototipo llamado T1 fue producido en un mes. El prototipo estaba basado en una mesa IKEA con un corte de agujero en la parte superior y una hoja de vitela arquitectónica usada como difusor. El equipo también desarrolló algunas aplicaciones, incluyendo pinball, un navegador de fotos y un rompecabezas de video. En el año siguiente, Microsoft construyó más de 85 prototipos para Surface. El diseño de hardware final se realizó en el 2005.

Un concepto similar fue usado en la película de ciencia ficción del 2005 La Isla, por el personaje de Sean Bean "Merrick". Como se aprecia en el comentario del DVD, el director Michael Bay estableció que el concepto del aparato vino de la consulta con Microsoft durante la filmación de la película. Uno de los consultistas tecnológicos asociados de la película de MIT se unió más tarde a Microsoft para trabajar en el proyecto Surface.

Surface fue presentado por el CEO de Microsoft Steve Ballmer en Mayo 29, 2007 en la conferencia The Wall Street Journal's D: All Things Digital en Carlsbad, California. Surface Computing es parte del Microsoft's Productivity and Extended Consumer Experiences Group, el cual es parte de la división de Entretenimiento & Aparatos. Las pocas primeras compañías en desplegar Surface serán Harrah's Entertainment, Starwood Hotels & Resorts Worldwide, T-Mobile y el distribuidor, International Game Technology.

jueves, 20 de noviembre de 2008

JAVA


Java es un lenguaje de programaciòn orientado a objetos desarrollado por Sun Microsystem a principios de los años 90. El lenguaje en sí mismo toma mucha de su sintaxis de C y C++, pero tiene un modelo de objetos más simple y elimina herramientas de bajo nivel, que suelen inducir a muchos errores, como la manipulación directa de punteros o memoria.
Las aplicaciones Java están típicamente compiladas en un bytecode, aunque la compilación en codigo maquina nativo también es posible. En el tiempo de ejecución, el bytecode es normalmente interpretado o compilado a código nativo para la ejecución, aunque la ejecución directa por hardware del bytecode por un procesador Java también es posible.
La implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems en 1995. Desde entonces, Sun ha controlado las especificaciones, el desarrollo y evolución del lenguaje a través del Java Community Process, si bien otros han desarrollado también implementaciones alternativas de estas tecnologías de Sun, algunas incluso bajo licencias de softwar libre.
Entre noviembre de 2006 y mayo de 2007, Sun Microsystems liberó la mayor parte de sus tecnologías Java bajo la licencia GNU GPL, de acuerdo con las especificaciones del Java Community Process, de tal forma que prácticamente todo el Java de Sun es ahora software libre (aunque la biblioteca de clases de Sun que se requiere para ejecutar los programas Java todavía no es software libre).


La tecnología Java se creó como una herramienta de programación para ser usada en un proyecto de set-top-box en una pequeña operación denominada the Green Project en Sun Microsystems en el año 1991. El equipo (Green Team), compuesto por trece personas y dirigido por James Gosling, trabajó durante 18 meses en Sand Hill Road en Menlo Park en su desarrollo.
El lenguaje se denominó inicialmente Oak (por un roble que había fuera de la oficina de Gosling), luego pasó a denominarse Green tras descubrir que Oak era ya una marca comercial registrada para adaptadores de tarjetas gráficas y finalmente se renombró a Java.
El término Java fue acuñado en una cafetería frecuentada por algunos de los miembros del equipo. Pero no está claro si es un acrónimo o no, aunque algunas fuentes señalan que podría tratarse de las iniciales de sus creadores: James Gosling, Arthur Van Hoff, y Andy Bechtolsheim. Otros abogan por el siguiente acrónimo, Just Another Vague Acronym ("sólo otro acrónimo ambiguo más"). La hipótesis que más fuerza tiene es la que Java debe su nombre a un tipo de café disponible en la cafetería cercana, de ahí que el icono de java sea una taza de cafe caliente. Un pequeño signo que da fuerza a esta teoría es que los 4 primeros bytes (el número mágico) de los archivos .class que genera el compilador, son en hexadecimal, 0xCAFEBABE. Otros simplemente dicen que el nombre fue sacado al parecer de una lista aleatoria de palabras.
Los objetivos de Gosling eran implementar una máquina virtual y un lenguaje con una estructura y sintaxis similar a C++. Entre junio y julio de 1994, tras una sesión maratoniana de tres días entre John Gaga, James Gosling, Joy Naughton, Wayne Rosing y Eric Schmidt, el equipo reorientó la plataforma hacia la Web. Sintieron que la llegada del navegador web Mosaic, propiciaría que Internet se convirtiese en un medio interactivo, como el que pensaban era la televisión por cable. Naughton creó entonces un prototipo de navegador, WebRunner, que más tarde sería conocido como HotJava.
En 1994, se les hizo una demostración de HotJava y la plataforma Java a los ejecutivos de Sun. Java 1.0a pudo descargarse por primera vez en 1994, pero hubo que esperar al 23 de mayo de 1995, durante las conferencias de SunWorld, a que vieran la luz pública Java y HotJava, el navegador Web. El acontecimiento fue anunciado por John Gage, el Director Científico de Sun Microsystems. El acto estuvo acompañado por una pequeña sorpresa adicional, el anuncio por parte de Marc Andreessen, Vicepresidente Ejecutivo de Netscape, que Java sería soportado en sus navegadores. El 9 de enero del año siguiente, 1996, Sun fundó el grupo empresarial JavaSoft para que se encargase del desarrollo tecnológico. Dos semanas más tarde la primera versión de Java fue publicada.
La promesa inicial de Gosling era Write Once, Run Anywhere (Escríbelo una vez, ejecútalo en cualquier lugar), proporcionando un lenguaje independiente de la plataforma y un entorno de ejecución (la JVM) ligero y gratuito para las plataformas más populares de forma que los binarios (bytecode) de las aplicaciones Java pudiesen ejecutarse en cualquier plataforma.
El entorno de ejecución era relativamente seguro y los principales navegadores web pronto incorporaron la posibilidad de ejecutar applets Java incrustadas en las páginas web.
Java ha experimentado numerosos cambios desde la versión primigenia, JDK 1.0, así como un enorme incremento en el número de clases y paquetes que componen la librería estándar.
El lenguaje Java se creó con cinco objetivos principales:
  1. Debería usar la metodología de la programación orientada a objetos.
  2. Debería permitir la ejecución de un mismo programa en múltiples sistemas operativos.
  3. Debería incluir por defecto soporte para trabajo en red.
  4. Debería diseñarse para ejecutar código en sistemas remotos de forma segura.
  5. Debería ser fácil de usar y tomar lo mejor de otros lenguajes orientados a objetos, como C++.

Para conseguir la ejecución de código remoto y el soporte de red, los programadores de Java a veces recurren a extensiones como CORBA (Common Object Request Broker Architecture), Internet Communications Engine o OSGi respectivamente.


ORIENTADO A OBJETOS

La primera característica, orientado a objetos (“OO”), se refiere a un método de programación y al diseño del lenguaje. Aunque hay muchas interpretaciones para OO, una primera idea es diseñar el software de forma que los distintos tipos de datos que use estén unidos a sus operaciones. Así, los datos y el código (funciones o métodos) se combinan en entidades llamadas objetos. Un objeto puede verse como un paquete que contiene el “comportamiento” (el código) y el “estado” (datos). El principio es separar aquello que cambia de las cosas que permanecen inalterables. Frecuentemente, cambiar una estructura de datos implica un cambio en el código que opera sobre los mismos, o viceversa. Esta separación en objetos coherentes e independientes ofrece una base más estable para el diseño de un sistema software. El objetivo es hacer que grandes proyectos sean fáciles de gestionar y manejar, mejorando como consecuencia su calidad y reduciendo el número de proyectos fallidos. Otra de las grandes promesas de la programación orientada a objetos es la creación de entidades más genéricas (objetos) que permitan la reutilización del software entre proyectos, una de las premisas fundamentales de la Ingeniería del Software. Un objeto genérico “cliente”, por ejemplo, debería en teoría tener el mismo conjunto de comportamiento en diferentes proyectos, sobre todo cuando estos coinciden en cierta medida, algo que suele suceder en las grandes organizaciones. En este sentido, los objetos podrían verse como piezas reutilizables que pueden emplearse en múltiples proyectos distintos, posibilitando así a la industria del software a construir proyectos de envergadura empleando componentes ya existentes y de comprobada calidad; conduciendo esto finalmente a una reducción drástica del tiempo de desarrollo. Podemos usar como ejemplo de objeto el aluminio. Una vez definidos datos (peso, maleabilidad, etc.), y su “comportamiento” (soldar dos piezas, etc.), el objeto “aluminio” puede ser reutilizado en el campo de la construcción, del automóvil, de la aviación, etc.
La reutilización del software ha experimentado resultados dispares, encontrando dos dificultades principales: el diseño de objetos realmente genéricos es pobremente comprendido, y falta una metodología para la amplia comunicación de oportunidades de reutilización. Algunas comunidades de “código abierto” (open source) quieren ayudar en este problema dando medios a los desarrolladores para diseminar la información sobre el uso y versatilidad de objetos reutilizables y librerías de objetos.

martes, 18 de noviembre de 2008

SISTEMAS OPERATIVOS

¿ Qué es un Sistema Operativo ?.

Desde su creación, las computadorasdigitales han utilizado un sistema de codificación de instrucciones en sistema de numeración binaria, es decir con los 0S. Esto se debe a que los circuitos integrados funcionan con este principio, es decir, hay corriente o no hay corriente.

En el origen de la historia de las computadoras ( hace unos cuarenta años), los sistemas operativos no existían y la introducción de un programapara ser ejecutado se convertía en un increíble esfuerzo que solo podía ser llevado a cabo por muy pocos expertos. Esto hacia que las computadoras fueran muy complicadas de usar y que se requiriera tener altos conocimientos técnicos para operarlas. Era tan complejo su manejo, que en algunos casos el resultado llegaba a ser desastroso. Además, el tiempo requerido para introducir un programa en aquellas grandes máquinas de lento proceso superaba por mucho el de ejecución y resultaba poco provechosa la utilización de computadoras para resolución de problemas prácticos.

Se buscaron mediosmás elaborados para manipular la computadora, pero que a su vez simplificaran la labor del operador o el usuario. Es entonces cuando surge la idea de crear un medio para que el usuario pueda operar la computadora con un entorno, lenguaje y operación bien definido para hacer un verdadero uso y explotación de esta. Surgen los sistemas operativos.

Un sistema operativo es el encargado de brindar al usuario una forma amigable y sencilla de operar, interpretar, codificar y emitir las ordenes al procesador central para que este realice las tareas necesarias y especificas para completar una orden.

El sistema operativo, es el instrumento indispensable para hacer de la computadora un objeto útil. Bajo este nombre se agrupan todos aquellos programas que permiten a los usuarios la utilización de este enredo de cables y circuitos, que de otra manera serian difíciles de controlar. Un sistema operativo se define como un conjunto de procedimientos manuales y automáticos, que permiten a un grupode usuarios compartir una instalación de computadora eficazmente.

Funciones de los Sistemas Operativos.

  • Interpreta los comandos que permiten al usuario comunicarse con el ordenador.
  • Coordina y manipula el hardware de la computadora, como la memoria, las iimpresoras, las unidades de disco, el teclado o el mouse.
  • Organiza los archivos en diversos dispositivos de almacenamiento, como discos flexibles, discos duros, discos compactos o cintas magnéticas.
  • Gestiona los errores de hardware y la pérdida de datos.
  • Servir de base para la creación del software logrando que equipos de marcas distintas funcionen de manera análoga, salvando las diferencias existentes entre ambos.
  • Configura el entorno para el uso del software y los periféricos; dependiendo del tipo de máquina que se emplea, debe establecerse en forma lógica la disposición y características del equipo. Como por ejemplo, una microcomputadora tiene físicamente dos unidades de disco, puede simular el uso de otras unidades de disco, que pueden ser virtuales utilizando parte de la memoria principal para tal fin. En caso de estar conectado a una rred, el sistema operativo se convierte en la plataforma de trabajo de los usuarios y es este quien controla los elementos o recursos que comparten. De igual forma, provee de protección a la información que almacena.

Sistemas Operativos mas Populares

  • MS-DOS.
  • OS/2.
  • Macintosh OS.
  • UNIX.
  • Microsoft Windows NT.
  • Microsoft Windows 95.

Macintosh OS




El sistema operativo constituye la interfaz entre las aplicaciones y el hardware del Macintosh. El administrador de memoria obtiene y libera memoria en forma automática para las aplicaciones y el sistema operativo. Esta memoria se encuentra normalmente en un área llamada cúmulo. El código de procedimientos de una aplicación también ocupa espacio en el cúmulo. Ahora se presenta una lista de los principales componentes del sistema operativo.

  • El cargador de segmentos carga los programas por ejecutar. Una aplicación se puede cargar completa o bien puede dividirse en segundos individuales que se pueden cargar de manera dinámica conforme se necesiten.
  • El administrador de eventos del sistema operativo informa de la ocurrencia de diversos eventos de bajo nivel, como la presión de un botón del mouse o el tecleo. En condiciones normales, el administrador de eventos de la caja de herramientas transfiere estos eventos a las aplicaciones.
  • El administrador de archivos se encarga de la entrada / salida de archivos; el administrador de dispositivos se encarga de la entrada / salida de dispositivos.
  • Los programas de utilidad general del sistema operativo ofrecen diversas funciones útiles como la obtención de la fecha y la hora, la comparación de cadenas de caracteres y muchas más.
  • Con el administrador de AppleTalk las aplicaciones pueden transmitir y recibir información en una red de comunicaciones AppleTalk.
  • El Administrador de retrazado vertical programa las actividades por realizar durante las interrupciones de retrazado vertical que ocurren 60 veces cada segundo cuando se refresca la pantalla de vídeo.
  • El paquete de iniciación es llamado por el paquete de archivos estándar para iniciar y nombrar discos; se aplica con más frecuencia cuando el usuario inserta un disco al que no se le han asignado valores iniciales.

Unix

Es un sistema operativo multiusuario que incorpora multitarea. Fue desarrollado originalmente por Ken Thompson y Dennis Ritchie en los laboratorios de AT&TBell en 1969 para su uso en minicomputadoras. El sistema operativo UNIX tiene diversas variantes y se considera potente, más transportable e independiente de equipos concretos que otros sistemas operativos porque esta escrito en lenguaje C. El UNIX esta disponible en varias formas, entre las que se cuenta AIX, una versión de UNIX adaptada por IBM (para su uso en estaciones de trabajo basadas en RISC), A/ux (versión gráfica para equipos Apple Macintosh) y Mach (un sistema operativo reescrito, pero esencialmente compatible con UNIX, para las computadoras NeXT).

El UNIX y sus clones permiten múltiples tareas y múltiples usuarios. Su sistema de archivos proporciona un método sencillo de organizar archivos y permite la protección de archivos. Sin embargo, las instrucciones del UNIX no son intuitivas.

Este sistema ofrece una serie de utilidades muy interesantes, como las siguientes:

  • Inclusión de compiladores e interpretes de lenguaje.
  • Existencia de programas de interfase con el usuario, como ventanas, menús, etc.
  • Muchas facilidades a la hora de organización de ficheros.
  • Inclusión de lenguajes de interrogación.
  • Facilidades gráficas.
  • Programas de edición de textos.

LINUX




LINUX hace su aparicion a principiosde la decada de los noventa, era el año 1991 y por aquel entonces un estudiante de informatica de la Universidad de Helsinki, llamado Linus Torvalds empezo, -como una aficion y sin poderse imaginar a lo que llegaria este proyecto, a programar las primeras lineas de codigo de este sistema operativo llamado LINUX.

Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querian mas.

Linus nunca anuncio la version 0.01 de Linux (agosto 1991), esta version no era ni siquiera ejecutable, solamente incluia los principios del nucleo del sistema, estaba escrita en lenguaje ensamblador y asumia que uno tenia acceso a un sistema Minix para su compilacion.

El 5 de octubre de 1991, Linus anuncio la primera version "Oficial" de Linux, -version 0.02. Con esta version Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los terminos soporte, documentacion, distribucion .Despues de la version 0.03, Linus salto en la numeracion hasta la 0.10, mas y mas programadores a lo largo y ancho de internetempezaron a trabajar en el proyecto y despues de sucesivas revisiones, Linus incremento el numero de version hasta la 0.95 (Marzo 1992). Mas de un año despues (diciembre 1993) el nucleo del sistema estaba en la version 0.99 y la version 1.0 no llego hasta el 14 de marzo de 1994. Desde entonces no se ha parado de desarrollar, la version actual del nucleo es la 2.2 y sigue avanzando dia a dia con la meta de perfeccionar y mejorar el sistema.

CREADOR DE LINUX
Linus Benedict Torvalds




Linus Benedict Torvalds nació en Helsinki, Finlándia, el año 1969. Empezó a "trabajar" con ordenadores a los 10 años, cuando su abuelo le compró un Comodore el año 1980. Éste buen señor era un matemático y estadista. Trabajava a la Universidad y fué quién "enganchó" al mundo de los computadores a nuestro buen amigo Linus.

Con el paso del tiempo, Linus pasó a tener un Sinclair QL, un gran ordenador de Clive Sinclair (creador del conocido Spectrum), que tenía algun pequeño error de diseño. Linus se sintió especialmente atraido por esta máquina, después de crear aplicaciones para ésta computadora y de haber retocado su hardware con la finalidad de adaptarlo a sus necesidades. El problema que tenía dicha máquina era que los recursos eran insuficientes para poderllevar a la práctica los planes de Linus. Además, no era un equipo compatible. Así pues, el mes de enero de 1991 compró su primer PC, un 386.

Retrocedamos otra vez en el tiempo, hasta 1988. Éste año fué cuando Linus entró a la Universidad. Este mismo año fué cuando un sistema operativo didáctico, basado en Unix y creado por Andy Tannenbaum, empezó a cobrar importáncia. Dicho sistema operativo era el famoso Minix.

Linus entró a formar parte de la comunidadde usuarios de Minix. Tannenbaum cometió un error en su sistema operativo. Era demasiado limitado, tanto técnicamente como políticamente, es decir, en ningún momento tuvo en cuenta la posibilidad de incluir Minix al proyecto GNU (creado el año 1983 por Richard Stallman). En realidad, la creación de Andy Tannenbaum estaba pensada para ser distribuida comercialmente. Su principal error fué ceder todos los derechos a Prentice Hall, que empezó a cobrar 150 dólares por licéncia (unas 22.500 ptas. / 135.23 euros).

Así pues, Linus tomó la decisión de cambiar esta políticadebido a que el sistema Minix era ideal para los estudiantes de sistemas operativos, y su precioera considerablemente alto. Llegamos de nuevo al año 1991, cuando Linus se acabó de comprar su primer 386. En aquellos momentos, la intención de nuestro amigo era clara: crear un nuevo Kernel de UNIX basado en el Kernel de Minix y modificarlo periódicamente de manera que fuera capaz de ejecutar aplicaciones GNU.

A pesar de todo, no toda la vida del Sr. Linus ha estado dedicada exclusivamente al sistema operativo Linux...

Actualmente Linus Torvalds vive desde el año 1997 en Santa Clara, California, junto con su esposa Tove y sus dos hijas, Patricia Miranda y Daniela. Le encanta jugar con sus dos pequeñas. Está trabajando para Transmeta, aunque nadie no sabe demasiado bién en qué trabaja. Parece ser que existe una cláusula en su contrato que le impide revelar dicha información. De todas formas, se sabe que Transmeta está desarrollando un nuevo procesador con un juego de instrucciones RISC capaz de ejecutar código x86.

Tal vez una de las aficiones más conocidas de Linus es que le le gusta la cerveza, más aún si es Guinness. Así lo demostraron los miembros del SVLUG (Silicon Valley Linux User Group) cuando Linus fué a visitarlos para llevar a cabo una conferéncia y le regalaron una caja de cerveza...

Poca cosa más de sabe de este personaje que ha cambiado la forma de ver los ordenadores durente estos últimos años y que ha conseguido dar un buen empujón al proyecto GNU.

Huevocartoon



Videos

viernes, 14 de noviembre de 2008

La Pasión del Futbol...............