Cuestionario sobre compresores
1). ¿Para que se utilizan Winzip y Wirar?
Para guardar un archivo
Para abrir un archivo
Para comprimir y descomprimir un archivo
2). ¿Cuál de estos son compresores?
Wirar
Microsoft Exel
Photoshop
3). ¿Qué es un Winrar?
Un procesador de texto
Un compresor y descompresor de texto
Un video
4) Nombrar 3 compresores de archivos.
Winrar, Winzip, Ares
Winzip, Winace, Nero
Winzip,
5). ¿Donde puedo utilizar winrar y winzip?
Extracción de archivos RAR y BZ2
En un video
En un juego
6). ¿Cuántos archivos puedo comprimir a la vez?
Tres
Todos los que quiera
Diez
7). ¿En que año se creo Winzip?
1967
1853
1990
8). ¿Cuándo tengo que comprimir un archivo para enviarlo por Internet?
Cuando es muy grande
Cuando es chico
Nunca
9). ¿Qué es Zip?
Un procesador de texto
Un formato de música
Un formato de almacenamiento
10). ¿Cual de estos archivos no es compatible con Winzip?
Windows
Linux
MAC
lunes, 22 de septiembre de 2008
viernes, 19 de septiembre de 2008
miércoles, 10 de septiembre de 2008
Compresores de archivo
WIRAR - WINZIP
1).¿Para que se utilizan los compresores de archivos?
WinRAR es un excelente y mundialmente reconocido programa que fue especialmente diseñado para atender a las necesidades de los usuarios con respecto a la compresión y descompresión de ficheros.Esta maravillosa aplicación se renueva a medida que surgen diversas problemáticas en cuanto a la realización de dicha actividad, la misma no se centra en un solo formato sino que es compatible.
2).Nombrar 2 compresres más.
quicksip - 7-sip
3).Detallar los pasos para comprimir y descomprimir archivos.
Las tareas de descomprimir y comprimir un archivo se han facilitado enormementeen estos ultimos tiempos.En KDEpor ejemplo, desde konquero, bastara con hacer click derecho sobre un archivio comprimido y seleccionar la opciones del menu que permite explorarlo como una carpeta mas o bien descomprimirlo. Asimismo, en konqueror se pueden seleccionar uno o mas archivos y luego0 comprimirlos en diferentes formatos: .gz, .bz2, o . zip (si es uno solo); .tar.bz2, .tar.gz, o .zip (si son varios).
4).Nombre 3 ejemplos donde puedo utilizar winzip o winrar.
• _Extracción de archivos RAR y BZ2 .
• _Compresión mejorada de archivos de audio WAV .
• _Vista de imágenes en miniatura .
1).¿Para que se utilizan los compresores de archivos?
WinRAR es un excelente y mundialmente reconocido programa que fue especialmente diseñado para atender a las necesidades de los usuarios con respecto a la compresión y descompresión de ficheros.Esta maravillosa aplicación se renueva a medida que surgen diversas problemáticas en cuanto a la realización de dicha actividad, la misma no se centra en un solo formato sino que es compatible.
2).Nombrar 2 compresres más.
quicksip - 7-sip
3).Detallar los pasos para comprimir y descomprimir archivos.
Las tareas de descomprimir y comprimir un archivo se han facilitado enormementeen estos ultimos tiempos.En KDEpor ejemplo, desde konquero, bastara con hacer click derecho sobre un archivio comprimido y seleccionar la opciones del menu que permite explorarlo como una carpeta mas o bien descomprimirlo. Asimismo, en konqueror se pueden seleccionar uno o mas archivos y luego0 comprimirlos en diferentes formatos: .gz, .bz2, o . zip (si es uno solo); .tar.bz2, .tar.gz, o .zip (si son varios).
4).Nombre 3 ejemplos donde puedo utilizar winzip o winrar.
• _Extracción de archivos RAR y BZ2 .
• _Compresión mejorada de archivos de audio WAV .
• _Vista de imágenes en miniatura .
miércoles, 11 de junio de 2008
Pautas para la realizacion del cuento
•La hoja debe ser tamaño A4.
•Margen inferior y superior, 2,5.
•Margen derecho 2 y margen Izquierdo 3.
•Titulo con bordes y sombreado.
•Fuente tamaño 14.
•Dentro del formato parrafo:
•Sagria de primera linea2,5.
•Parrafo anterior y posterior 6 puntos.
•Interlineado 1,5.
•Encabezado: libro de cuentos alineado a la derecha, fuente 10.
•pie de pagina fuente 10,alineacion centarada y numero de pagina-numero de paginas.
•Imagenes:
•Insertar dos imagenes con fortmato estrecho.
•Letra capital.Sin sangría y ocupa 4 lineas
•Margen inferior y superior, 2,5.
•Margen derecho 2 y margen Izquierdo 3.
•Titulo con bordes y sombreado.
•Fuente tamaño 14.
•Dentro del formato parrafo:
•Sagria de primera linea2,5.
•Parrafo anterior y posterior 6 puntos.
•Interlineado 1,5.
•Encabezado: libro de cuentos alineado a la derecha, fuente 10.
•pie de pagina fuente 10,alineacion centarada y numero de pagina-numero de paginas.
•Imagenes:
•Insertar dos imagenes con fortmato estrecho.
•Letra capital.Sin sangría y ocupa 4 lineas
lunes, 19 de mayo de 2008
Preguntas de la prueba
1.¿Por quién fue creada ARPANET?
1.La red de computadoras ARPANET (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país.
2. ¿Quién inventò el correo electrónico? ¿qué cambios provoco?
2.En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET.
3. - ¿Qué se describía en los resultados publicados de 1960?
3•El uso de una red descentralizada con múltiples caminos entre dos puntos.
•La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.
4. ¿ Que fue muy importante para las comunidades y disciplinas?
4.La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.
5. ¿Cuáles fueron las 4 reglas fundamentales de Kant?
5.-1. Cada red distinta debería mantenerse por sí misma y no deberían requerirse cambios internos a ninguna de ellas para conectarse a Internet.
5.-2. Las comunicaciones deberían ser establecidas en base a la filosofía del "best-effort" (lo mejor posible). Si un paquete no llegara a su destino debería ser en breve retransmitido desde el emisor.
5.-3. Para interconectar redes se usarían cajas negras, las cuales más tarde serían denominadas gateways (pasarelas) y routers (enrutadores). Los gateways no deberían almacenar información alguna sobre los flujos individuales de paquetes que circulasen a través de ellos, manteniendo de esta manera su simplicidad y evitando la complicada adaptación y recuperación a partir de las diversas modalidades de fallo.
5.-4. No habría ningún control global a nivel de operaciones
6.¿Cuál fue el concepto de Roberts?
El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos.
7. ¿Cuándo se estableció el primer enlace de arpanet?
El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.
8. ¿Cómo funcionaban los primeros ordenadores?
Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un MODEM telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo).
9. ¿Cuáles fueron las ideas claves de los resultados de Paul Brand en 1960?
Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave:
• El uso de una red descentralizada con múltiples caminos entre dos puntos.
• La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.
10.¿Qué llevaba acarrada la comercialización de Internet?
La comercialización de Internet llevaba acarreada no sólo el desarrollo de servicios de red privados y competitivos sino también el de productos comerciales que implementen la tecnología Internet.
11.¿Qué es Internet?
11.Internet es tanto un conjunto de comunidades como un conjunto de tecnologías y su éxito se puede atribuir tanto a la satisfacción de las necesidades básicas de la comunidad como a la utilización de esta comunidad de un modo efectivo para impulsar la infraestructura
12. ¿Qué invento Ray Tomlinson?
12.En 1972, Ray Tomlinson de la BBN inventó el correo electrónico.
13. ¿Qué eran los IMPs?
13.Los IMPs (Procesadores del interfaz de mensajes) eran pequeños ordenadores. Éstos implementaban la técnica de almacenar y reenviar y utilizaban un modem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo).
14.¿Cuáles son los cuatro aspectos distintos en que gira la historia de Internet?
14.Evolución tecnológica desde la primitiva investigación en conmutación de paquetes, ARPANET hasta tecnologías de la cuales la investigación actual continúa tratando de expandir los horizontes de la infraestructura en dimensiones tales como escala, rendimiento y funcionalidades de alto nivel.
Aspectos de operación y gestión de una infraestructura operacional global y compleja.
Aspectos sociales, que tuvieron como consecuencia el nacimiento de una amplia comunidad de internautas trabajando juntos para crear y hacer evolucionar la tecnología.
Aspecto de comercialización que desemboca en una transición enormemente efectiva desde los resultados de la investigación hacia una infraestructura informática ampliamente desarrollada y disponible.
16.¿Se puede decir que Internet ha acabado su proceso de cambio?
16. No. Ahora está cambiando para proveer nuevos servicios como el transporte en tiempo real con vistas a soportar, por ejemplo, audio y vídeo. La disponibilidad de redes penetrantes y omnipresentes, como Internet, junto con la disponibilidad de potencia de cálculo y comunicaciones asequibles en máquinas como los ordenadores portátiles, los PDA y los teléfonos celulares, está posibilitando un nuevo paradigma de informática y comunicaciones "nómadas".
Esta evolución nos traerá una nueva aplicación: telefonía Internet y, puede que poco después, televisión por Internet. Está cambiando para acomodar una nueva generación de tecnologías de red con distintas características y requisitos: desde ancho de banda doméstico a satélites. Y nuevos modos de acceso y nuevas formas de servicio que darán lugar a nuevas aplicaciones, que, a su vez, harán evolucionar a la propia red.
17. ¿Qué crecimiento empresarial hubo y que trajo como consecuencia?
El crecimiento en el mundo empresarial trajo como consecuencia un incremento de la preocupación por el propio proceso de estándares. Desde primeros de los años 80 hasta hoy, Internet creció y está creciendo más allá de sus raíces originales de investigación para incluir a una amplia comunidad de usuarios y una actividad comercial creciente. Se puso un mayor énfasis en hacer el proceso abierto y justo. Esto, junto a una necesidad reconocida de dar soporte a la comunidad de Internet, condujo a la formación de la Internet Society en 1991, bajo los auspicios de la CNRI (Corporation for National Research Initiatives, Corporación para las Iniciativas de Investigación Nacionales) de Kahn y el liderazgo de Cerf, junto al de la CNRI.
18.¿Qué cambios están viviendo debido a la tecnología y su evolución?
18.Esta evolución nos traerá una nueva aplicación: telefonía Internet y, puede que poco después, televisión por Internet. Está permitiendo formas más sofisticadas de valoración y recuperación de costes, un requisito fundamental en la aplicación comercial. Está cambiando para acomodar una nueva generación de tecnologías de red con distintas características y requisitos: desde ancho de banda doméstico a satélites. Y nuevos modos de acceso y nuevas formas de servicio que darán lugar a nuevas aplicaciones, que, a su vez, harán evolucionar a la propia red.
19. ¿Que desarrollo permitió que la naciente Internet floreciera?
19.Respuesta: El desarrollo de LAN, PC y Estaciones de trabajo.
20. a. ¿ En que año fue diseñado el Bitnet? b.¿Por quien fue diseñado? c. ¿Y para que sirve?
20. (A y b). Fue diseñado en el año 1981por Greydon Freeman e Ira Fuchs.
Respuesta: (C). Sirve para unir las ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como postales.
21.¿Qué es Ergonomia?
21.La Ergonomía es una ciencia que estudia las características, necesidades, capacidades y habilidades de los seres humanos, analizando aquellos aspectos que afectan al entorno artificial construido por el hombre relacionado directamente con los actos y gestos involucrados en toda actividad de éste.
En todas las aplicaciones su objetivo es común: se trata de adaptar los productos, las tareas, las herramientas, los espacios y el entorno en general a la capacidad y necesidades de las personas, de manera que mejore la eficiencia, seguridad y bienestar de los consumidores, usuarios o trabajadores (Tortosa et al, 1999).
22.¿Qué aspectos definen a una organización como un buen lugar para trabajar?
22.Es aquel donde uno confía en la gente con la que trabaja, se siente orgulloso de lo que hace y disfruta con sus compañeros de trabajo. Esta definición surge de entrevistas que hice en docenas de lugares de trabajo en todo el mundo. Descubrí que los empleados invariablemente tenían un alto nivel de confianza en la gerencia de la firma, decían sentirse orgullosos de sus trabajos y de la empresa, y compartían una sensación de camaradería.
—Ud. señala que la confianza implica credibilidad, respeto y trato justo.
—Para consolidar su credibilidad, la gerencia debe ser transparente en la información, de manera que los empleados puedan preguntar y determinar si se les está diciendo la verdad o no. En la mayoría de los mejores lugares de trabajo, los altos ejecutivos realizan sesiones de preguntas y respuestas con sus empleados, o las propician a través del correo electrónico o la intranet.
El respeto supone mostrar aprecio a los empleados por hacer bien su trabajo. También, hacer todo lo posible para proporcionarles herramientas y oportunidades de entrenamiento para crecer. Es importante que los empleados sientan que la gerencia escucha genuinamente sus ideas y sugerencias y que se los tiene en cuenta, en la medida de lo posible, al tomar decisiones respecto de sus trabajos. Por último está la cuestión de la justicia, que es incluso más importante que el salario. Implica la necesidad de que la gente sienta que es tratada con justicia a la hora de ser elegidos para ascensos o realizar tareas que implican desafíos.
23.¿Qué podrían hacer las empresas para convertirse en buenos lugares de trabajo?
23.En todos los casos que estudié, esta transformación comenzó con una gerencia que mejoró su comunicación con los empleados, para aumentar su credibilidad. En segundo lugar, las empresas deben asegurarse de que los empleados se sientan apreciados. Siempre me sorprende ser testigo de la importancia de decir "gracias".
24.¿Cualquier empresa puede lograrlo en el corto plazo?
24.Con certeza es posible hacer esos cambios en un período que no excede los tres años. Uno de los mejores ejemplos es Continental Airlines, que no sólo era un espantoso lugar de trabajo, sino que además estaba al borde de la quiebra cuando un nuevo equipo de administración se hizo cargo, en 1994. En tres años, la empresa logró recuperarse financieramente. Y también se convirtió en uno de los mejores lugares de trabajo y figuró en la lista de Fortune entre las "Cien mejores empresas donde trabajar". Lo logró concentrándose en las comunicaciones internas y en el reconocimiento hacia los empleados.
25¿Qué relación hay entre un buen ambiente de trabajo y la rentabilidad empresaria?
25. Muchos estudios demostraron una alta correlación entre las prácticas para mejorar el lugar de trabajo y el éxito financiero. Por ejemplo, una firma de servicio de inversiones de Wall Street recientemente realizó un estudio en el que se comparaban los resultados financieros de una cartera de acciones de empresas que habían figurado en la lista de las "Cien mejores empresas donde trabajar" de Fortune, con otra del Standard & Poor 500. Los resultados fueron notables. El rendimiento del dinero invertido en la cartera de las "Cien mejores..." fue superior por casi cinco a uno. Estudios en Gran Bretaña y Brasil han dado resultados similares. Cuando los empleados se sienten bien tratados ofrecen mejores servicios a los clientes, lo que significa más ganancias.
26.¿Qué pueden hacer las empresas latinoamericanas para mejorar sus ambientes?
26.Nuestro Instituto determinó que las empresas latinoamericanas son extremadamente receptivas. El año pasado, más de 30.000 empleados de la región participaron de la encuesta. Vimos que, en general, los resultados de América Latina eran comparables a los de América del Norte y Europa, lo que demuestra que las mejores empresas latinoamericanas son realmente de clase internacional, a pesar de la amplia incidencia del desempleo y la pobreza en la región. Tal vez a causa de las dificultades económicas, también hallamos que muchas empresas latinoamericanas se preocupan por su responsabilidad social en tanto corporaciones
1.La red de computadoras ARPANET (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país.
2. ¿Quién inventò el correo electrónico? ¿qué cambios provoco?
2.En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET.
3. - ¿Qué se describía en los resultados publicados de 1960?
3•El uso de una red descentralizada con múltiples caminos entre dos puntos.
•La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.
4. ¿ Que fue muy importante para las comunidades y disciplinas?
4.La utilidad de las redes de ordenadores (especialmente el correo electrónico utilizado por los contratistas de DARPA y el Departamento de Defensa en ARPANET) siguió siendo evidente para otras comunidades y disciplinas de forma que a mediados de los años 70 las redes de ordenadores comenzaron a difundirse allá donde se podía encontrar financiación para las mismas.
5. ¿Cuáles fueron las 4 reglas fundamentales de Kant?
5.-1. Cada red distinta debería mantenerse por sí misma y no deberían requerirse cambios internos a ninguna de ellas para conectarse a Internet.
5.-2. Las comunicaciones deberían ser establecidas en base a la filosofía del "best-effort" (lo mejor posible). Si un paquete no llegara a su destino debería ser en breve retransmitido desde el emisor.
5.-3. Para interconectar redes se usarían cajas negras, las cuales más tarde serían denominadas gateways (pasarelas) y routers (enrutadores). Los gateways no deberían almacenar información alguna sobre los flujos individuales de paquetes que circulasen a través de ellos, manteniendo de esta manera su simplicidad y evitando la complicada adaptación y recuperación a partir de las diversas modalidades de fallo.
5.-4. No habría ningún control global a nivel de operaciones
6.¿Cuál fue el concepto de Roberts?
El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos.
7. ¿Cuándo se estableció el primer enlace de arpanet?
El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.
8. ¿Cómo funcionaban los primeros ordenadores?
Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un MODEM telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo).
9. ¿Cuáles fueron las ideas claves de los resultados de Paul Brand en 1960?
Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave:
• El uso de una red descentralizada con múltiples caminos entre dos puntos.
• La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.
10.¿Qué llevaba acarrada la comercialización de Internet?
La comercialización de Internet llevaba acarreada no sólo el desarrollo de servicios de red privados y competitivos sino también el de productos comerciales que implementen la tecnología Internet.
11.¿Qué es Internet?
11.Internet es tanto un conjunto de comunidades como un conjunto de tecnologías y su éxito se puede atribuir tanto a la satisfacción de las necesidades básicas de la comunidad como a la utilización de esta comunidad de un modo efectivo para impulsar la infraestructura
12. ¿Qué invento Ray Tomlinson?
12.En 1972, Ray Tomlinson de la BBN inventó el correo electrónico.
13. ¿Qué eran los IMPs?
13.Los IMPs (Procesadores del interfaz de mensajes) eran pequeños ordenadores. Éstos implementaban la técnica de almacenar y reenviar y utilizaban un modem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo).
14.¿Cuáles son los cuatro aspectos distintos en que gira la historia de Internet?
14.Evolución tecnológica desde la primitiva investigación en conmutación de paquetes, ARPANET hasta tecnologías de la cuales la investigación actual continúa tratando de expandir los horizontes de la infraestructura en dimensiones tales como escala, rendimiento y funcionalidades de alto nivel.
Aspectos de operación y gestión de una infraestructura operacional global y compleja.
Aspectos sociales, que tuvieron como consecuencia el nacimiento de una amplia comunidad de internautas trabajando juntos para crear y hacer evolucionar la tecnología.
Aspecto de comercialización que desemboca en una transición enormemente efectiva desde los resultados de la investigación hacia una infraestructura informática ampliamente desarrollada y disponible.
16.¿Se puede decir que Internet ha acabado su proceso de cambio?
16. No. Ahora está cambiando para proveer nuevos servicios como el transporte en tiempo real con vistas a soportar, por ejemplo, audio y vídeo. La disponibilidad de redes penetrantes y omnipresentes, como Internet, junto con la disponibilidad de potencia de cálculo y comunicaciones asequibles en máquinas como los ordenadores portátiles, los PDA y los teléfonos celulares, está posibilitando un nuevo paradigma de informática y comunicaciones "nómadas".
Esta evolución nos traerá una nueva aplicación: telefonía Internet y, puede que poco después, televisión por Internet. Está cambiando para acomodar una nueva generación de tecnologías de red con distintas características y requisitos: desde ancho de banda doméstico a satélites. Y nuevos modos de acceso y nuevas formas de servicio que darán lugar a nuevas aplicaciones, que, a su vez, harán evolucionar a la propia red.
17. ¿Qué crecimiento empresarial hubo y que trajo como consecuencia?
El crecimiento en el mundo empresarial trajo como consecuencia un incremento de la preocupación por el propio proceso de estándares. Desde primeros de los años 80 hasta hoy, Internet creció y está creciendo más allá de sus raíces originales de investigación para incluir a una amplia comunidad de usuarios y una actividad comercial creciente. Se puso un mayor énfasis en hacer el proceso abierto y justo. Esto, junto a una necesidad reconocida de dar soporte a la comunidad de Internet, condujo a la formación de la Internet Society en 1991, bajo los auspicios de la CNRI (Corporation for National Research Initiatives, Corporación para las Iniciativas de Investigación Nacionales) de Kahn y el liderazgo de Cerf, junto al de la CNRI.
18.¿Qué cambios están viviendo debido a la tecnología y su evolución?
18.Esta evolución nos traerá una nueva aplicación: telefonía Internet y, puede que poco después, televisión por Internet. Está permitiendo formas más sofisticadas de valoración y recuperación de costes, un requisito fundamental en la aplicación comercial. Está cambiando para acomodar una nueva generación de tecnologías de red con distintas características y requisitos: desde ancho de banda doméstico a satélites. Y nuevos modos de acceso y nuevas formas de servicio que darán lugar a nuevas aplicaciones, que, a su vez, harán evolucionar a la propia red.
19. ¿Que desarrollo permitió que la naciente Internet floreciera?
19.Respuesta: El desarrollo de LAN, PC y Estaciones de trabajo.
20. a. ¿ En que año fue diseñado el Bitnet? b.¿Por quien fue diseñado? c. ¿Y para que sirve?
20. (A y b). Fue diseñado en el año 1981por Greydon Freeman e Ira Fuchs.
Respuesta: (C). Sirve para unir las ordenadores centrales del mundo académico siguiendo el paradigma de correo electrónico como postales.
21.¿Qué es Ergonomia?
21.La Ergonomía es una ciencia que estudia las características, necesidades, capacidades y habilidades de los seres humanos, analizando aquellos aspectos que afectan al entorno artificial construido por el hombre relacionado directamente con los actos y gestos involucrados en toda actividad de éste.
En todas las aplicaciones su objetivo es común: se trata de adaptar los productos, las tareas, las herramientas, los espacios y el entorno en general a la capacidad y necesidades de las personas, de manera que mejore la eficiencia, seguridad y bienestar de los consumidores, usuarios o trabajadores (Tortosa et al, 1999).
22.¿Qué aspectos definen a una organización como un buen lugar para trabajar?
22.Es aquel donde uno confía en la gente con la que trabaja, se siente orgulloso de lo que hace y disfruta con sus compañeros de trabajo. Esta definición surge de entrevistas que hice en docenas de lugares de trabajo en todo el mundo. Descubrí que los empleados invariablemente tenían un alto nivel de confianza en la gerencia de la firma, decían sentirse orgullosos de sus trabajos y de la empresa, y compartían una sensación de camaradería.
—Ud. señala que la confianza implica credibilidad, respeto y trato justo.
—Para consolidar su credibilidad, la gerencia debe ser transparente en la información, de manera que los empleados puedan preguntar y determinar si se les está diciendo la verdad o no. En la mayoría de los mejores lugares de trabajo, los altos ejecutivos realizan sesiones de preguntas y respuestas con sus empleados, o las propician a través del correo electrónico o la intranet.
El respeto supone mostrar aprecio a los empleados por hacer bien su trabajo. También, hacer todo lo posible para proporcionarles herramientas y oportunidades de entrenamiento para crecer. Es importante que los empleados sientan que la gerencia escucha genuinamente sus ideas y sugerencias y que se los tiene en cuenta, en la medida de lo posible, al tomar decisiones respecto de sus trabajos. Por último está la cuestión de la justicia, que es incluso más importante que el salario. Implica la necesidad de que la gente sienta que es tratada con justicia a la hora de ser elegidos para ascensos o realizar tareas que implican desafíos.
23.¿Qué podrían hacer las empresas para convertirse en buenos lugares de trabajo?
23.En todos los casos que estudié, esta transformación comenzó con una gerencia que mejoró su comunicación con los empleados, para aumentar su credibilidad. En segundo lugar, las empresas deben asegurarse de que los empleados se sientan apreciados. Siempre me sorprende ser testigo de la importancia de decir "gracias".
24.¿Cualquier empresa puede lograrlo en el corto plazo?
24.Con certeza es posible hacer esos cambios en un período que no excede los tres años. Uno de los mejores ejemplos es Continental Airlines, que no sólo era un espantoso lugar de trabajo, sino que además estaba al borde de la quiebra cuando un nuevo equipo de administración se hizo cargo, en 1994. En tres años, la empresa logró recuperarse financieramente. Y también se convirtió en uno de los mejores lugares de trabajo y figuró en la lista de Fortune entre las "Cien mejores empresas donde trabajar". Lo logró concentrándose en las comunicaciones internas y en el reconocimiento hacia los empleados.
25¿Qué relación hay entre un buen ambiente de trabajo y la rentabilidad empresaria?
25. Muchos estudios demostraron una alta correlación entre las prácticas para mejorar el lugar de trabajo y el éxito financiero. Por ejemplo, una firma de servicio de inversiones de Wall Street recientemente realizó un estudio en el que se comparaban los resultados financieros de una cartera de acciones de empresas que habían figurado en la lista de las "Cien mejores empresas donde trabajar" de Fortune, con otra del Standard & Poor 500. Los resultados fueron notables. El rendimiento del dinero invertido en la cartera de las "Cien mejores..." fue superior por casi cinco a uno. Estudios en Gran Bretaña y Brasil han dado resultados similares. Cuando los empleados se sienten bien tratados ofrecen mejores servicios a los clientes, lo que significa más ganancias.
26.¿Qué pueden hacer las empresas latinoamericanas para mejorar sus ambientes?
26.Nuestro Instituto determinó que las empresas latinoamericanas son extremadamente receptivas. El año pasado, más de 30.000 empleados de la región participaron de la encuesta. Vimos que, en general, los resultados de América Latina eran comparables a los de América del Norte y Europa, lo que demuestra que las mejores empresas latinoamericanas son realmente de clase internacional, a pesar de la amplia incidencia del desempleo y la pobreza en la región. Tal vez a causa de las dificultades económicas, también hallamos que muchas empresas latinoamericanas se preocupan por su responsabilidad social en tanto corporaciones
lunes, 14 de abril de 2008
Generaciones de la computadora
En este artículo estudiaremos como se han ido sucediendo la generaciones de computadoras. Partiendo de 1946 hasta nuestros días.
La Primera Generación
J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de 17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes.
ENIAC
En 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización. Estas sugerencias sirvieron de base filosófica para los proyectos de ordenadores. (Actualmente se investigan ordenadores "no Von Neumann", que funcionan con fuzzy logic, lógica confusa) A partir de esas ideas, y de la lógica matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX, es que Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic Discrete Variable Automatic Computer, completado en 1952, que fue la primera máquina comercial electrónica de procesamiento de datos del mundo. Ellos habían intentado eso con El BINAC, ordenador automático binario, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) lo suficiente para ser llevado a bordo de un avión, pero que nunca funcionó. El EDVAC utilizaba memorias basadas en líneas de retardo de mercurio, muy caras y más lentas que los CRTs, pero con mayor capacidad de almacenamiento. Wilkes construyó el EDSAC, Electronic Delay Storage Automatic Calculator en 1949, que funcionaba según la técnica de programas almacenados.
El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca de 6.000 llaves y conectando cables a un panel. La entrada y salida de informacion era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que, solo, consumía 14.000 W. Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine, el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer.
Entre 1945 y 1951, el WHIRLWIND, del MIT, fue el primer ordenador que procesaba informacion en tiempo real, con entrada de datos a partir de cintas perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir (Whirlwind quiere decir remolino).En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye una memoria magnética. Los ordenadores a transistores surgen en los años 50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que sus antecesores valvulados.
La Segunda Generación
Ejemplos de esta época son el IBM 1401 y el BURROUGHS B 200. En 1954 IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseia dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lapiz óptico.
BURROUGH
En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado. Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera generación en menos tiempo aún.
La Tercera Generación
Esta generación es de la década del 60, con la introducción de los circuitos integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía almacenar veinte números de diez dígitos, estos podían almacenar millones de números. Surgen conceptos como memoria virtual, multiprogramación y sistemas operacionales complejos. Ejemplos de esta época son el IBM 360 y el BURROUGHS B-3500.
IBM 360
En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformo en la primera compañía de software con acciones negociadas en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la americana DEC, Digital Equipament Corporation. Dependiendo de su configuración y accesorios él podía ser adquirido por el accesible precio de US$ 18,000.00. Le siguió el PDP-8, de precio más competitivo. Siguiendo su camino otras compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca de 100.000 ordenadores esparcidos por el mundo. En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de integración a muy larga escala. Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5. En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a Radio Shack el TRS-80 y la Commodore el PET. La plantilla Visicalc (calculador visible) de 1978/9, primer programa comercial, de Software Arts. En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor, que alcanzó la lista de los más vendidos en 1982.
El Sinclair ZX81/ZX Spectrum es un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambrige en U.K.Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambrige. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA. La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc. necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible hasta 16K. En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de sonido, un codificador de imágenes para TV. En la parte trasera de la caja de plástico tenía un conector donde se podía conectar una impresora minúscula que usaba un rollo de papel especial. El ordenador era suministrado con un cable para la conexión al televisor y otro para la conexión con un grabador de "cassettes" musical (norma Philips). El transformador de corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran grabados en un cassette magnético y eran también leídos desde uno.El teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana. Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a su bajo precio de venta.Osborne1.
Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro numérico. Disponía de conectores para un monitor externo, ports serie RS-232C y paralelo IEEE-488 o Centronics.El sistema era alimentado por una batería propia recargable con una autonomía de 5 horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna a continua.El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software suministrado incluía un Interpretador M BASIC desarrollado por MICROSOFT, un Compilador BASIC desarrollado por la Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y un procesador de texto denominado WORDSTAR. Podía ser programado en BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER y CROSS-ASSEMBLER.Última morada conocida: desconocida (fue visto en la FILEME-82 en Lisboa).
IBM PC/XT
Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT.El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ.Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores. La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseia una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones assincronas. El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje de programación que utilizada era el BASIC.. Sólo cerca de dos años después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en las empresas donde tenía instalado mainframes y "pequeños ordenadores".
PC XT
La Cuarta Generación (1981-1990)
Surgieron en el transcurso del uso de la técnica de los circuitos LSI (LARGE SCALE INTEGRATION) y VLSI (VERY LARGE SCALE INTEGRATION). En ese periodo surgió también el procesamiento distribuido, el disco ótico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc.
1982- Surge el 286
Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.
1985- El 386Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr softwares graficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración.
386
1989- El 486 DX
A partir de este momento el coprocessador matemático junto con el propio procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria de 72 pines, mucho más rapida que su antepasada de 30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas ISA . Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows 95.
La Quinta Generación (1991-hasta hoy)
Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades. Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI está siendo sustituida por la ULSI (ULTRA LARGE SCALE INTEGRATION).El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones simultáneamente por las máquinas. La reducción de los costos de producción y del volumen de los componentes permitió la aplicación de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL.
1993- Surge el Pentium
Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando aún más su performance.
1997- El Pentium II1999-
El Pentium III2001
- el Pentium 4o hay grandes novedades después de 1997, ya que los cambios estuvieron basados en los cada vez más veloces procesadores.
El Futuro - Aquí viene el ordenador cuánticoIBM anunció la construcción del más avanzado ordenador cuántico del mundo.
La novedad representa un gran paso en relación al actual proceso de fabricación de chips con silicio que, de acuerdo con especialistas, debe alcanzar el máximo de su limitación física de procesamiento entre 10 y 20 años.El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales. Otra característica es que los átomos también pueden sobreponerse, lo que permite al equipamiento procesar ecuaciones mucho más rápido.
En este artículo estudiaremos como se han ido sucediendo la generaciones de computadoras. Partiendo de 1946 hasta nuestros días.
La Primera Generación
J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de 17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes.
ENIAC
En 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización. Estas sugerencias sirvieron de base filosófica para los proyectos de ordenadores. (Actualmente se investigan ordenadores "no Von Neumann", que funcionan con fuzzy logic, lógica confusa) A partir de esas ideas, y de la lógica matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX, es que Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic Discrete Variable Automatic Computer, completado en 1952, que fue la primera máquina comercial electrónica de procesamiento de datos del mundo. Ellos habían intentado eso con El BINAC, ordenador automático binario, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) lo suficiente para ser llevado a bordo de un avión, pero que nunca funcionó. El EDVAC utilizaba memorias basadas en líneas de retardo de mercurio, muy caras y más lentas que los CRTs, pero con mayor capacidad de almacenamiento. Wilkes construyó el EDSAC, Electronic Delay Storage Automatic Calculator en 1949, que funcionaba según la técnica de programas almacenados.
El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca de 6.000 llaves y conectando cables a un panel. La entrada y salida de informacion era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que, solo, consumía 14.000 W. Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine, el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer.
Entre 1945 y 1951, el WHIRLWIND, del MIT, fue el primer ordenador que procesaba informacion en tiempo real, con entrada de datos a partir de cintas perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir (Whirlwind quiere decir remolino).En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye una memoria magnética. Los ordenadores a transistores surgen en los años 50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que sus antecesores valvulados.
La Segunda Generación
Ejemplos de esta época son el IBM 1401 y el BURROUGHS B 200. En 1954 IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseia dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lapiz óptico.
BURROUGH
En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado. Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera generación en menos tiempo aún.
La Tercera Generación
Esta generación es de la década del 60, con la introducción de los circuitos integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía almacenar veinte números de diez dígitos, estos podían almacenar millones de números. Surgen conceptos como memoria virtual, multiprogramación y sistemas operacionales complejos. Ejemplos de esta época son el IBM 360 y el BURROUGHS B-3500.
IBM 360
En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformo en la primera compañía de software con acciones negociadas en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la americana DEC, Digital Equipament Corporation. Dependiendo de su configuración y accesorios él podía ser adquirido por el accesible precio de US$ 18,000.00. Le siguió el PDP-8, de precio más competitivo. Siguiendo su camino otras compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca de 100.000 ordenadores esparcidos por el mundo. En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de integración a muy larga escala. Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5. En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a Radio Shack el TRS-80 y la Commodore el PET. La plantilla Visicalc (calculador visible) de 1978/9, primer programa comercial, de Software Arts. En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor, que alcanzó la lista de los más vendidos en 1982.
El Sinclair ZX81/ZX Spectrum es un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambrige en U.K.Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambrige. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA. La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc. necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible hasta 16K. En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de sonido, un codificador de imágenes para TV. En la parte trasera de la caja de plástico tenía un conector donde se podía conectar una impresora minúscula que usaba un rollo de papel especial. El ordenador era suministrado con un cable para la conexión al televisor y otro para la conexión con un grabador de "cassettes" musical (norma Philips). El transformador de corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran grabados en un cassette magnético y eran también leídos desde uno.El teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana. Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a su bajo precio de venta.Osborne1.
Fabricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro numérico. Disponía de conectores para un monitor externo, ports serie RS-232C y paralelo IEEE-488 o Centronics.El sistema era alimentado por una batería propia recargable con una autonomía de 5 horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna a continua.El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software suministrado incluía un Interpretador M BASIC desarrollado por MICROSOFT, un Compilador BASIC desarrollado por la Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y un procesador de texto denominado WORDSTAR. Podía ser programado en BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER y CROSS-ASSEMBLER.Última morada conocida: desconocida (fue visto en la FILEME-82 en Lisboa).
IBM PC/XT
Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT.El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ.Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores. La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseia una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones assincronas. El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje de programación que utilizada era el BASIC.. Sólo cerca de dos años después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en las empresas donde tenía instalado mainframes y "pequeños ordenadores".
PC XT
La Cuarta Generación (1981-1990)
Surgieron en el transcurso del uso de la técnica de los circuitos LSI (LARGE SCALE INTEGRATION) y VLSI (VERY LARGE SCALE INTEGRATION). En ese periodo surgió también el procesamiento distribuido, el disco ótico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc.
1982- Surge el 286
Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris.
1985- El 386Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr softwares graficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración.
386
1989- El 486 DX
A partir de este momento el coprocessador matemático junto con el propio procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria de 72 pines, mucho más rapida que su antepasada de 30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas ISA . Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows 95.
La Quinta Generación (1991-hasta hoy)
Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades. Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI está siendo sustituida por la ULSI (ULTRA LARGE SCALE INTEGRATION).El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones simultáneamente por las máquinas. La reducción de los costos de producción y del volumen de los componentes permitió la aplicación de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL.
1993- Surge el Pentium
Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando aún más su performance.
1997- El Pentium II1999-
El Pentium III2001
- el Pentium 4o hay grandes novedades después de 1997, ya que los cambios estuvieron basados en los cada vez más veloces procesadores.
El Futuro - Aquí viene el ordenador cuánticoIBM anunció la construcción del más avanzado ordenador cuántico del mundo.
La novedad representa un gran paso en relación al actual proceso de fabricación de chips con silicio que, de acuerdo con especialistas, debe alcanzar el máximo de su limitación física de procesamiento entre 10 y 20 años.El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales. Otra característica es que los átomos también pueden sobreponerse, lo que permite al equipamiento procesar ecuaciones mucho más rápido.
miércoles, 26 de marzo de 2008
Unidades de almacenamiento
Bueno... 1 GB son exactamente 1024 mb.
Asi también:
1 Byte = 8 Bits
1 Kilobyte = 1024 Bytes
1 MegaByte = 1024 kilobytes
1 Gigabyte = 1024 MegaBytes
1 TeraByte = 1024 GibaBytes.
Si nos ponemos a pensar, un GibaByte deberían ser 1000 MB... y un MB deberian ser 1000 KB... y sobre todo, un KB deberia ser equivalente a 1000 Bytes.
Asi también:
1 Byte = 8 Bits
1 Kilobyte = 1024 Bytes
1 MegaByte = 1024 kilobytes
1 Gigabyte = 1024 MegaBytes
1 TeraByte = 1024 GibaBytes.
Si nos ponemos a pensar, un GibaByte deberían ser 1000 MB... y un MB deberian ser 1000 KB... y sobre todo, un KB deberia ser equivalente a 1000 Bytes.
miércoles, 19 de marzo de 2008
Perifericos
Perifericos:
Se denominan periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.
Se entenderá por periférico a todo conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación: el bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder, el bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y el bus de datos, por donde circulan los datos.
A pesar de que el término periférico implica a menudo el concepto de “adicional pero no esencial”, muchos de ellos son elementos fundamentales para un sistema informático. El teclado y el monitor, imprescindibles en cualquier computadora personal de hoy en día (no lo fueron en los primeros computadores), son posiblemente los periféricos más comunes, y es posible que mucha gente no los considere como tal debido a que generalmente se toman como parte necesaria de una computadora. El mouse es posiblemente el ejemplo más claro de este aspecto. Hace menos de 20 años no todos las computadora personales incluían este dispositivo. El sistema operativo MS-DOS, el más común en esa época, tenía una interfaz de línea de comandos para la que no era necesaria el empleo de un mouse, todo se hacía mediante comandos de texto. Fue con la popularización de Finder, sistema operativo de la Macintosh de Apple y la posterior aparición de Windows cuando el mouse comenzó a ser un elemento imprescindible en cualquier hogar dotado de una computadora personal. Actualmente existen sistemas operativos con interfaz de texto que tampoco hacen uso del mouse como, por ejemplo, algunos sistemas básicos de UNIX y Linux.
Se entenderá por periférico a todo conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación: el bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder, el bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y el bus de datos, por donde circulan los datos.
A pesar de que el término periférico implica a menudo el concepto de “adicional pero no esencial”, muchos de ellos son elementos fundamentales para un sistema informático. El teclado y el monitor, imprescindibles en cualquier computadora personal de hoy en día (no lo fueron en los primeros computadores), son posiblemente los periféricos más comunes, y es posible que mucha gente no los considere como tal debido a que generalmente se toman como parte necesaria de una computadora. El mouse es posiblemente el ejemplo más claro de este aspecto. Hace menos de 20 años no todos las computadora personales incluían este dispositivo. El sistema operativo MS-DOS, el más común en esa época, tenía una interfaz de línea de comandos para la que no era necesaria el empleo de un mouse, todo se hacía mediante comandos de texto. Fue con la popularización de Finder, sistema operativo de la Macintosh de Apple y la posterior aparición de Windows cuando el mouse comenzó a ser un elemento imprescindible en cualquier hogar dotado de una computadora personal. Actualmente existen sistemas operativos con interfaz de texto que tampoco hacen uso del mouse como, por ejemplo, algunos sistemas básicos de UNIX y Linux.
Perifericos de entrada:
Son los que introducen datos externos a la computadora para su posterior tratamiento por parte de la CPU. Estos datos pueden provenir de distintas fuentes, siendo la principal un ser humano. Los periféricos de entrada más habituales son:
Teclado
Mouse
Cámara web
Escáner
Micrófono
Conversor Analógico digital
Escáner de código de barras
Joystick
Tableta digitalizadora
Pantalla táctil
Perifericos de salida:
Son los que reciben información que es procesada por el CPU y la reproducen para que sea perceptible para el usuario. Ej.: Monitor.
Monitor
Impresoras
Altavoces
Auriculares
Fax
Pantalla táctil
Monitor
Impresoras
Altavoces
Auriculares
Fax
Pantalla táctil
Periféricos de almacenamiento:
Interior de un Disco Duro.
Se encargan de guardar o salvar los datos de los que hace uso la CPU para que ésta pueda hacer uso de ellos una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son:
Disco duro
Grabadora y/o lector de CD
Grabadora y/o lector de DVD
Grabadora y/o lector de Blu-ray
Grabadora y/o lector de HD DVD
Memoria Flash
Cintas magnéticas
Tarjetas perforadas
Memoria portátil
Disquete
Periféricos de comunicación:
Tarjeta de Red Genérica.
Su función es permitir o facilitar la interacción entre dos o más computadoras, o entre una computadora y otro periférico externo a la computadora. Entre ellos se encuentran los siguientes:
Fax-Módem
Tarjeta de red
Tarjeta Wireless
Tarjeta Bluetooth
Controladores de puertos (serie, paralelo, infrarrojo, etc.)
Hub USB
Tarjeta Wed
Ejemplos de perifericos:
Suscribirse a:
Entradas (Atom)