miércoles, 4 de agosto de 2010
Microsoft ofrecerá Family Packs del Sistema Operativo Windows 7
Microsoft ofrecerá licencias Family Pack para el nuevo Sistema Operativo Windows 7 que va hacer lanzado en octubre del 2009. Esto le dara la libertad de que un usuario tiene mas de un computador en su casa, pueda instalar el Windows 7 en tres computadores con la misma licencia.
Este Family Pack de Windows 7 solamente sera ofrecido en la versión del Home Premiun, es decir que las versiones Bussines y Ultime no podrán acogerse a esta oferta.
Esto se debe a las constantes reclamos de los usuarios de Microsoft que tienen más de un computador en su hogar y debian comprar más de una copia del Sistema Operativo, ademas de las actualizaciones que se iban realizando constantemente.
Queridos lectores este articulo es una copia de este: Microsoft ofrecerá Family Packs del Sistema Operativo Windows 7
Pertenece a: BlogsCol
Los 10 avances tecnológicos más importantes de la década
A partir del 2000 y gracias a la aparición de nuevos productos y herramientas web, las comunicaciones se potenciaron. La masificación de las redes sociales y la aparición de celulares con más aplicaciones son sólo parte del catálogo de posibilidades.
por Axel Christiansen - 30/12/2009 - 09:00
Aumentar Disminuir Comentar Enviar a un amigo Imprimir Alertas Compartir
Su noticia está siendo enviada.
Sistema de envío de mensajes no disponible.
Reintente en unos minutos por favor.
Su mensaje ha sido enviado con éxito
Su nombre:
Nombre Destinatario:
E-mail Destinatario:
--------------------------------------------------------------------------------
Comentarios:
Enviar Cancelar
Digg del.icio.us Facebook Google Technorati Twitter Yahoo Fresqui
cerrar
GOOGLE
Su influencia se convirtió en un verbo: la gente no busca información en internet, sino que "googlea". Más del 75% de todas las búsquedas se hacen ahí. La compañía creada por Sergey Brin y Larry Page se convirtió en un imperio tecnológico que rivaliza con Microsoft: productos como Google Earth, Google Mail, el navegador Chrome y un sistema operativo para celulares (Android) son parte de sus logros.
FACEBOOK
En febrero de 2004, un estudiante de Harvard llamado Mark Zuckerberg creó un sitio para facilitar el contacto entre los estudiantes. En un par de años se convertiría en la red social más importante de internet. Hoy tiene más de 350 millones de usuarios.
IPOD
El iPod (2001) y la tienda digital iTunes volvieron a hacer rentable la industria musical con la venta de música digital, que hoy representa el 20% de las ganancias del sector.
SMARTPHONES
Esta fue la década en que se consolidó la pantalla multimedia del celular gracias a los smartphones, teléfonos que reciben emails y navegan por internet. BlackBerry y el iPhone dominan un mercado que suma 300 millones de aparatos.
YOUTUBE
Creado en 2005, tiene mil millones de visitas al día y suma 20 horas de contenido audiovisual subidas cada minuto.
FIREFOX
Tras la desaparición de Netscape, Microsoft tomó el dominio casi completo de los navegadores con Internet Explorer. Hasta que en 2004 apareció Mozilla Firefox, un proyecto sin fines de lucro y de código abierto. Hoy tiene el 25% del mercado.
WIKIPEDIA
Crear la mayor enciclopedia virtual, gratuita y con contenido de los mismos usuarios parecía descabellado. Hoy Wikipedia (2001) tiene 14 millones de artículos.
KINDLE
Creado por Amazon -empresa que nació vendiendo libros de papel-, Kindle (2007) asegura a los usuarios comprar, descargar y leer libros de manera fácil y sin perder calidad.
FOTOGRAFÍA DIGITAL
En esta década cambiamos los rollos por los megapíxeles. Las cámaras digitales no sólo se hicieron más asequibles, sino que están en un sinfín de aparatos, como los celulares.
INTERNET INALÁMBRICA
Ya sea a través de Wi-Fi -que aumentó la movilidad de los equipos y le dio mayor uso a los notebooks- o de 3G -que dotó a celulares de la experiencia web- internet está en todos lados.
por Axel Christiansen - 30/12/2009 - 09:00
Aumentar Disminuir Comentar Enviar a un amigo Imprimir Alertas Compartir
Su noticia está siendo enviada.
Sistema de envío de mensajes no disponible.
Reintente en unos minutos por favor.
Su mensaje ha sido enviado con éxito
Su nombre:
Nombre Destinatario:
E-mail Destinatario:
--------------------------------------------------------------------------------
Comentarios:
Enviar Cancelar
Digg del.icio.us Facebook Google Technorati Twitter Yahoo Fresqui
cerrar
Su influencia se convirtió en un verbo: la gente no busca información en internet, sino que "googlea". Más del 75% de todas las búsquedas se hacen ahí. La compañía creada por Sergey Brin y Larry Page se convirtió en un imperio tecnológico que rivaliza con Microsoft: productos como Google Earth, Google Mail, el navegador Chrome y un sistema operativo para celulares (Android) son parte de sus logros.
En febrero de 2004, un estudiante de Harvard llamado Mark Zuckerberg creó un sitio para facilitar el contacto entre los estudiantes. En un par de años se convertiría en la red social más importante de internet. Hoy tiene más de 350 millones de usuarios.
IPOD
El iPod (2001) y la tienda digital iTunes volvieron a hacer rentable la industria musical con la venta de música digital, que hoy representa el 20% de las ganancias del sector.
SMARTPHONES
Esta fue la década en que se consolidó la pantalla multimedia del celular gracias a los smartphones, teléfonos que reciben emails y navegan por internet. BlackBerry y el iPhone dominan un mercado que suma 300 millones de aparatos.
YOUTUBE
Creado en 2005, tiene mil millones de visitas al día y suma 20 horas de contenido audiovisual subidas cada minuto.
FIREFOX
Tras la desaparición de Netscape, Microsoft tomó el dominio casi completo de los navegadores con Internet Explorer. Hasta que en 2004 apareció Mozilla Firefox, un proyecto sin fines de lucro y de código abierto. Hoy tiene el 25% del mercado.
WIKIPEDIA
Crear la mayor enciclopedia virtual, gratuita y con contenido de los mismos usuarios parecía descabellado. Hoy Wikipedia (2001) tiene 14 millones de artículos.
KINDLE
Creado por Amazon -empresa que nació vendiendo libros de papel-, Kindle (2007) asegura a los usuarios comprar, descargar y leer libros de manera fácil y sin perder calidad.
FOTOGRAFÍA DIGITAL
En esta década cambiamos los rollos por los megapíxeles. Las cámaras digitales no sólo se hicieron más asequibles, sino que están en un sinfín de aparatos, como los celulares.
INTERNET INALÁMBRICA
Ya sea a través de Wi-Fi -que aumentó la movilidad de los equipos y le dio mayor uso a los notebooks- o de 3G -que dotó a celulares de la experiencia web- internet está en todos lados.
Sistemas Operativos por Servicios.
Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final:
Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final:
Por Número de Usuarios:
Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.
Por Número de Usuarios:
Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.
Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final:
Por Número de Usuarios:
Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.
Por Número de Usuarios:
Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.
Tipos de Sistemas Operativos.
Actualmente los sistemas operativos se clasifican en tres formas:
sistemas operativos por los servicios que ofrecen
sistemas operativos por su estructura (visión interna)
sistemas operativos por la forma en que ofrecen sus servicios (visión externa).
sistemas operativos por los servicios que ofrecen
sistemas operativos por su estructura (visión interna)
sistemas operativos por la forma en que ofrecen sus servicios (visión externa).
Sistemas de Cómputo
Por otra parte, las principales líneas que se desarrollan como apoyo a la investigación se refieren al diseño y desarrollo de redes de cómputo y telecomunicaciones de datos de altas especificaciones; la puesta en funcionamiento de sistemas operativos de misión crítica con aplicaciones de visualización científica y supercómputo para investigación en ingeniería; el diseño y desarrollo de sistemas informáticos distribuidos; el diseño de sistemas para videoconferencia y la capacitación en informática y cómputo avanzado.
Investigación acerca de los últimos avances tecnológicos en plataformas de cómputo personal de oficina y móvil, sistemas de misión crítica basados en los sistemas operativos UNIX y Windows NT, así como programas de aplicación científica para estas plataformas y las de supercómputo, para conformar una infraestructura de cómputo distribuida.
Investigación sobre los últimos avances tecnológicos en redes de cómputo y videoconferencia de altas especificaciones basadas en tecnologías ATM, Gigabitethernet, fastethernet, H320, H323 y otras.
Investigación relacionada con los últimos avances en desarrollo de sistemas intranet basados en tecnologías web y motores de bases de datos SQL para ofrecer al personal los más avanzados sistemas de información académica.
Actualización y mantenimiento, en óptimas condiciones de operación, de hardware, software e infraestructura de cómputo a través de la contratación de servicios de mantenimiento externo con compañías privadas.
Asesoría y apoyo técnico en materia de cómputo al personal del Instituto.
Formación de recursos humanos en el conocimiento y manejo de nuevas tecnologías.
Investigación acerca de los últimos avances tecnológicos en plataformas de cómputo personal de oficina y móvil, sistemas de misión crítica basados en los sistemas operativos UNIX y Windows NT, así como programas de aplicación científica para estas plataformas y las de supercómputo, para conformar una infraestructura de cómputo distribuida.
Investigación sobre los últimos avances tecnológicos en redes de cómputo y videoconferencia de altas especificaciones basadas en tecnologías ATM, Gigabitethernet, fastethernet, H320, H323 y otras.
Investigación relacionada con los últimos avances en desarrollo de sistemas intranet basados en tecnologías web y motores de bases de datos SQL para ofrecer al personal los más avanzados sistemas de información académica.
Actualización y mantenimiento, en óptimas condiciones de operación, de hardware, software e infraestructura de cómputo a través de la contratación de servicios de mantenimiento externo con compañías privadas.
Asesoría y apoyo técnico en materia de cómputo al personal del Instituto.
Formación de recursos humanos en el conocimiento y manejo de nuevas tecnologías.
Manual de procedimiento
Un manual de procedimientos es el documento que contiene la descripciòn de actividades que deben seguirse en la realización de las funciones de una unidad administrativa, o de dos ò mas de ellas.
El manual incluye además los puestos o unidades administrativas que intervienen precisando su responsabilidad y participación.
Suelen contener información y ejemplos de formularios, autorizaciones o documentos necesarios, màquinas o equipo de oficina a utilizar y cualquier otro dato que pueda auxiliar al correcto desarrollo de las actividades dentro de la empresa.
En el se encuentra registrada y transmitida sin distorsión la información básica referente al funcionamiento de todas las unidades administrativas, facilita las labores de auditoria, la evaluación y control interno y su vigilancia, la conciencia en los empleados y en sus jefes de que el trabajo se està realizando o no adecuadamente
El manual incluye además los puestos o unidades administrativas que intervienen precisando su responsabilidad y participación.
Suelen contener información y ejemplos de formularios, autorizaciones o documentos necesarios, màquinas o equipo de oficina a utilizar y cualquier otro dato que pueda auxiliar al correcto desarrollo de las actividades dentro de la empresa.
En el se encuentra registrada y transmitida sin distorsión la información básica referente al funcionamiento de todas las unidades administrativas, facilita las labores de auditoria, la evaluación y control interno y su vigilancia, la conciencia en los empleados y en sus jefes de que el trabajo se està realizando o no adecuadamente
Historia de los Sistemas Introducción
Para tratar de comprender los requisitos de un Sistema Operativo y el significado de las principales características de un SistemaOperativo contemporáneo, es útil considerar como han ido evolucionando éstos con el tiempo.
A finales de los 40's el uso de computadoras estaba restringido a aquellas empresas o instituciones que podían pagar su alto precio, y no existían los sistemas operativos. En su lugar, el programador debía tener un conocimiento y contacto profundo con el hardware, y en el infortunado caso de que su programa fallara, debía examinar los valores de los registros y páneles de luces indicadoras del estado de la computadora para determinar la causa del fallo y podercorregir su programa, además de enfrentarse nuevamente a los procedimientos de apartar tiempo del sistema y poner a punto los compiladores, ligadores, etc; para volver a correr su programa, es decir, enfrentaba el problema del procesamiento serial ( serial processing ).
La importancia de los sistemas operativos nace históricamente desde los 50's, cuando se hizo evidente que el operar una computadora por medio de tableros enchufables en la primera generación y luego por medio del trabajoen lote en la segunda generación se podía mejorar notoriamente, pues el operador realizaba siempre una secuencia de pasos repetitivos, lo cual es una de las características contempladas en la definición de lo que es un programa. Es decir, se comenzó a ver que las tareas mismas del operador podían plasmarse en un programa, el cual a través del tiempo y por su enorme complejidad se le llamó "Sistema Operativo". Así, tenemos entre los primeros sistemas operativos al Fortran Monitor System ( FMS ) e IBSYS.
Posteriormente, en la tercera generación de computadoras nace uno de los primeros sistemas operativos con la filosofía de administrar una familia de computadoras: el OS/360 de IBM. Fue este un proyectotan novedoso y ambicioso que enfrentó por primera vez una serie de problemas conflictivos debido a que anteriormente las computadoras eran creadas para dos propósitos en general: el comercial y el científico. Así, al tratar de crear un solo sistema operativo para computadoras que podían dedicarse a un propósito, al otro o ambos, puso en evidencia la problemática del trabajo en equipos de análisis, diseñoe implantación de sistemas grandes. El resultado fue un sistema del cual uno de sus mismos diseñadores patentizó su opinión en la portada de un libro: una horda de bestias prehistóricas atascadas en un foso de brea.
Surge también en la tercera generación de computadoras el concepto de la multiprogramación, porque debido al alto costo de las computadoras era necesario idear un esquema de trabajo que mantuviese a la unidad central de procesamiento más tiempo ocupada, así como el encolado (spooling ) de trabajos para su lectura hacia los lugares libres de memoria o la escritura de resultados. Sin embargo, se puede afirmar que los sistemas durante la tercera generación siguieron siendo básicamente sistemas de lote.
En la cuarta generación la electrónica avanza hacia la integración a gran escala, pudiendo crear circuitos con miles de transistoresen un centímetro cuadrado de silicón y ya es posible hablar de las computadoras personales y las estaciones de trabajo. Surgen los conceptos de interfaces amigables intentando así atraer al público en general al uso de las computadoras como herramientas cotidianas. Se hacen populares el MS-DOS y UNIX en estas máquinas. También es común encontrar clones de computadoras personales y una multitud de empresas pequeñas ensamblándolas por todo el mundo.
Para mediados de los 80's, comienza el auge de las redes de computadoras y la necesidad de sistemas operativos en redy sistemas operativos distribuidos. La red mundial Internet se va haciendo accesible a toda clase de instituciones y se comienzan a dar muchas soluciones( y problemas ) al querer hacer convivir recursos residentes en computadoras con sistemas operativos diferentes. Para los 90's el paradigma de la programaciónorientada a objetos cobra auge, así como el manejo de objetos desde los sistemas operativos. Las aplicaciones intentan crearse para ser ejecutadas en una plataforma específica y poder ver sus resultados en la pantalla o monitor de otra diferente (por ejemplo, ejecutar una simulación en una máquina con UNIX y ver los resultados en otra con DOS ). Los niveles de interacción se van haciendo cada vez más profundos.
¿Qué es un Sistema Operativo?.
Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente.
Un Sistema Operativo es una parte importante de cualquier sistema de computación. Un sistema de computación puede dividirse en cuatro componentes: el hardware, el Sistema Operativo, los programas de aplicación y los usuarios. El hardware (Unidad Central de Procesamiento(UCP), memoria y dispositivos de entrada/salida (E/S)) proporciona los recursos de computación básicos. Los programas de aplicación (compiladores, sistemas de bases de datos, juegos de vídeo y programas para negocios) definen la forma en que estos recursos se emplean para resolver los problemas de computación de los usuarios.
Característica de un Sistema Operativo.
En general, se puede decir que un Sistema Operativo tiene las siguientes características:
Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.
Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una pàrte del procesador para poder compartir los recursos.
Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.
Procesamiento por bytes de flujo a través del bus de datos.
Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.
Técnicas de recuperación de errores.
Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario.
Generación de estadísticas.
Permite que se puedan compartir el hardware y los datos entre los usuarios.
El softwarede aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programación, hojas de cálculo, etc.
El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo.
El Software de base está compuesto por :
Cargadores.
Compiladores.
Ensambladores.
A finales de los 40's el uso de computadoras estaba restringido a aquellas empresas o instituciones que podían pagar su alto precio, y no existían los sistemas operativos. En su lugar, el programador debía tener un conocimiento y contacto profundo con el hardware, y en el infortunado caso de que su programa fallara, debía examinar los valores de los registros y páneles de luces indicadoras del estado de la computadora para determinar la causa del fallo y podercorregir su programa, además de enfrentarse nuevamente a los procedimientos de apartar tiempo del sistema y poner a punto los compiladores, ligadores, etc; para volver a correr su programa, es decir, enfrentaba el problema del procesamiento serial ( serial processing ).
La importancia de los sistemas operativos nace históricamente desde los 50's, cuando se hizo evidente que el operar una computadora por medio de tableros enchufables en la primera generación y luego por medio del trabajoen lote en la segunda generación se podía mejorar notoriamente, pues el operador realizaba siempre una secuencia de pasos repetitivos, lo cual es una de las características contempladas en la definición de lo que es un programa. Es decir, se comenzó a ver que las tareas mismas del operador podían plasmarse en un programa, el cual a través del tiempo y por su enorme complejidad se le llamó "Sistema Operativo". Así, tenemos entre los primeros sistemas operativos al Fortran Monitor System ( FMS ) e IBSYS.
Posteriormente, en la tercera generación de computadoras nace uno de los primeros sistemas operativos con la filosofía de administrar una familia de computadoras: el OS/360 de IBM. Fue este un proyectotan novedoso y ambicioso que enfrentó por primera vez una serie de problemas conflictivos debido a que anteriormente las computadoras eran creadas para dos propósitos en general: el comercial y el científico. Así, al tratar de crear un solo sistema operativo para computadoras que podían dedicarse a un propósito, al otro o ambos, puso en evidencia la problemática del trabajo en equipos de análisis, diseñoe implantación de sistemas grandes. El resultado fue un sistema del cual uno de sus mismos diseñadores patentizó su opinión en la portada de un libro: una horda de bestias prehistóricas atascadas en un foso de brea.
Surge también en la tercera generación de computadoras el concepto de la multiprogramación, porque debido al alto costo de las computadoras era necesario idear un esquema de trabajo que mantuviese a la unidad central de procesamiento más tiempo ocupada, así como el encolado (spooling ) de trabajos para su lectura hacia los lugares libres de memoria o la escritura de resultados. Sin embargo, se puede afirmar que los sistemas durante la tercera generación siguieron siendo básicamente sistemas de lote.
En la cuarta generación la electrónica avanza hacia la integración a gran escala, pudiendo crear circuitos con miles de transistoresen un centímetro cuadrado de silicón y ya es posible hablar de las computadoras personales y las estaciones de trabajo. Surgen los conceptos de interfaces amigables intentando así atraer al público en general al uso de las computadoras como herramientas cotidianas. Se hacen populares el MS-DOS y UNIX en estas máquinas. También es común encontrar clones de computadoras personales y una multitud de empresas pequeñas ensamblándolas por todo el mundo.
Para mediados de los 80's, comienza el auge de las redes de computadoras y la necesidad de sistemas operativos en redy sistemas operativos distribuidos. La red mundial Internet se va haciendo accesible a toda clase de instituciones y se comienzan a dar muchas soluciones( y problemas ) al querer hacer convivir recursos residentes en computadoras con sistemas operativos diferentes. Para los 90's el paradigma de la programaciónorientada a objetos cobra auge, así como el manejo de objetos desde los sistemas operativos. Las aplicaciones intentan crearse para ser ejecutadas en una plataforma específica y poder ver sus resultados en la pantalla o monitor de otra diferente (por ejemplo, ejecutar una simulación en una máquina con UNIX y ver los resultados en otra con DOS ). Los niveles de interacción se van haciendo cada vez más profundos.
¿Qué es un Sistema Operativo?.
Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente.
Un Sistema Operativo es una parte importante de cualquier sistema de computación. Un sistema de computación puede dividirse en cuatro componentes: el hardware, el Sistema Operativo, los programas de aplicación y los usuarios. El hardware (Unidad Central de Procesamiento(UCP), memoria y dispositivos de entrada/salida (E/S)) proporciona los recursos de computación básicos. Los programas de aplicación (compiladores, sistemas de bases de datos, juegos de vídeo y programas para negocios) definen la forma en que estos recursos se emplean para resolver los problemas de computación de los usuarios.
Característica de un Sistema Operativo.
En general, se puede decir que un Sistema Operativo tiene las siguientes características:
Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.
Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una pàrte del procesador para poder compartir los recursos.
Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.
Procesamiento por bytes de flujo a través del bus de datos.
Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.
Técnicas de recuperación de errores.
Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario.
Generación de estadísticas.
Permite que se puedan compartir el hardware y los datos entre los usuarios.
El softwarede aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programación, hojas de cálculo, etc.
El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo.
El Software de base está compuesto por :
Cargadores.
Compiladores.
Ensambladores.
Mouse IRIBIO con scanner de Iris
Este tipo de Mouse es el que necesita el FBI o la CIA. Se trata de una Mouse creado por una compañía Qritek que tiene un Scanner de Iris para poder acceder a la PC a la cual esté conectado el Mouse. Pero si no trabajas en una compañía importante o gubernamental, seguramente te verás extraño o tonto colocando el Mouse en tu ojo cada vez que quieras encender tu ordenador.
Este Mouse aunque raro, tiene su propio procesador de 500 MHz y 16MB de memoria RAM y 1MB de memoria flash, para almacenar y verificar registros, en caso de que tengas a varios usuarios autorizados para el acceso.
Su resolución de chequeo es de 600 dpi y la conexión hacia el ordenador es por medio de USB con encriptación.
Aún no se tiene un precio exacto, pero por el mini procesador y la memoria Ram, seguramente valdrá más.
Este Mouse aunque raro, tiene su propio procesador de 500 MHz y 16MB de memoria RAM y 1MB de memoria flash, para almacenar y verificar registros, en caso de que tengas a varios usuarios autorizados para el acceso.
Su resolución de chequeo es de 600 dpi y la conexión hacia el ordenador es por medio de USB con encriptación.
Aún no se tiene un precio exacto, pero por el mini procesador y la memoria Ram, seguramente valdrá más.
Mouse con teclado numérico
El Mouse de nuestra computadora es un elemento importante, tanto como hardware, como también puede ser un bonito elemento estético.
Algunas veces necesitamos que incluya algunas funciones extra, como Mouse con teléfono, que sea vertical, con aire, luminoso, etc. pero muy pocos incluyen funciones que realmente se utilicen.
Este ratón incluye un teclado numérico, es ideal para tu computadora personal, ya sea que estés trabajando con alguna hoja de cálculo o necesites hacer operaciones matemáticas rápidamente y tengas que ir a tu teclado, descuidando el ratón por algunos segundos.
Parece una buena idea ya que te ahorra bastante tiempo y aparte tiene un diseño que permite ver el teclado numérico mientras no lo usas gracias a su protección plástica transparente.
Tiene una resolución de 1000 dpi, 19 teclas numéricas, y no tiene palabras disponibles en el teclado, además de incluir la tradicional rueda de en medio y un tamaño de 13 x 13 mm, al parecer es apenas un prototipo, ya que no se habla mucho del precio o de la posible comercialización, pero esperemos que el precio no se eleve mucho.
No necesitas ningún driver, solo necesitas una conexión disponible USB y es compatible con Windows 98/ME/2000/XP.
Herramienta gratuita para crear aplicaciones Android sin ser experto: Google App Inventor. No sería mejor SOA?
Google creó una herramienta para desarrollar funciones sencillas para teléfonos celulares Android. Se llama App Inventor, es gratuita y la pueden usar incluso personas no especializadas en el desarrollo de software.
Google permitirá que cualquier usuario diseñe programas para su sistema operativo para teléfonos móviles Android.
La empresa aboga por una plataforma abierta para ampliar el mercado para su sistema operativo Android, en una estrategia exactamente opuesta a la de su rival Apple, en la que cada programa para el iPhone debe ser autorizado primero por los responsables.
Algunos expertos creen que en pocos años Google será líder con Android en el mercado de los teléfonos móviles.
Imágenes de Google App Inventor
Google permitirá que cualquier usuario diseñe programas para su sistema operativo para teléfonos móviles Android.
La empresa aboga por una plataforma abierta para ampliar el mercado para su sistema operativo Android, en una estrategia exactamente opuesta a la de su rival Apple, en la que cada programa para el iPhone debe ser autorizado primero por los responsables.
Algunos expertos creen que en pocos años Google será líder con Android en el mercado de los teléfonos móviles.
Imágenes de Google App Inventor
Kleer presenta el curso de Estimación y Planificación con Scrum – Programa CSD
Kleer presenta el curso de Estimación y Planificación con Scrum – Programa CSD
July 25th, 2010 por inventionary · Dejar un comentario
Duración: 8 horas
Fecha: 30 de Julio
Horario: 9:00 a 18:00 hs
Lugar del evento
Hotel “El Conquistador”
Suipacha 948, Salón América
Ciudad Autónoma de Buenos Aires
Buenos Aires
Argentina
PDUs (PMI): 8 (Categoría 4)
Muchos equipos creen que la planificación es algo que debe evitarse y demasiadas organizaciones consideran que los planes son un elementos de control de los equipos de desarrollo. Sin embargo, la planificación es una parte clave de todos los proyectos, sean ágiles o no. A pesar de la dudosa utilidad de la planificación tradicional, es posible crear un plan de proyecto de seis a nueve meses y que éste sea útil.
En este curso de un día los participantes aprenderán prácticas que realmente funcionan a la hora de la identificación y estimación de user stories, identificación de velocity y armado de un release plan.
Este curso enseña nuevas habilidades que los participantes pueden utilizar en la creación de planes ágiles. Los participantes saldrán con una sólida comprensión, y experiencia en relación con la planificación de releases e iteraciones ágiles. Se presentarán los enfoques para la estimación por puntos de historia , se presentarán cuatro técnicas de estimación, incluyendo la popular técnica de Planning Poker. Estas técnicas han demostrado aumentar la precisión de estimación y planificación, aumentando las posibilidades de finalización a tiempo de cualquier proyecto.
July 25th, 2010 por inventionary · Dejar un comentario
Duración: 8 horas
Fecha: 30 de Julio
Horario: 9:00 a 18:00 hs
Lugar del evento
Hotel “El Conquistador”
Suipacha 948, Salón América
Ciudad Autónoma de Buenos Aires
Buenos Aires
Argentina
PDUs (PMI): 8 (Categoría 4)
Muchos equipos creen que la planificación es algo que debe evitarse y demasiadas organizaciones consideran que los planes son un elementos de control de los equipos de desarrollo. Sin embargo, la planificación es una parte clave de todos los proyectos, sean ágiles o no. A pesar de la dudosa utilidad de la planificación tradicional, es posible crear un plan de proyecto de seis a nueve meses y que éste sea útil.
En este curso de un día los participantes aprenderán prácticas que realmente funcionan a la hora de la identificación y estimación de user stories, identificación de velocity y armado de un release plan.
Este curso enseña nuevas habilidades que los participantes pueden utilizar en la creación de planes ágiles. Los participantes saldrán con una sólida comprensión, y experiencia en relación con la planificación de releases e iteraciones ágiles. Se presentarán los enfoques para la estimación por puntos de historia , se presentarán cuatro técnicas de estimación, incluyendo la popular técnica de Planning Poker. Estas técnicas han demostrado aumentar la precisión de estimación y planificación, aumentando las posibilidades de finalización a tiempo de cualquier proyecto.
Kleer presenta el curso de Estimación y Planificación con Scrum – Programa CSD
Kleer presenta el curso de Estimación y Planificación con Scrum – Programa CSD
July 25th, 2010 por inventionary · Dejar un comentario
Duración: 8 horas
Fecha: 30 de Julio
Horario: 9:00 a 18:00 hs
Lugar del evento
Hotel “El Conquistador”
Suipacha 948, Salón América
Ciudad Autónoma de Buenos Aires
Buenos Aires
Argentina
PDUs (PMI): 8 (Categoría 4)
Muchos equipos creen que la planificación es algo que debe evitarse y demasiadas organizaciones consideran que los planes son un elementos de control de los equipos de desarrollo. Sin embargo, la planificación es una parte clave de todos los proyectos, sean ágiles o no. A pesar de la dudosa utilidad de la planificación tradicional, es posible crear un plan de proyecto de seis a nueve meses y que éste sea útil.
En este curso de un día los participantes aprenderán prácticas que realmente funcionan a la hora de la identificación y estimación de user stories, identificación de velocity y armado de un release plan.
Este curso enseña nuevas habilidades que los participantes pueden utilizar en la creación de planes ágiles. Los participantes saldrán con una sólida comprensión, y experiencia en relación con la planificación de releases e iteraciones ágiles. Se presentarán los enfoques para la estimación por puntos de historia , se presentarán cuatro técnicas de estimación, incluyendo la popular técnica de Planning Poker. Estas técnicas han demostrado aumentar la precisión de estimación y planificación, aumentando las posibilidades de finalización a tiempo de cualquier proyecto.
July 25th, 2010 por inventionary · Dejar un comentario
Duración: 8 horas
Fecha: 30 de Julio
Horario: 9:00 a 18:00 hs
Lugar del evento
Hotel “El Conquistador”
Suipacha 948, Salón América
Ciudad Autónoma de Buenos Aires
Buenos Aires
Argentina
PDUs (PMI): 8 (Categoría 4)
Muchos equipos creen que la planificación es algo que debe evitarse y demasiadas organizaciones consideran que los planes son un elementos de control de los equipos de desarrollo. Sin embargo, la planificación es una parte clave de todos los proyectos, sean ágiles o no. A pesar de la dudosa utilidad de la planificación tradicional, es posible crear un plan de proyecto de seis a nueve meses y que éste sea útil.
En este curso de un día los participantes aprenderán prácticas que realmente funcionan a la hora de la identificación y estimación de user stories, identificación de velocity y armado de un release plan.
Este curso enseña nuevas habilidades que los participantes pueden utilizar en la creación de planes ágiles. Los participantes saldrán con una sólida comprensión, y experiencia en relación con la planificación de releases e iteraciones ágiles. Se presentarán los enfoques para la estimación por puntos de historia , se presentarán cuatro técnicas de estimación, incluyendo la popular técnica de Planning Poker. Estas técnicas han demostrado aumentar la precisión de estimación y planificación, aumentando las posibilidades de finalización a tiempo de cualquier proyecto.
Maquina Analítica de Babbage.
Las dos grandes máquinas que inventó el hombre que se podían considerar como antecesores lejanos de las computadoras fueron: La Pascalina (máquina de Pascal) y la Máquina analítica de Babbage. Blaise Pascal, uno de los mas grandes filósofos y matemáticos de la historia, ideó una máquina para sumar (aunque también hacía restas, multiplicaciones y divisiones), empleando engranes.
La Máquina Analítica de Babbage, por otro lado, fue un fracaso al querer construir una enorme copia de la simple "calculadora" de Pascal, al querer destacar una unidad de control que manejaría todas las operaciones. Este diseño era muy ambicioso, en el sentido de que su funcionamiento se dividía en dos partes: la primera, una unidad para almacenar datos y la otra para introducir valores en la máquina y obtener resultados. Es decir, en aquella época este hombre de ciencia, estuvo a punto de "inventar" los programas que hoy en día usamos, lamentablemente el proyecto fracasó, por la limitada tecnología de los engranes y las máquinas de vapor y nunca pudo completarse.
Entre los antecesores mas directos de la computadora está la MARK 1, y la ENIAC en cuyos proyectos intervino John Von Newmann, quien aportó el concepto de programa, ya olvidado, además de aportar ideas de relevancia, que con base en ellas funcionan prácticamente todas las computadoras actuales, entre ellas el de que la computadora trabaje con sistema en base dos, es decir con los números 0 y 1, y no en base diez, el sistema que nosotros manejamos. Por sus ideas y aportaciones se podría considerar a John Von Newmann, como el inventor de las computadoras modernas.
A partir de la ENIAC y de la EDVAC (primera computadora programable), las computadoras comerciales han surgido con ciertas características comunes, que nos ayudan a agruparlas en términos históricos.
La corta historia de la computadora debe medirse, no tanto como un orden cronológico de años, sino mas bien en función de sus avances tecnológicos, en cualquiera de sus dos aspectos: los componentes físicos (HARDWARE) y los programas con los que funcionan (SOFTWARE).
Desde la invención de la primera computadora, estas han evolucionado, ese proceso se ha dividido en las siguientes generaciones:
PRIMERA GENERACION.
Esta generación abarca desde los inicios del año 1945 hasta unos diez años después. Durante ella la tecnología electrónica era en base de bulbos y la comunicación (en términos de computadoras) se hacía en el nivel mas bajo que puede existir, el lenguaje máquina.
Los principales avances que se dieron en esta generación fueron los siguientes:
ENIAC. Primera computadora digital de la historia. Esta máquina era experimental, no era programable, se trataba de un enorme aparato que se dice que ocupaba todo un sótano en la Universidad de Pennsylvania, donde se construyó, constaba de 18,000 bulbos, consumía varios Kw de potencia eléctrica y pesaba algunas toneladas. Esta máquina era capaz de efectuar 5,000 sumas por segundo y fue hecha por varios científicos estadounidenses encabezados por Mauchly y Eckert.
EDVAC. Primera computadora programable. Fue un prototipo de laboratorio, pero ya incluía en su diseño, las ideas centrales que conforman a las computadoras actuales.
UNIVAC 1. Primera computadora comercial, producto del trabajo que los doctores Mauchly y Eckert. Su primer uso fue en las oficinas de censos de los EE.UU.
IBM 701. Fue la primera de una larga serie de computadoras de esta compañía, fundada por Thomas Watson en 1934, que al inicio fabricaba tarjetas perforadas de registros, para la contabilidad. A la postre, esta compañía se convertiría en la #1, por sus altas ventas.
En esta generación fueron apareciendo las primeras compañías de computadoras que se anexaron a la UNIVAC y a la IBM, como la REMINGTON RAND.
SEGUNDA GENERACIÓN
En el año 1955, la electrónica tuvo un gran avance, que fue la sustitución de los bulbos por el transistor.
Estos tenían muchas ventajas, gracias a que consumían menos energía eléctrica y reducía el tamaño de las computadoras. Además, también ahora se iban a programar las computadoras con lenguaje de alto nivel y no con lenguaje máquina. Es decir, con una serie de instrucciones, más fáciles de comprender que el lenguaje máquina.
Varias compañías productoras aparecieron como CDC que fabricaba computadoras grandes y veloces; RCA que ofrecía una máquina que se manejaba con lenguaje COBOL, enfocado a programas de tipo administrativo.
Además, apareció otro lenguaje llamado FORTRAN, traductor de fórmulas, que hasta la fecha es empleado en labores de ingeniería.
Esta segunda generación duró pocos años, porque pronto hubo nuevos avances y porque lo que haría IBM en 1964, marcaría el inicio de una nueva generación de computadoras.
La Máquina Analítica de Babbage, por otro lado, fue un fracaso al querer construir una enorme copia de la simple "calculadora" de Pascal, al querer destacar una unidad de control que manejaría todas las operaciones. Este diseño era muy ambicioso, en el sentido de que su funcionamiento se dividía en dos partes: la primera, una unidad para almacenar datos y la otra para introducir valores en la máquina y obtener resultados. Es decir, en aquella época este hombre de ciencia, estuvo a punto de "inventar" los programas que hoy en día usamos, lamentablemente el proyecto fracasó, por la limitada tecnología de los engranes y las máquinas de vapor y nunca pudo completarse.
Entre los antecesores mas directos de la computadora está la MARK 1, y la ENIAC en cuyos proyectos intervino John Von Newmann, quien aportó el concepto de programa, ya olvidado, además de aportar ideas de relevancia, que con base en ellas funcionan prácticamente todas las computadoras actuales, entre ellas el de que la computadora trabaje con sistema en base dos, es decir con los números 0 y 1, y no en base diez, el sistema que nosotros manejamos. Por sus ideas y aportaciones se podría considerar a John Von Newmann, como el inventor de las computadoras modernas.
A partir de la ENIAC y de la EDVAC (primera computadora programable), las computadoras comerciales han surgido con ciertas características comunes, que nos ayudan a agruparlas en términos históricos.
La corta historia de la computadora debe medirse, no tanto como un orden cronológico de años, sino mas bien en función de sus avances tecnológicos, en cualquiera de sus dos aspectos: los componentes físicos (HARDWARE) y los programas con los que funcionan (SOFTWARE).
Desde la invención de la primera computadora, estas han evolucionado, ese proceso se ha dividido en las siguientes generaciones:
PRIMERA GENERACION.
Esta generación abarca desde los inicios del año 1945 hasta unos diez años después. Durante ella la tecnología electrónica era en base de bulbos y la comunicación (en términos de computadoras) se hacía en el nivel mas bajo que puede existir, el lenguaje máquina.
Los principales avances que se dieron en esta generación fueron los siguientes:
ENIAC. Primera computadora digital de la historia. Esta máquina era experimental, no era programable, se trataba de un enorme aparato que se dice que ocupaba todo un sótano en la Universidad de Pennsylvania, donde se construyó, constaba de 18,000 bulbos, consumía varios Kw de potencia eléctrica y pesaba algunas toneladas. Esta máquina era capaz de efectuar 5,000 sumas por segundo y fue hecha por varios científicos estadounidenses encabezados por Mauchly y Eckert.
EDVAC. Primera computadora programable. Fue un prototipo de laboratorio, pero ya incluía en su diseño, las ideas centrales que conforman a las computadoras actuales.
UNIVAC 1. Primera computadora comercial, producto del trabajo que los doctores Mauchly y Eckert. Su primer uso fue en las oficinas de censos de los EE.UU.
IBM 701. Fue la primera de una larga serie de computadoras de esta compañía, fundada por Thomas Watson en 1934, que al inicio fabricaba tarjetas perforadas de registros, para la contabilidad. A la postre, esta compañía se convertiría en la #1, por sus altas ventas.
En esta generación fueron apareciendo las primeras compañías de computadoras que se anexaron a la UNIVAC y a la IBM, como la REMINGTON RAND.
SEGUNDA GENERACIÓN
En el año 1955, la electrónica tuvo un gran avance, que fue la sustitución de los bulbos por el transistor.
Estos tenían muchas ventajas, gracias a que consumían menos energía eléctrica y reducía el tamaño de las computadoras. Además, también ahora se iban a programar las computadoras con lenguaje de alto nivel y no con lenguaje máquina. Es decir, con una serie de instrucciones, más fáciles de comprender que el lenguaje máquina.
Varias compañías productoras aparecieron como CDC que fabricaba computadoras grandes y veloces; RCA que ofrecía una máquina que se manejaba con lenguaje COBOL, enfocado a programas de tipo administrativo.
Además, apareció otro lenguaje llamado FORTRAN, traductor de fórmulas, que hasta la fecha es empleado en labores de ingeniería.
Esta segunda generación duró pocos años, porque pronto hubo nuevos avances y porque lo que haría IBM en 1964, marcaría el inicio de una nueva generación de computadoras.
ANTECESORES DE LAS COMPUTADORAS
ANTECESORES DE LAS COMPUTADORAS
El Ábaco, quizás fue el primer dispositivo mecánico de contabilidad que existió. Su origen es de al menos 3000 años, es un instrumento con bolas que corrían de izquierda a derecha hacían cálculos y todavía hoy es usado en Japón y China.
El Ábaco, quizás fue el primer dispositivo mecánico de contabilidad que existió. Su origen es de al menos 3000 años, es un instrumento con bolas que corrían de izquierda a derecha hacían cálculos y todavía hoy es usado en Japón y China.
Introducción.
A diferencia de como la mayoría de la gente piensa, la computadora no es el máximo invento de algún genio, sino mas bien el producto de enormes y complicados proyectos de investigación que duraron muchos años hasta poder llegar a crear modelos iniciales de computadoras, no es mas que la revolución que ha venido experimentando nuestra sociedad a lo largo de la historia.
La computadora surge durante la segunda guerra mundial, durante la construcción de la bomba atómica, desde entonces ha llegado a constituir un elemento esencial para la transformación de la industria mundial, como en esos momentos lo constituyó para la industria bélica. En efecto, esta primera computadora surge como respuesta a la necesidad de resolver en forma rápida y práctica, el problema de efectuar los miles y miles de cálculos requeridos, para determinar la trayectoria de un proyectil. La Universidad de Pennsylvania en unión con el departamento de defensa de los EE.UU., trabajaron en un proyecto destinado a obtener trayectorias balísticas, por medios mecánicos o electrónicos, esto dio como resultado una máquina llamada ENIAC, utilizaba, como ya mencioné, por necesidad de guerra, por los EE.UU., quienes habrían de comprobar su eficacia en el lanzamiento de las bombas atómicas sobre las ciudades de Hiroshima y Nagasaki en Japón, durante la segunda guerra mundial.
Con el paso de los años, a cambiado, con respecto a su origen militarista, por que se ha convertido, junto con la electrónica digital en el pilar indiscutible sobre la que descansa toda la tecnología moderna, ya que desde la máquina de Pascal hasta los robots, la computadora ha servido de base para la realización de diversos estudios relacionados por el hombre, casi siempre para el beneficio de la sociedad y de la ciencia.
Lo que ha hecho posible la existencia de las computadoras y su evolución es el avance de la electrónica, además de las inversiones de capitales para la investigación y el avance tecnológico.
Para resumir, las computadoras existen porque tenían que aparecer, una vez que el hombre había aprendido ha convertir en modelos matemáticos con los que explica la realidad que lo rodea.
La computadora surge durante la segunda guerra mundial, durante la construcción de la bomba atómica, desde entonces ha llegado a constituir un elemento esencial para la transformación de la industria mundial, como en esos momentos lo constituyó para la industria bélica. En efecto, esta primera computadora surge como respuesta a la necesidad de resolver en forma rápida y práctica, el problema de efectuar los miles y miles de cálculos requeridos, para determinar la trayectoria de un proyectil. La Universidad de Pennsylvania en unión con el departamento de defensa de los EE.UU., trabajaron en un proyecto destinado a obtener trayectorias balísticas, por medios mecánicos o electrónicos, esto dio como resultado una máquina llamada ENIAC, utilizaba, como ya mencioné, por necesidad de guerra, por los EE.UU., quienes habrían de comprobar su eficacia en el lanzamiento de las bombas atómicas sobre las ciudades de Hiroshima y Nagasaki en Japón, durante la segunda guerra mundial.
Con el paso de los años, a cambiado, con respecto a su origen militarista, por que se ha convertido, junto con la electrónica digital en el pilar indiscutible sobre la que descansa toda la tecnología moderna, ya que desde la máquina de Pascal hasta los robots, la computadora ha servido de base para la realización de diversos estudios relacionados por el hombre, casi siempre para el beneficio de la sociedad y de la ciencia.
Lo que ha hecho posible la existencia de las computadoras y su evolución es el avance de la electrónica, además de las inversiones de capitales para la investigación y el avance tecnológico.
Para resumir, las computadoras existen porque tenían que aparecer, una vez que el hombre había aprendido ha convertir en modelos matemáticos con los que explica la realidad que lo rodea.
guia on line con informacion de los avances y desarrollo tecnologico de hardware y software
guia on line con informacion de los avances y desarrollo tecnologico de hardware y software
Usted ha buscado el término: guia on line con informacion de los avances y desarrollo tecnologico de hardware y software encontrando 750 coincidencias.
Pág. 1.
1Avances Tecnológicos (Lima, Perú)
Empresa proveedora de soluciones en Tecnología de la Información (TI) que mejoran su productividad, su relación con clientes y proveedores. Desarrollo de Software / Sistemas, cuenta con un trayectoria de más de 15 años.
http://www.avances.com.pe/
Categoría: Informática Consultoría, Asesoría, Servicio Técnico
2Centro de Predicción Numérica del Tiempo y Clima - Instituto Geofísico del Perú (Perú)
El CPNTC tiene el propósito de aplicar los avances científicos y tecnológicos en la predicción del estado del tiempo y del clima, y con ello ayudar a resolver los problemas de planificación económica y desarrollo sostenible. Pronóstico del tiempo para el Perú, para la Aviación. Condiciones Observadas. Temperatura del Mar. Información de Satélite. El Clima en el Perú.
http://www.met.igp.gob.pe/
Categoría: Clima, el Tiempo, Meteorología
3Línea Perú (Perú)
Soporte en Hardware y Software, desarrollo de software, Internet, Intranet y Extranet. Sistema de Administración de Bibliotecas, Software de Control de Bazar, Software de Captura Biométrica, Digitalización de Documentos, etc.
http://www.lineaperu.com/
Categoría: Software
4Data Nostrum (Perú
Servicios de búsqueda de informacion de toda actividad por Internet. Desarrollo y mantenimiento de sistemas. Diseño de páginas web. Capacitacion y consultoria empresarial. Venta de hardware y software. Autores: Ingenieros de Tecnologias de la Informacion.
http://www.datanostrum.com
Categoría: Captura de Datos, Gestión de la Información
5Intech Group Peru SAC. (Magdalena, Lima, LM, Perú)
Comercializamos software (Gis, Cad, Hidrología), hardware, capacitación, desarrollo de aplicaciones, dibujo y diseño de planos y soluciones infomáticas como: MapInfo, AutoCAD, Envi y otros.
http://www.intechgroup.com.pe/
Categoría: Software
6Interneteando (Perú)
Página web del programa radial Interneteando (98.1 FM) que difunde información sobre Internet, ayudando a los novatos a conocer esta fascinante herramienta llamada Internet, así como software, hardware e informática en general. Tambien prestamos nuestro servicios de asesoría para la compra de sus equipos informáticos. Nuestra seccion 'Técnico en Línea' ayuda a solucionar los problemas de hardware o software.
http://www.interneteando.net/
Categoría: Manuales de Informática
7Orbis Informática S.R.L. (Perú)
Soluciones integrales para la Empresa de hoy. Asesoría, desarrollo, venta y mantenimiento. Solucionamos cualquier problema informático y asesoramos a empresas. Servicio personalizado. Todos nuestros productos, ya sea hardware o software son respaldados por marcas de prestigio.
http://www.orbisinformatica.com/
Categoría: Informática Consultoría, Asesoría, Servicio Técnico
8Transfar Suplies Computer (Surquillo, Lima, LM, Perú)
Desarrollo de Soluciones para Internet y Multimedia. Venta de Computadoras y Notebooks. Desarrollo de CD-ROMs interactivos, kioscos multimedia, desarrollo de sitios web y comercio electrónico. Desarrollo de sistemas Intranet / Extranet. Instalación de Redes.
http://www.transfarcorp.com/
Categoría: Computadoras Venta de Hardware y Accesorios
9TumiSoft Informatique (Lausanne, Suiza)
De la conception et de la réalisation de sites Web. Installation, configuration des postes de travail. Mise en place de systèmes en réseau. Serveurs dédiés, serveurs de fichiers, d'impression. Installation des Intranet et accès Internet. /// Empresa peruana en Suiza.
http://www.tumisoft.ch/
Categoría: Diseño de Páginas Web: Extranjero
10Apoyo Digital - Negocios y Tecnología (Lima, LM, Perú)
Diseño y mantenimiento de páginas web, hosting, marketing web, alta en buscadores, venta de computadoras, soporte técnico, instalación de cabinas internet, desarrollo de e-books y consultoria en general en tecnología. Contamos con Datacenter en EEUU.
http://www.apoyo-digital.com/
Categoría: Diseño de Páginas Web: Lima: Corporativas
11All Perú On Line - E-Commerce - E-Marketing - E-Business (La Molina, Lima, Perú)
Desarrollo, diseño, mantenimiento de páginas web. E-Commerce, e-marketing, e-business, asesoría estratégica, desarrollo de negocios convencionales y/o virtuales.
http://www.allperuonline.com/
Categoría: Diseño de Páginas Web: Lima: Corporativas
12Trabucco Vizcarra - Negocios Electrónicos y Sistemas de Información (Tacna, TC, Perú)
Diseño de Páginas Web, Asesoramiento en Modelo de Negocios por Internet, Base de Datos, Consultoría de Contenido. Implementacion de e-CMR y e-Marketing, Fidelización de Clientes, etc..
http://trabuccovizcarra.awardspace.com/trabucco/
Categoría: Software
13Supérate.com.pe - Buscador de maestrias y diplomados (Perú)
La mejor guía para tu desarrollo profesional. Te acercamos a los estudios de postgrado con la mejor información para aquellos que deseen ampliar sus conocimientos profesionales y disponer de distintas herramientas para alcanzar el éxito.
http://www.superate.com.pe/
Categoría: Portales Educativos
14InfoCapitalHumano.pe - Guía de Recursos Humanos (Perú)
Portal peruano especializado en Recursos Humanos, que brinda la más completa información del y para el sector. Para los ejecutivos que trabajan Recursos Humanos.
http://www.infocapitalhumano.pe/
Categoría: Trabajo, Empleo
15Becois Peru Sac. - Beco Inform Systems (Lima, Perú)
Innovación y desarrollo de avances tecnológicos. Desarrollo de softwares a medida, diseño de páginas web, venta de equipo y suministros de cómputo, mantenimiento y soporte técnico, redes inalámbricas, videos de seguridad, etc.
Usted ha buscado el término: guia on line con informacion de los avances y desarrollo tecnologico de hardware y software encontrando 750 coincidencias.
Pág. 1.
1Avances Tecnológicos (Lima, Perú)
Empresa proveedora de soluciones en Tecnología de la Información (TI) que mejoran su productividad, su relación con clientes y proveedores. Desarrollo de Software / Sistemas, cuenta con un trayectoria de más de 15 años.
http://www.avances.com.pe/
Categoría: Informática Consultoría, Asesoría, Servicio Técnico
2Centro de Predicción Numérica del Tiempo y Clima - Instituto Geofísico del Perú (Perú)
El CPNTC tiene el propósito de aplicar los avances científicos y tecnológicos en la predicción del estado del tiempo y del clima, y con ello ayudar a resolver los problemas de planificación económica y desarrollo sostenible. Pronóstico del tiempo para el Perú, para la Aviación. Condiciones Observadas. Temperatura del Mar. Información de Satélite. El Clima en el Perú.
http://www.met.igp.gob.pe/
Categoría: Clima, el Tiempo, Meteorología
3Línea Perú (Perú)
Soporte en Hardware y Software, desarrollo de software, Internet, Intranet y Extranet. Sistema de Administración de Bibliotecas, Software de Control de Bazar, Software de Captura Biométrica, Digitalización de Documentos, etc.
http://www.lineaperu.com/
Categoría: Software
4Data Nostrum (Perú
Servicios de búsqueda de informacion de toda actividad por Internet. Desarrollo y mantenimiento de sistemas. Diseño de páginas web. Capacitacion y consultoria empresarial. Venta de hardware y software. Autores: Ingenieros de Tecnologias de la Informacion.
http://www.datanostrum.com
Categoría: Captura de Datos, Gestión de la Información
5Intech Group Peru SAC. (Magdalena, Lima, LM, Perú)
Comercializamos software (Gis, Cad, Hidrología), hardware, capacitación, desarrollo de aplicaciones, dibujo y diseño de planos y soluciones infomáticas como: MapInfo, AutoCAD, Envi y otros.
http://www.intechgroup.com.pe/
Categoría: Software
6Interneteando (Perú)
Página web del programa radial Interneteando (98.1 FM) que difunde información sobre Internet, ayudando a los novatos a conocer esta fascinante herramienta llamada Internet, así como software, hardware e informática en general. Tambien prestamos nuestro servicios de asesoría para la compra de sus equipos informáticos. Nuestra seccion 'Técnico en Línea' ayuda a solucionar los problemas de hardware o software.
http://www.interneteando.net/
Categoría: Manuales de Informática
7Orbis Informática S.R.L. (Perú)
Soluciones integrales para la Empresa de hoy. Asesoría, desarrollo, venta y mantenimiento. Solucionamos cualquier problema informático y asesoramos a empresas. Servicio personalizado. Todos nuestros productos, ya sea hardware o software son respaldados por marcas de prestigio.
http://www.orbisinformatica.com/
Categoría: Informática Consultoría, Asesoría, Servicio Técnico
8Transfar Suplies Computer (Surquillo, Lima, LM, Perú)
Desarrollo de Soluciones para Internet y Multimedia. Venta de Computadoras y Notebooks. Desarrollo de CD-ROMs interactivos, kioscos multimedia, desarrollo de sitios web y comercio electrónico. Desarrollo de sistemas Intranet / Extranet. Instalación de Redes.
http://www.transfarcorp.com/
Categoría: Computadoras Venta de Hardware y Accesorios
9TumiSoft Informatique (Lausanne, Suiza)
De la conception et de la réalisation de sites Web. Installation, configuration des postes de travail. Mise en place de systèmes en réseau. Serveurs dédiés, serveurs de fichiers, d'impression. Installation des Intranet et accès Internet. /// Empresa peruana en Suiza.
http://www.tumisoft.ch/
Categoría: Diseño de Páginas Web: Extranjero
10Apoyo Digital - Negocios y Tecnología (Lima, LM, Perú)
Diseño y mantenimiento de páginas web, hosting, marketing web, alta en buscadores, venta de computadoras, soporte técnico, instalación de cabinas internet, desarrollo de e-books y consultoria en general en tecnología. Contamos con Datacenter en EEUU.
http://www.apoyo-digital.com/
Categoría: Diseño de Páginas Web: Lima: Corporativas
11All Perú On Line - E-Commerce - E-Marketing - E-Business (La Molina, Lima, Perú)
Desarrollo, diseño, mantenimiento de páginas web. E-Commerce, e-marketing, e-business, asesoría estratégica, desarrollo de negocios convencionales y/o virtuales.
http://www.allperuonline.com/
Categoría: Diseño de Páginas Web: Lima: Corporativas
12Trabucco Vizcarra - Negocios Electrónicos y Sistemas de Información (Tacna, TC, Perú)
Diseño de Páginas Web, Asesoramiento en Modelo de Negocios por Internet, Base de Datos, Consultoría de Contenido. Implementacion de e-CMR y e-Marketing, Fidelización de Clientes, etc..
http://trabuccovizcarra.awardspace.com/trabucco/
Categoría: Software
13Supérate.com.pe - Buscador de maestrias y diplomados (Perú)
La mejor guía para tu desarrollo profesional. Te acercamos a los estudios de postgrado con la mejor información para aquellos que deseen ampliar sus conocimientos profesionales y disponer de distintas herramientas para alcanzar el éxito.
http://www.superate.com.pe/
Categoría: Portales Educativos
14InfoCapitalHumano.pe - Guía de Recursos Humanos (Perú)
Portal peruano especializado en Recursos Humanos, que brinda la más completa información del y para el sector. Para los ejecutivos que trabajan Recursos Humanos.
http://www.infocapitalhumano.pe/
Categoría: Trabajo, Empleo
15Becois Peru Sac. - Beco Inform Systems (Lima, Perú)
Innovación y desarrollo de avances tecnológicos. Desarrollo de softwares a medida, diseño de páginas web, venta de equipo y suministros de cómputo, mantenimiento y soporte técnico, redes inalámbricas, videos de seguridad, etc.
Avances en Hardware
En verano de 1970, IBM amplió el juego de instrucciones e implementó el mecanismo de memoria virtual del 360/67 en todos los modelos, y por consiguiente, desarrollando y adaptando los SO existentes para trabajar con memoria virtual, rebautizando la nueva arquitectura como IBM S/370. A partir de aquí, a lo largo de los años 70 y 80, las máquinas se hicieron más grandes en tamaño, potencia, velocidad y recursos, pero la arquitectura básica de 1964 no cambió en absoluto.
Por un lado venía de puta madre, porque los programas escritos en 1964 funcionaban perfectamente en 1980, pero a toda leche. Pero por otro, dado que el bus de direcciones era de 24 bits, y los programas eran cada vez mayores, se dieron cuenta que al final existía una limitación hardware de 16 MB de RAM direccionable, tanto real como virtual. Así que IBM se puso manos a la obra, y en 1982 desarrollo la arquitectura S/370-XA, que tenía un bus de 32 bits, lo que hacía que se direccionala hasta ¿4 GB de RAM? Noooo! Sólo podía direccionar 2 GB de RAM.
Y a que se debe esto? Pues muy sencillo: Como para IBM primaba la compatibilidad hacia atrás, se las arreglo para que a nivel hardware los programas escritos para 24 bits no notaran la diferencia, usando de los 32 bits, un bit (el 31) para decir si la página de memoria esta por encima de los 16 bits (XA) o esta por debajo (tradicional). Así, mi programa escrito en 1964 funcionaría por debajo de los 16 MB como siempre, pero los nuevos programas que escriba a partir de ahora, podría desarrollarlos a 31 bits y situarlos en un espacio de direcciones por encima de los 16 MB. O que coño, puedo coger mis fuentes y recompilarlos con mi compilador y decirle que me los sitúe encima de los 16 MB de RAM (solo tengo que poner un parámetro en el compilador).
Como información adicional, esa diferencia entre menos de 16 MB y mas de 16 MB la denominó “La LINEA”, haciendo referencia a que por debajo de la línea, se situaban los programas tradicionales, y por encima de la línea, los programas “cool” nuevecitos. Y ya que estamos, IBM en 1988 le dio por desarrollar un nuevo concepto de memoria virtual: Los múltiples espacios de almacenamiento, haciendo referencia a que cada programa podría tener su propia gestión de la memoria virtual, por capas, desterrando así el concepto de gestión plana de memoria. A esta arquitectura, se la denomino IBM ESA/370 (Enterprise Systems Architecture).
En la década de los 90, IBM desarrolló una nueva arquitectura llamada ES/9000, multiprocesadores con múltiples espacios de memoria, sistema LPAR de particiones virtuales de máquina (vamos, VMwares por hardware), cambiando el nombre de la arquitectura ESA/370 a ESA/390. Fue también la época donde se desterró el cobre como medio de transmisión y se impuso la fibra óptica (ESCON –Enterprise Systems CONnection), por lo que el acceso a discos, cintas, etc, se realizaba vía fibra a velocidades de 20 MB/seg por canal, mientras que en cobre como mucho se podían alcanzar velocidades de 4,5 MB/seg (decir que puedes conectar mas de un canal a un periférico, así que el ancho de banda se balancea automáticamente y lo multiplicas).
A partir de ese momento, y una vez que en 1994 los ES/9000 estaban en pleno auge, IBM cambió la tecnología a una más barata, pequeña pero mucho mas veloz, llamada IBM Parallell Enterprise Server, sacando cada año, una generación (desde la G1 hasta el G6 de 1999).
Pero fue en el año 2000 cuando IBM dijo: 2 GB me saben a poco. Quiero más. Así que desarrolló la arquitectura z/Series, con un espacio de direcciones de 64 bits, lo que hacía que podría direccionar hasta 16 EXABYTES de datos en memoria. Es decir, que en el último z/Series que me compre mañana mismo, me va a funcionar un programa escrito en 1964. Te cagas.
No existe otro sistema informático en el mundo que respete de forma tan fiel la compatibilidad hacia atrás. Como nota curiosa, como el bit 31 es el identificador que sitúa a un programa por encima o por debajo de la línea, hay 2 GB que no se pueden direccionar, para la máquina no existen. Así que a estos 2 GB “fantasmas” se les denomino La BARRA.
Por encima de la Barra, y al igual que pasaba con la línea, puedo compilar un programa y hacer que se ejecute o debajo de la línea, o entre la línea y la barra o por encima de la barra, ya os digo que cambiando un parámetro.
Después de este “breve” paso por los adelantos tecnológicos que ha sufrido la historia del mainframe, paso ya a comentar los adelantos de los SO de la época hasta nuestros días.
A lo largo de la vida de la plataforma S/360, se desarrollaron los siguientes SO:
DOS para las máquinas pequeñas
OS/360 para las máquinas medianas/grandes
TSS/360 para sistemas de tiempo compartido y multiusuarios.
Pero como el TSS/360 fue un fiasco mayúsculo, fue reemplazado por los siguientes productos:
CP/67, que luego pasaría a llamarse VM/370
TSO, Time Sharing Option, para OS/360
A continuación, paso a explicar brevemente cada uno:
DOS: Disk Operating System, ideado para máquinas pequeñas. Se almacenaba en disco y ocupaba 24 KB. Existía tambien una versión tipo Knoppix “Live-Tape” llamada TOS, para equipos que no tenían disco duro y se cargaba todo desde cinta.
Este SO sólo podía ejecutar una tarea a la vez, así que era como podréis observar similar al MS-DOS, pero con 25 años de diferencia. Vamos, que Microsoft no inventó absolutamente nada. Tenía un espacio de direcciones plano así que si tu programa no cabía en memoria real, pues a joderse.
Se introducía en programa por tarjetas y daba un resultado. Simple a mas no poder –por eso no petaba, a menos que tu, como programador lo metieras en un bucle infinito por tu ineptitud picando código-, y como esto se parece mucho al MS-DOS, pues poco mas que añadir.
TSS/360: Este SO quería ser algo mejor de lo que hacía el Multics de aquel entonces. Como IBM sabía que el impacto iba a ser sobrecogedor, empleo a miles y miles de programadores en todo el mundo para hacer el TSS/360. Lo que tenía este SO de bueno era que podías tener cientos de terminales simultáneamente trabajando contra la misma máquina, cada uno desarrollando programas, ejecutándolos, en definitiva, interactuando con la máquina en tiempo real.
El resultado fue un pedazo de mierda solo comparable con MS Windows 95 Primera edición: tardaba 10 minutos arrancar, hasta que te aparecía el LOGON, y luego tenías 10 minutos de vida aproximadamente hasta que se cayera todo el sistema de manera dramática. Evidentemente, IBM abandonó dicho proyecto y nunca se llegó a comercializar.
TSO: No obstante, cuando murió el TSS, algunos desarrolladores de IBM se quedaron con la copla y con lo mejor del TSS y desarrollaron un nuevo sistema de tiempo compartido, llamado TSO (Time Sharing Option), que ha perdurado hasta nuestros días (si veis una pantalla verde en algún ministerio o ayuntamiento con emulación 3270, o es que hay un CICS (un gestor transaccional desarrollado en 1968) o hay TSO, no puede haber nada más).
El problema es que por aquel entonces, no funcionaba tan maravillosamente, ya que el TSO comía más de media máquina en MFT o MVT (luego los explico), sin contar con el hecho que una vez al día por lo menos, cascaba estrepitosamente.
CP67: Este SO virtualizaba en todos los aspectos la máquina real, dando la sensación que el usuario tenía toda una máquina S/360 para el solito, pero al final todo es un programa, como el de Parada. Se llama Control Program.
Por consiguiente, podías instalar un SO dentro de esa máquina, ya sea MVT, MFT, DOS o lo que quisieras, al igual que lo hace un VMware de los de hoy en día. Al final, este SO se rebautizó como VM/370 con la llegada del System/370. Y ha seguido una evolución tecnológica de acuerdo a la tecnología existente, pasando de ser VM/370 a VM/370-XA, VM/ESA, y ahora, z/VM.
OS/360: El estandarte de los sistemas operativos de la época y el que mas recursos humanos en todo el mundo ha tenido –antes de la llegada de GNU/Linux-. Robusto de narices, es EL SO mas seguro del mundo. El nombre de OS/360 viene a que ese iba a ser el SO que iba a soportar toda la gama de máquinas, pero al principio se desarrollaron varias fases:
OS/360-PCP: Primary Control Program: Era una parte muy muy simple del OS/360, y como el DOS, solo podía ejecutar un programa a la vez. Pero claro, OS/360-PCP necesitaba de un maquinón para su ejecución, así que la gente que se decantaba por una máquina pequeña y un sistema operativo similar, se iba de cabeza al DOS. Así que este SO se quedo en los laboratorios de IBM para desarrollar software para otros SO.
OS/360-MFT: Multiprogramming with Fixed number of Tasks: Meses mas tarde, salió a la luz y fue el primer SO multitarea de la historia. La memoria la dividías en regiones y cada región podía ejecutar un programa distinto. Pero la pega es que debías conocer al dedillo los jobs o programas que ibas a lanzar, ya que si un job ocupaba más que la región seleccionada, no cabía y por lo tanto, no podía ser ejecutado.
Y si tenias que cambiar la configuración de las regiones de memoria, tenías que apagar todo y volver a configurar, por lo que era un modelo chungo de trabajo, aunque si te lo montabas bien, podrías ejecutar cientos de tareas simultáneas.
OS/360-MVT: Multiprogramming with Variable number of Tasks: Este SO podía crear y borrar regiones de memoria a placer, de tal forma que para ejecutar un job, el SO miraba la memoria disponible y consultaba la cola de jobs por si alguna le entraba en ese espacio libre y si lo encontraba, creaba la región que iba a consumir el job y luego lo cargaba para su ejecución.
La ventaja es evidente, ya que el sistema se reconfigura automáticamente de acuerdo a las necesidades de tu job, pero esto traía una desventaja con los jobs que consumían poca memoria pero que requerían de mucho tiempo de CPU para finalizar, y era que al de un rato de tener la máquina funcionando, estos jobs se situaban en una zona central de la memoria, y que el espacio libre de memoria de alrededor no se podía aprovechar porque los otros jobs que están esperando en la cola no entraban en esas partes libres, así que no podrían entrar hasta que estos pequeños jobs terminaran y se liberase dicha memoria, creando cuellos de botella y paradas de exclusiones mútuas si un job en ejecución necesitara que otro job se ejecutara para terminar.
Por lo tanto, se desarrolló un producto llamado HASP que no era mas que un planificador de trabajos, que ordenaba la cola de jobs de acuerdo a sus consumos de memoria y demás parámetros, y saliendo en un orden predefinido mediante unas hebras o “slots” predefinidos. Esta ejecución se parece mas a MFT, pero con la ventaja de la reordenación de la memoria que realiza el HASP (que con el paso de los años se rebautizaría como JES –Job Entry Subsystem-).
Cuando el hardware de memoria virtual estuvo disponible en los modelos posteriores, los diversos SOs se rebautizaron. Al OS/360-MFT se llamó OS/VS1 y al OS/360-MVT se le llamó OS/VS2. Además se re-escribieron ya que con la memoria virtual, dejaba de ser necesario que el programa adquiriera la memoria contigua, con lo que el problema del MVT sin el HASP desaparecía (aunque se siguió utilizando el HASP –JES2- igualmente). Sucesivas ampliaciones del OS/VS2 y con el hardware que admitía múltiples espacios de direcciones virtuales, lo rebautizaron como MVS (Multiple Virtual Storage).
Con la llegada de la arquitectura 370 se le llamó MVS/370, luego con la XA se le llamo MVS/XA, luego MVS/ESA, y ya con el cambio de nombre de la arquitectura a S/390, se volvió a utilizar el OS/360 para llamarlo OS/390. Y en el 2000, con el z/Series, z/OS. Pero vamos, en la practica el z/OS se basa en los mismos fundamentos que el OS/360 pero con las mejoras tecnológicas. Existe el concepto de submitir jobs, el JES2, el TSO, etc.
A partir de aquí, hay toda una gama de productos para el buen desempeño de la máquina: El SDSF (Spool Display and Search Facility) que administra el JES2 y todos los trabajos, colas, etc. El RMF (Resource Measuremente Facility) que monitoriza usando los registros del SMF (System Management Facility) el estado de la máquina, productos como DFSMS (Data Facility Storage Management System) que ordena los datos en disco según ciertas políticas, el DFSMS-hsm (Hierachical Storage Manager) que migra datos poco usados a cintas, etc.
Y luego productos como DB2 para bases de datos, CICS para el transaccional, herramientas de programación y desarrollo en Cobol, C, Java, así como herramientas de orientación a la web tipo Lotus Domino+Notes, Websphere, así como OMVS (Openedition MVS, un UNIX embebido dentro del SO), etc. Y eso sin contar con los monitores de rendimiento de cada producto que instales, por ejemplo el TMON o el OmegaMon del CICS, y demás utilidades de Boole& Babagge de monitorización, a no ser que te guste mas el Tivoli Netview.
Y eso es todo amigos. Si queréis alguna información adicional, Internet es el camino, sobre todo los ABC’s Of System Programming z/OS que IBM publica en PDF con descarga directa desde mi web.
No obstante, se podría montar un buen foro de opinión sobre esto, ya que ya he recibido mensajes de los que apoyan esta arquitectura y los que la rechazan. Y creedme, es muy interesante conocer opiniones de todos los ámbitos
Por un lado venía de puta madre, porque los programas escritos en 1964 funcionaban perfectamente en 1980, pero a toda leche. Pero por otro, dado que el bus de direcciones era de 24 bits, y los programas eran cada vez mayores, se dieron cuenta que al final existía una limitación hardware de 16 MB de RAM direccionable, tanto real como virtual. Así que IBM se puso manos a la obra, y en 1982 desarrollo la arquitectura S/370-XA, que tenía un bus de 32 bits, lo que hacía que se direccionala hasta ¿4 GB de RAM? Noooo! Sólo podía direccionar 2 GB de RAM.
Y a que se debe esto? Pues muy sencillo: Como para IBM primaba la compatibilidad hacia atrás, se las arreglo para que a nivel hardware los programas escritos para 24 bits no notaran la diferencia, usando de los 32 bits, un bit (el 31) para decir si la página de memoria esta por encima de los 16 bits (XA) o esta por debajo (tradicional). Así, mi programa escrito en 1964 funcionaría por debajo de los 16 MB como siempre, pero los nuevos programas que escriba a partir de ahora, podría desarrollarlos a 31 bits y situarlos en un espacio de direcciones por encima de los 16 MB. O que coño, puedo coger mis fuentes y recompilarlos con mi compilador y decirle que me los sitúe encima de los 16 MB de RAM (solo tengo que poner un parámetro en el compilador).
Como información adicional, esa diferencia entre menos de 16 MB y mas de 16 MB la denominó “La LINEA”, haciendo referencia a que por debajo de la línea, se situaban los programas tradicionales, y por encima de la línea, los programas “cool” nuevecitos. Y ya que estamos, IBM en 1988 le dio por desarrollar un nuevo concepto de memoria virtual: Los múltiples espacios de almacenamiento, haciendo referencia a que cada programa podría tener su propia gestión de la memoria virtual, por capas, desterrando así el concepto de gestión plana de memoria. A esta arquitectura, se la denomino IBM ESA/370 (Enterprise Systems Architecture).
En la década de los 90, IBM desarrolló una nueva arquitectura llamada ES/9000, multiprocesadores con múltiples espacios de memoria, sistema LPAR de particiones virtuales de máquina (vamos, VMwares por hardware), cambiando el nombre de la arquitectura ESA/370 a ESA/390. Fue también la época donde se desterró el cobre como medio de transmisión y se impuso la fibra óptica (ESCON –Enterprise Systems CONnection), por lo que el acceso a discos, cintas, etc, se realizaba vía fibra a velocidades de 20 MB/seg por canal, mientras que en cobre como mucho se podían alcanzar velocidades de 4,5 MB/seg (decir que puedes conectar mas de un canal a un periférico, así que el ancho de banda se balancea automáticamente y lo multiplicas).
A partir de ese momento, y una vez que en 1994 los ES/9000 estaban en pleno auge, IBM cambió la tecnología a una más barata, pequeña pero mucho mas veloz, llamada IBM Parallell Enterprise Server, sacando cada año, una generación (desde la G1 hasta el G6 de 1999).
Pero fue en el año 2000 cuando IBM dijo: 2 GB me saben a poco. Quiero más. Así que desarrolló la arquitectura z/Series, con un espacio de direcciones de 64 bits, lo que hacía que podría direccionar hasta 16 EXABYTES de datos en memoria. Es decir, que en el último z/Series que me compre mañana mismo, me va a funcionar un programa escrito en 1964. Te cagas.
No existe otro sistema informático en el mundo que respete de forma tan fiel la compatibilidad hacia atrás. Como nota curiosa, como el bit 31 es el identificador que sitúa a un programa por encima o por debajo de la línea, hay 2 GB que no se pueden direccionar, para la máquina no existen. Así que a estos 2 GB “fantasmas” se les denomino La BARRA.
Por encima de la Barra, y al igual que pasaba con la línea, puedo compilar un programa y hacer que se ejecute o debajo de la línea, o entre la línea y la barra o por encima de la barra, ya os digo que cambiando un parámetro.
Después de este “breve” paso por los adelantos tecnológicos que ha sufrido la historia del mainframe, paso ya a comentar los adelantos de los SO de la época hasta nuestros días.
A lo largo de la vida de la plataforma S/360, se desarrollaron los siguientes SO:
DOS para las máquinas pequeñas
OS/360 para las máquinas medianas/grandes
TSS/360 para sistemas de tiempo compartido y multiusuarios.
Pero como el TSS/360 fue un fiasco mayúsculo, fue reemplazado por los siguientes productos:
CP/67, que luego pasaría a llamarse VM/370
TSO, Time Sharing Option, para OS/360
A continuación, paso a explicar brevemente cada uno:
DOS: Disk Operating System, ideado para máquinas pequeñas. Se almacenaba en disco y ocupaba 24 KB. Existía tambien una versión tipo Knoppix “Live-Tape” llamada TOS, para equipos que no tenían disco duro y se cargaba todo desde cinta.
Este SO sólo podía ejecutar una tarea a la vez, así que era como podréis observar similar al MS-DOS, pero con 25 años de diferencia. Vamos, que Microsoft no inventó absolutamente nada. Tenía un espacio de direcciones plano así que si tu programa no cabía en memoria real, pues a joderse.
Se introducía en programa por tarjetas y daba un resultado. Simple a mas no poder –por eso no petaba, a menos que tu, como programador lo metieras en un bucle infinito por tu ineptitud picando código-, y como esto se parece mucho al MS-DOS, pues poco mas que añadir.
TSS/360: Este SO quería ser algo mejor de lo que hacía el Multics de aquel entonces. Como IBM sabía que el impacto iba a ser sobrecogedor, empleo a miles y miles de programadores en todo el mundo para hacer el TSS/360. Lo que tenía este SO de bueno era que podías tener cientos de terminales simultáneamente trabajando contra la misma máquina, cada uno desarrollando programas, ejecutándolos, en definitiva, interactuando con la máquina en tiempo real.
El resultado fue un pedazo de mierda solo comparable con MS Windows 95 Primera edición: tardaba 10 minutos arrancar, hasta que te aparecía el LOGON, y luego tenías 10 minutos de vida aproximadamente hasta que se cayera todo el sistema de manera dramática. Evidentemente, IBM abandonó dicho proyecto y nunca se llegó a comercializar.
TSO: No obstante, cuando murió el TSS, algunos desarrolladores de IBM se quedaron con la copla y con lo mejor del TSS y desarrollaron un nuevo sistema de tiempo compartido, llamado TSO (Time Sharing Option), que ha perdurado hasta nuestros días (si veis una pantalla verde en algún ministerio o ayuntamiento con emulación 3270, o es que hay un CICS (un gestor transaccional desarrollado en 1968) o hay TSO, no puede haber nada más).
El problema es que por aquel entonces, no funcionaba tan maravillosamente, ya que el TSO comía más de media máquina en MFT o MVT (luego los explico), sin contar con el hecho que una vez al día por lo menos, cascaba estrepitosamente.
CP67: Este SO virtualizaba en todos los aspectos la máquina real, dando la sensación que el usuario tenía toda una máquina S/360 para el solito, pero al final todo es un programa, como el de Parada. Se llama Control Program.
Por consiguiente, podías instalar un SO dentro de esa máquina, ya sea MVT, MFT, DOS o lo que quisieras, al igual que lo hace un VMware de los de hoy en día. Al final, este SO se rebautizó como VM/370 con la llegada del System/370. Y ha seguido una evolución tecnológica de acuerdo a la tecnología existente, pasando de ser VM/370 a VM/370-XA, VM/ESA, y ahora, z/VM.
OS/360: El estandarte de los sistemas operativos de la época y el que mas recursos humanos en todo el mundo ha tenido –antes de la llegada de GNU/Linux-. Robusto de narices, es EL SO mas seguro del mundo. El nombre de OS/360 viene a que ese iba a ser el SO que iba a soportar toda la gama de máquinas, pero al principio se desarrollaron varias fases:
OS/360-PCP: Primary Control Program: Era una parte muy muy simple del OS/360, y como el DOS, solo podía ejecutar un programa a la vez. Pero claro, OS/360-PCP necesitaba de un maquinón para su ejecución, así que la gente que se decantaba por una máquina pequeña y un sistema operativo similar, se iba de cabeza al DOS. Así que este SO se quedo en los laboratorios de IBM para desarrollar software para otros SO.
OS/360-MFT: Multiprogramming with Fixed number of Tasks: Meses mas tarde, salió a la luz y fue el primer SO multitarea de la historia. La memoria la dividías en regiones y cada región podía ejecutar un programa distinto. Pero la pega es que debías conocer al dedillo los jobs o programas que ibas a lanzar, ya que si un job ocupaba más que la región seleccionada, no cabía y por lo tanto, no podía ser ejecutado.
Y si tenias que cambiar la configuración de las regiones de memoria, tenías que apagar todo y volver a configurar, por lo que era un modelo chungo de trabajo, aunque si te lo montabas bien, podrías ejecutar cientos de tareas simultáneas.
OS/360-MVT: Multiprogramming with Variable number of Tasks: Este SO podía crear y borrar regiones de memoria a placer, de tal forma que para ejecutar un job, el SO miraba la memoria disponible y consultaba la cola de jobs por si alguna le entraba en ese espacio libre y si lo encontraba, creaba la región que iba a consumir el job y luego lo cargaba para su ejecución.
La ventaja es evidente, ya que el sistema se reconfigura automáticamente de acuerdo a las necesidades de tu job, pero esto traía una desventaja con los jobs que consumían poca memoria pero que requerían de mucho tiempo de CPU para finalizar, y era que al de un rato de tener la máquina funcionando, estos jobs se situaban en una zona central de la memoria, y que el espacio libre de memoria de alrededor no se podía aprovechar porque los otros jobs que están esperando en la cola no entraban en esas partes libres, así que no podrían entrar hasta que estos pequeños jobs terminaran y se liberase dicha memoria, creando cuellos de botella y paradas de exclusiones mútuas si un job en ejecución necesitara que otro job se ejecutara para terminar.
Por lo tanto, se desarrolló un producto llamado HASP que no era mas que un planificador de trabajos, que ordenaba la cola de jobs de acuerdo a sus consumos de memoria y demás parámetros, y saliendo en un orden predefinido mediante unas hebras o “slots” predefinidos. Esta ejecución se parece mas a MFT, pero con la ventaja de la reordenación de la memoria que realiza el HASP (que con el paso de los años se rebautizaría como JES –Job Entry Subsystem-).
Cuando el hardware de memoria virtual estuvo disponible en los modelos posteriores, los diversos SOs se rebautizaron. Al OS/360-MFT se llamó OS/VS1 y al OS/360-MVT se le llamó OS/VS2. Además se re-escribieron ya que con la memoria virtual, dejaba de ser necesario que el programa adquiriera la memoria contigua, con lo que el problema del MVT sin el HASP desaparecía (aunque se siguió utilizando el HASP –JES2- igualmente). Sucesivas ampliaciones del OS/VS2 y con el hardware que admitía múltiples espacios de direcciones virtuales, lo rebautizaron como MVS (Multiple Virtual Storage).
Con la llegada de la arquitectura 370 se le llamó MVS/370, luego con la XA se le llamo MVS/XA, luego MVS/ESA, y ya con el cambio de nombre de la arquitectura a S/390, se volvió a utilizar el OS/360 para llamarlo OS/390. Y en el 2000, con el z/Series, z/OS. Pero vamos, en la practica el z/OS se basa en los mismos fundamentos que el OS/360 pero con las mejoras tecnológicas. Existe el concepto de submitir jobs, el JES2, el TSO, etc.
A partir de aquí, hay toda una gama de productos para el buen desempeño de la máquina: El SDSF (Spool Display and Search Facility) que administra el JES2 y todos los trabajos, colas, etc. El RMF (Resource Measuremente Facility) que monitoriza usando los registros del SMF (System Management Facility) el estado de la máquina, productos como DFSMS (Data Facility Storage Management System) que ordena los datos en disco según ciertas políticas, el DFSMS-hsm (Hierachical Storage Manager) que migra datos poco usados a cintas, etc.
Y luego productos como DB2 para bases de datos, CICS para el transaccional, herramientas de programación y desarrollo en Cobol, C, Java, así como herramientas de orientación a la web tipo Lotus Domino+Notes, Websphere, así como OMVS (Openedition MVS, un UNIX embebido dentro del SO), etc. Y eso sin contar con los monitores de rendimiento de cada producto que instales, por ejemplo el TMON o el OmegaMon del CICS, y demás utilidades de Boole& Babagge de monitorización, a no ser que te guste mas el Tivoli Netview.
Y eso es todo amigos. Si queréis alguna información adicional, Internet es el camino, sobre todo los ABC’s Of System Programming z/OS que IBM publica en PDF con descarga directa desde mi web.
No obstante, se podría montar un buen foro de opinión sobre esto, ya que ya he recibido mensajes de los que apoyan esta arquitectura y los que la rechazan. Y creedme, es muy interesante conocer opiniones de todos los ámbitos
Hardware y Sistemas Operativos de Mainframe
Para explicar un poco el tema, antes hay que comentar también el tipo de Hardware que había en esa época para entender mejor ciertas decisiones de diseño que se tomaron.
Como dije en ocasiones anteriores, hasta Abril de 1964 cada computador era de un padre y una madre distintos. Esto hacia que estas computadoras “bastardas” requiriesen un nivel de especialización importante, y tanto sus programas como datos tenían obligatoriamente que estar adaptados a esas maquinas. Pero a partir de esa fecha, IBM creo el S/360 (360 hace referencia a los 360 grados de una circunferencia, dando a entender que podría adaptarse a todo el rango de opciones habidas y por haber). Esta máquina constaba de varios modelos, desde el modelo 20 que tenía 64 raquíticos KBs de RAM (pero en aquella época era como tener 4 GB en tu PC), hasta el modelo 91, que era el ordenador mas potente de la gama que se instaló en el sistema de defensa de misiles nucleares de los EEUU, en plena guerra fría. A pesar de sus diferencias en potencia, tenían el mismo juego de instrucciones, solo que en el modelo pequeño muchas instrucciones las tenía en microcódigo mas que en hardware propiamente dicho (por ejemplo, mientras que en el modelo 91 la multiplicación estaba implementada por hardware, en el modelo 20 era una macroinstrucción que sumaba n veces).
Se desarrollaron una serie de sistemas operativos, de acuerdo a la potencia de cada maquina. Mientras que las mas cutres y salchicheras no tenían SO y que lo único que hacían era leer de tarjetas perforadas y generar nuevos datos en tarjetas o impresoras, las máquinas de gama media con una cierta potencia, se instalaban con una versión de DOS (se lo que pensáis y no oiga, que no, de MS-DOS nada J ) y las de gama alta, con un sistema operativo llamado OS/360. DOS era un sistema operativo que solo podia ejecutar una tarea a la vez (que no, coño, que no es MS-DOS), y mientras esa tarea se ejecutaba, solo cabía esperar a que la finalizara. En cambio, OS/360 era… bueno, de esto hablaremos largo y tendido…
Pero al tema: En Abril de 1964 se hizo pública la noticia del desarrollo del IBM S/360, pero no fue hasta un año mas tarde cuando se comercializó el modelo de mas baja gama. Al modelo 20 le siguieron modelos 40, etc, hasta que en junio de 1966 salió el modelo 67, el primero que tenía soporte hardware para la memoria virtual. Tenia un DAT (Dynamic Address Translation) y una lógica de paginación de memoria, por lo que a partir de ese momento, podrías ejecutar cualquier programa del espacio de direcciones dado a pesar de no tener la suficiente memoria real. IBM planeo el perfecto Sistema Operativo que explotara todas las capacidades de esta máquina, llamado TSS/360, pero lamentablemente no lo hicieron funcionar lo suficientemente bien como para comercializarlo con la cabeza bien alta ya que se petaba cada dos por tres (es decir, que tuvieron mas vergüenza que Microsoft y su Windows con pantallas azules). Luego lo explicaré mas detalladamente…
No obstante, IBM también desarrollo otro sistema operativo para ese modelo, llamado CP-67, que permitía la virtualización de varias máquinas en una sola, dando la sensación a cada usuario que tenia toda la máquina para el solito. Además, podía emular otro tipo de máquinas, por lo que este SO vino de perlas para desarrolladores de software de esta y otras plataformas distintas.
Como dije en ocasiones anteriores, hasta Abril de 1964 cada computador era de un padre y una madre distintos. Esto hacia que estas computadoras “bastardas” requiriesen un nivel de especialización importante, y tanto sus programas como datos tenían obligatoriamente que estar adaptados a esas maquinas. Pero a partir de esa fecha, IBM creo el S/360 (360 hace referencia a los 360 grados de una circunferencia, dando a entender que podría adaptarse a todo el rango de opciones habidas y por haber). Esta máquina constaba de varios modelos, desde el modelo 20 que tenía 64 raquíticos KBs de RAM (pero en aquella época era como tener 4 GB en tu PC), hasta el modelo 91, que era el ordenador mas potente de la gama que se instaló en el sistema de defensa de misiles nucleares de los EEUU, en plena guerra fría. A pesar de sus diferencias en potencia, tenían el mismo juego de instrucciones, solo que en el modelo pequeño muchas instrucciones las tenía en microcódigo mas que en hardware propiamente dicho (por ejemplo, mientras que en el modelo 91 la multiplicación estaba implementada por hardware, en el modelo 20 era una macroinstrucción que sumaba n veces).
Se desarrollaron una serie de sistemas operativos, de acuerdo a la potencia de cada maquina. Mientras que las mas cutres y salchicheras no tenían SO y que lo único que hacían era leer de tarjetas perforadas y generar nuevos datos en tarjetas o impresoras, las máquinas de gama media con una cierta potencia, se instalaban con una versión de DOS (se lo que pensáis y no oiga, que no, de MS-DOS nada J ) y las de gama alta, con un sistema operativo llamado OS/360. DOS era un sistema operativo que solo podia ejecutar una tarea a la vez (que no, coño, que no es MS-DOS), y mientras esa tarea se ejecutaba, solo cabía esperar a que la finalizara. En cambio, OS/360 era… bueno, de esto hablaremos largo y tendido…
Pero al tema: En Abril de 1964 se hizo pública la noticia del desarrollo del IBM S/360, pero no fue hasta un año mas tarde cuando se comercializó el modelo de mas baja gama. Al modelo 20 le siguieron modelos 40, etc, hasta que en junio de 1966 salió el modelo 67, el primero que tenía soporte hardware para la memoria virtual. Tenia un DAT (Dynamic Address Translation) y una lógica de paginación de memoria, por lo que a partir de ese momento, podrías ejecutar cualquier programa del espacio de direcciones dado a pesar de no tener la suficiente memoria real. IBM planeo el perfecto Sistema Operativo que explotara todas las capacidades de esta máquina, llamado TSS/360, pero lamentablemente no lo hicieron funcionar lo suficientemente bien como para comercializarlo con la cabeza bien alta ya que se petaba cada dos por tres (es decir, que tuvieron mas vergüenza que Microsoft y su Windows con pantallas azules). Luego lo explicaré mas detalladamente…
No obstante, IBM también desarrollo otro sistema operativo para ese modelo, llamado CP-67, que permitía la virtualización de varias máquinas en una sola, dando la sensación a cada usuario que tenia toda la máquina para el solito. Además, podía emular otro tipo de máquinas, por lo que este SO vino de perlas para desarrolladores de software de esta y otras plataformas distintas.
novedad de Acer:
Ahora les presentaremos la novedad de Acer: es un netbook que pertenece a la línea Aspire Timeline y la principal característica es el cambio de procesador, antes usaban el procesador Intel CULV, ahora lo han cambiado por un potente Intel Core i5.
El Acer Aspire Timeline 1810T fue presentado el año pasado,ahora esta nueva referencia entra en la batalla con otras marcas que ya han mejorado sus netbooks tanto en procesador, como en otras partes de su hardware. Otras de las características de este computador portátil son:
Pantalla de 11.6 pulgadas con resolución de 1366 × 768 píxeles.
Procesador Intel Core i5-520UM a 1.06GHz con la posibilidad de llegar a 1.86GHz en la opción Turbo Boost.
3 Puertos USB, uno HDMI, S/PDIF, y Ethernet Gigabit.
Conectividad WiFi 802.11 b/g/n y en opción Bluetooth 2.1 + EDR.
Batería de 6 celdas que rinde 8 horas de autonomía.
Algunos modelos vendrán con tecnología 3G, dependiendo a el país.
Esperemos que Acer próximamente dará a conocer las fechas de venta, los precios y demás especificaciones físicas.
Queridos lectores este articulo es una copia de este: Lo nuevo de Acer: Acer Aspire Timeline 1830T
Pertenece a: BlogsCol
El Acer Aspire Timeline 1810T fue presentado el año pasado,ahora esta nueva referencia entra en la batalla con otras marcas que ya han mejorado sus netbooks tanto en procesador, como en otras partes de su hardware. Otras de las características de este computador portátil son:
Pantalla de 11.6 pulgadas con resolución de 1366 × 768 píxeles.
Procesador Intel Core i5-520UM a 1.06GHz con la posibilidad de llegar a 1.86GHz en la opción Turbo Boost.
3 Puertos USB, uno HDMI, S/PDIF, y Ethernet Gigabit.
Conectividad WiFi 802.11 b/g/n y en opción Bluetooth 2.1 + EDR.
Batería de 6 celdas que rinde 8 horas de autonomía.
Algunos modelos vendrán con tecnología 3G, dependiendo a el país.
Esperemos que Acer próximamente dará a conocer las fechas de venta, los precios y demás especificaciones físicas.
Queridos lectores este articulo es una copia de este: Lo nuevo de Acer: Acer Aspire Timeline 1830T
Pertenece a: BlogsCol
jueves, 8 de julio de 2010
Artículos destacados: Nueva ePad DreamBook आ१० Nueva ePad DreamBook आ१० Gateway presenta su nueva netbook ळ्ट२३ Gateway presenta su नु
Artículos destacados:
Corsair Flash Survivor GTR, el más extremo
La memoria más resistente que hayas podido encontrar -Flash Survivor GTR- solo para sobrevivientes...
Sony Ericson X10 no contará con capacidades multitouch
El problema radica tanto en el software como en el hardware, por lo que Sony Ericsson X10 nunca podrá ofrecer esta funcionalidad.
Leer más0 comentarios
HP EliteBook 8740w, la estación de trabajo portátil
HP lanza las nuevas versiones de la ya conocida portátil EliteBook 8740w, uno de los monstruos de 17 pulgadas que nos permiten tener a la mano y en el lugar que deseemos verdaderas estaciones de trabajo...
Leer más0 comentarios
Nueva dynabook Satélite AXW con 3D
La compañía Toshiba, anuncia un nuevo modelo de portátil correspondiente a la línea dynabook Satelite. Se trata del modelo AXW/90MW que llega con capacidad 3D al precio de 259,800 yenes (aproximadamente unos 2300 euros).
La portátil viene con una pantalla LCD de 15.6, incluyendo como extra gafas 3D y mando a control remoto. De procesador Intel Core i7-740QM, contando con 4GB de memoria, RAM, disco duro de 640GB, y una tarjeta gráfica GeForce GTS 350. Además, dispone de grabadora de discos Blu-ray.
Publicado por Alfredo Zavala en Ordenadores Portatiles
Nueva ePad DreamBook ALa empresa australiana Pionner lanza su nueva tableta ePad DreamBook A10 con Windows 7. La DreamBook cuenta con un LED de 10,1 pulgadas WSVGA pantalla táctil con una resolución de 1024 x 600 píxeles. Este posee 2 GB de RAM DDR3, un disco (SSD) de 8 GB a 32 GB, Ethernet, lector de tarjetas microSD, una cámara de 1,3 megapíxeles, HDMI, salida de auriculares, micrófono, un mini puerto USB y dos puertos USB 2.0.
La A10 DreamBook ePad está disponible por 525 dólares.
Publicado por Alfredo Zavala en Otros
Gateway presenta su nueva netbook LT23
Gateway ha anunciado el lanzamiento de su netbook LT23. Su diseño se destaca por tener un aspecto estilizado desde todos los ángulos, y hay versiones disponibles en colores perla y negro. La LT23 tiene una pantalla LED retro iluminada de 10.1 pulgadas con resolución máxima de 1024 x 600 píxeles. Sus medidas sorprenden, dado que sólo tiene 1 pulgada de grosor y pesa 2.76 libras.
La potencia de éste ordenador portátil se apoya en un procesador Intel Atom N450, con sistema multitarea y batería de larga duración con seis celdas (8 horas aproximadamente). Por otro lado, cuenta con características personalizadas para las redes sociales, como teclas de acceso directo a Facebook, Youtube o Flickr.
Otras características del netbook son webcam de alta definición integrada, acceso de red Wi-Fi 802.11 b/g/, y posibilidad de realizar llamadas VOIP. Su memoria es de 1GB, y su disco duro de 250GB, contando además con tres puertos USB 2.0, acceso Ethernet, y VGA, así como lector de tarjetas multiformato. Su precio será de 330 dólares norteamericanos.
Ordenadores Portatiles
Cooler Master presenta su nuevo refrigerador de CPU: V6
La empresa Cooler Master, ha diseñado un nuevo modelo llamado V6, recién anunciado, que hace uso de seis heatpipes en forma de “V” y aletas de aluminio asimétricas para proporcionar el máximo rendimiento sin importar la temperatura.
El refrigerador ce CPU V6 de Cooler Master mide 131.5 x 120 x 165 mm, pesa 805 gramos, tiene una base de cobre en contacto directo con los heatpipes, y está equipado con un ventilador de 120 mm que incluye LED rojo, trabaja en un intervalo de 800 a 2200 RPM (revoluciones por minuto) y cuenta con un nivel sonoro de entre 15 y 38 dB.
Será compatible con todos los sistemas actuales, entre ellos, aquellos que tengan Intel LGA 775/1156/1366 y AMD AM2/AM2+/AM3.
Nuevo disipador: Thermalright HR-02
La conocida empresa Thermalright, uno de los mejores fabricantes en coolers y soluciones de enfriamiento hace conocimiento de su nuevo modelo Thermalright HR-02, un disipador de imponente presencia.
El Thermalright HR-02, es un disipador de una sola pieza cuyas dimensiones son de 110 x 140 x 160 mm con un peso de 1.1 kg, además se construye sobre una fina capa base de cobre recubierto de níquel y seis heatpipes para conducir el calor a través de 32 placas de aluminio.
Es compatible con los procesadores Intel con el zócalo LGA1136/1156/775, y se pueden adosar 2 ventiladores de 120 o 140 mm, y en la entrega incluye una serie de enlaces para la posibilidad de instalar dos 120 o 140 mm, y se incluye la pasta térmica Thermalright Chill Factor III.
Sony incorpora procesadores AMD
Después de tener mucho tiempo incorporando exclusivamente procesadores Intel en sus portátiles, el conocido fabricante Sony volverá a instalar procesadores AMD en sus equipos Sony VAIO, los cuales se acoplaran a la reciente plataforma AMD Danube, que incluye procesador y chipset AMD.
En primera instancia Sony ofrecerá dos modelos, el primero de ellos el Sony VAIO EE25FX un equipo de 15.6” -1366×768- que incorporará entre sus principales características un procesador AMD Athlon II X2 P320 de 2.1Ghz, 4GB de RAM, 320GB de disco duro y gráficos ATI Mobility Radeon HD 4250, todo esto acompañado de una unidad Blu-Ray y un precio de 650 dólares.
Nueva carcasa de SilverStone, Fortress FT02
SilverStone lanza al mercado de manera exclusiva y limitada, la innovadora caja con estructura de aluminio de una sola pieza, dotada con sistema de montaje de la placa base con rotación en ángulo de 90 y un interior pintado en un rojo intenso, llamada Fortress FT02.
El chasis de estructura unibody -cuerpo de acero de una sola pieza de 4.5 mm- retoma la perfecta combinación de su diseño interior, ahora en impactante rojo, con un sistema de refrigeración sin precedentes y su diseño exterior elegante y atractivo con las ventajas del montaje de la placa base con rotación de 90.
Este robusto chasis de SilverStone, con unas medidas de 211 mm x 497 mm x 616 mm, también cuenta con soporte RAD para poder emplear refrigeración líquida. El Fortress FT02 ofrece las mejores prestaciones en su categoría, con hasta 5 bahías externas para discos duros de 5.25”, 5 internas para unidades de 3.5” y una adicional para discos duros de 2.5”. Ya está disponible por un precio recomendado de 227 euros.
Nuevo refrigerador de CPU: Venomous X Black
Thermalright anunció su nueva solución para enfriar los procesadores con un modelo completamente de color negro, el Venomous X Black, un refrigerador para CPU que mide 127 x 63 x 160 mm, pesa 755 gramos y soporta procesadores Intel LGA 775; 1156; 1366 y AMD AM2/AM3.
El Thermalright Venomous X Black cuenta con un diseño de torre, tiene 47 aletas en total, seis heatpipes en forma de "U" unidos a las aletas y a la base por medio de soldaduras, y su base en contacto directo con los heatpipes presenta un impresionante pulido para tener la máxima superficie en contacto con el procesador y así ofrecer la máxima eficiencia. Es lanzada al mercado con un precio alrededor de los 55 euros.
Corsair Flash Survivor GTR, el más extremo
La memoria más resistente que hayas podido encontrar -Flash Survivor GTR- solo para sobrevivientes...
Sony Ericson X10 no contará con capacidades multitouch
El problema radica tanto en el software como en el hardware, por lo que Sony Ericsson X10 nunca podrá ofrecer esta funcionalidad.
Leer más0 comentarios
HP EliteBook 8740w, la estación de trabajo portátil
HP lanza las nuevas versiones de la ya conocida portátil EliteBook 8740w, uno de los monstruos de 17 pulgadas que nos permiten tener a la mano y en el lugar que deseemos verdaderas estaciones de trabajo...
Leer más0 comentarios
Nueva dynabook Satélite AXW con 3D
La compañía Toshiba, anuncia un nuevo modelo de portátil correspondiente a la línea dynabook Satelite. Se trata del modelo AXW/90MW que llega con capacidad 3D al precio de 259,800 yenes (aproximadamente unos 2300 euros).
La portátil viene con una pantalla LCD de 15.6, incluyendo como extra gafas 3D y mando a control remoto. De procesador Intel Core i7-740QM, contando con 4GB de memoria, RAM, disco duro de 640GB, y una tarjeta gráfica GeForce GTS 350. Además, dispone de grabadora de discos Blu-ray.
Publicado por Alfredo Zavala en Ordenadores Portatiles
Nueva ePad DreamBook ALa empresa australiana Pionner lanza su nueva tableta ePad DreamBook A10 con Windows 7. La DreamBook cuenta con un LED de 10,1 pulgadas WSVGA pantalla táctil con una resolución de 1024 x 600 píxeles. Este posee 2 GB de RAM DDR3, un disco (SSD) de 8 GB a 32 GB, Ethernet, lector de tarjetas microSD, una cámara de 1,3 megapíxeles, HDMI, salida de auriculares, micrófono, un mini puerto USB y dos puertos USB 2.0.
La A10 DreamBook ePad está disponible por 525 dólares.
Publicado por Alfredo Zavala en Otros
Gateway presenta su nueva netbook LT23
Gateway ha anunciado el lanzamiento de su netbook LT23. Su diseño se destaca por tener un aspecto estilizado desde todos los ángulos, y hay versiones disponibles en colores perla y negro. La LT23 tiene una pantalla LED retro iluminada de 10.1 pulgadas con resolución máxima de 1024 x 600 píxeles. Sus medidas sorprenden, dado que sólo tiene 1 pulgada de grosor y pesa 2.76 libras.
La potencia de éste ordenador portátil se apoya en un procesador Intel Atom N450, con sistema multitarea y batería de larga duración con seis celdas (8 horas aproximadamente). Por otro lado, cuenta con características personalizadas para las redes sociales, como teclas de acceso directo a Facebook, Youtube o Flickr.
Otras características del netbook son webcam de alta definición integrada, acceso de red Wi-Fi 802.11 b/g/, y posibilidad de realizar llamadas VOIP. Su memoria es de 1GB, y su disco duro de 250GB, contando además con tres puertos USB 2.0, acceso Ethernet, y VGA, así como lector de tarjetas multiformato. Su precio será de 330 dólares norteamericanos.
Ordenadores Portatiles
Cooler Master presenta su nuevo refrigerador de CPU: V6
La empresa Cooler Master, ha diseñado un nuevo modelo llamado V6, recién anunciado, que hace uso de seis heatpipes en forma de “V” y aletas de aluminio asimétricas para proporcionar el máximo rendimiento sin importar la temperatura.
El refrigerador ce CPU V6 de Cooler Master mide 131.5 x 120 x 165 mm, pesa 805 gramos, tiene una base de cobre en contacto directo con los heatpipes, y está equipado con un ventilador de 120 mm que incluye LED rojo, trabaja en un intervalo de 800 a 2200 RPM (revoluciones por minuto) y cuenta con un nivel sonoro de entre 15 y 38 dB.
Será compatible con todos los sistemas actuales, entre ellos, aquellos que tengan Intel LGA 775/1156/1366 y AMD AM2/AM2+/AM3.
Nuevo disipador: Thermalright HR-02
La conocida empresa Thermalright, uno de los mejores fabricantes en coolers y soluciones de enfriamiento hace conocimiento de su nuevo modelo Thermalright HR-02, un disipador de imponente presencia.
El Thermalright HR-02, es un disipador de una sola pieza cuyas dimensiones son de 110 x 140 x 160 mm con un peso de 1.1 kg, además se construye sobre una fina capa base de cobre recubierto de níquel y seis heatpipes para conducir el calor a través de 32 placas de aluminio.
Es compatible con los procesadores Intel con el zócalo LGA1136/1156/775, y se pueden adosar 2 ventiladores de 120 o 140 mm, y en la entrega incluye una serie de enlaces para la posibilidad de instalar dos 120 o 140 mm, y se incluye la pasta térmica Thermalright Chill Factor III.
Sony incorpora procesadores AMD
Después de tener mucho tiempo incorporando exclusivamente procesadores Intel en sus portátiles, el conocido fabricante Sony volverá a instalar procesadores AMD en sus equipos Sony VAIO, los cuales se acoplaran a la reciente plataforma AMD Danube, que incluye procesador y chipset AMD.
En primera instancia Sony ofrecerá dos modelos, el primero de ellos el Sony VAIO EE25FX un equipo de 15.6” -1366×768- que incorporará entre sus principales características un procesador AMD Athlon II X2 P320 de 2.1Ghz, 4GB de RAM, 320GB de disco duro y gráficos ATI Mobility Radeon HD 4250, todo esto acompañado de una unidad Blu-Ray y un precio de 650 dólares.
Nueva carcasa de SilverStone, Fortress FT02
SilverStone lanza al mercado de manera exclusiva y limitada, la innovadora caja con estructura de aluminio de una sola pieza, dotada con sistema de montaje de la placa base con rotación en ángulo de 90 y un interior pintado en un rojo intenso, llamada Fortress FT02.
El chasis de estructura unibody -cuerpo de acero de una sola pieza de 4.5 mm- retoma la perfecta combinación de su diseño interior, ahora en impactante rojo, con un sistema de refrigeración sin precedentes y su diseño exterior elegante y atractivo con las ventajas del montaje de la placa base con rotación de 90.
Este robusto chasis de SilverStone, con unas medidas de 211 mm x 497 mm x 616 mm, también cuenta con soporte RAD para poder emplear refrigeración líquida. El Fortress FT02 ofrece las mejores prestaciones en su categoría, con hasta 5 bahías externas para discos duros de 5.25”, 5 internas para unidades de 3.5” y una adicional para discos duros de 2.5”. Ya está disponible por un precio recomendado de 227 euros.
Nuevo refrigerador de CPU: Venomous X Black
Thermalright anunció su nueva solución para enfriar los procesadores con un modelo completamente de color negro, el Venomous X Black, un refrigerador para CPU que mide 127 x 63 x 160 mm, pesa 755 gramos y soporta procesadores Intel LGA 775; 1156; 1366 y AMD AM2/AM3.
El Thermalright Venomous X Black cuenta con un diseño de torre, tiene 47 aletas en total, seis heatpipes en forma de "U" unidos a las aletas y a la base por medio de soldaduras, y su base en contacto directo con los heatpipes presenta un impresionante pulido para tener la máxima superficie en contacto con el procesador y así ofrecer la máxima eficiencia. Es lanzada al mercado con un precio alrededor de los 55 euros.
Definición de Hardware
En computación, término inglés que hace referencia a cualquier componente físico tecnológico, que trabaja o interactúa de algún modo con la computadora. No sólo incluye elementos internos como el disco duro, CD-ROM, disquetera, sino que también hace referencia al cableado, circuitos, gabinete, etc. E incluso hace referencia a elementos externos como la impresora, el mouse, el teclado, el monitor y demás periféricos.
El hardware contrasta con el software, que es intangible y le da lógica al hardware (además de ejecutarse dentro de éste).
El hardware no es frecuentemente cambiado, en tanto el software puede ser creado, borrado y modificado sencillamente. (Excepto el firmware, que es un tipo de software que raramente es alterado).
Hardware típico de una computadora
El típico hardware que compone una computadora personal es el siguiente:
• Su chasis o gabinete
• La placa madre, que contiene: CPU, cooler, RAM, BIOS, buses (PCI, USB, HyperTransport, CSI, AGP, etc)
• Fuente de alimentación
• Controladores de almacenamiento: IDE, SATA, SCSI
• Controlador de video
• Controladores del bus de la computadora (paralelo, serial, USB, FireWire), para conectarla a periféricos
• Almacenamiento: disco duro, CD-ROM, disquetera, ZIP driver y otros
• Tarjeta de sonido
• Redes: módem y tarjeta de red
El hardware también puede incluir componentes externos como:
• Teclado
• Mouse, trackballs
• Joystick, gamepad, volante
• Escáner, webcam
• Micrófono, parlante
• Monitor (LCD, o CRT)
• Impresora
Distintas clasificaciones del hardware
Clasificación por la funcionalidad del hardware
* Hardware básico: dispositivos necesarios para iniciar la computadora. Los más básicos son la placa madre, la fuente de alimentación, el microprocesador y la memoria. Se podrían incluir componentes como monitor y teclado, aunque no son estrictamente básicos.
* Hardware complementario: aquellos dispositivos que complementan a la computadora, pero que no son fundamentales para su funcionamiento, como ser, impresora, unidades de almacenamiento, etc.
Clasificación por la ubicación del hardware
* Periféricos (componentes externos): dispositivos externos a la computadora. Ver periférico
* Componentes internos: dispositivos que son internos al gabinete de la computadora
* Puertos: conectan los periféricos con los componentes internos
Clasificación por el flujo de información del hardware
* Periféricos de salida: monitor, impresora, etc.
* Periféricos de entrada: teclado, mouse, etc.
* Periféricos/dispositivos de almacenamiento: disco duro, memorias, etc.
* Periféricos de comunicación: módem, puertos, etc.
* Dispositivos de procesamiento: CPU, microprocesador, placa madre, etc.
El hardware contrasta con el software, que es intangible y le da lógica al hardware (además de ejecutarse dentro de éste).
El hardware no es frecuentemente cambiado, en tanto el software puede ser creado, borrado y modificado sencillamente. (Excepto el firmware, que es un tipo de software que raramente es alterado).
Hardware típico de una computadora
El típico hardware que compone una computadora personal es el siguiente:
• Su chasis o gabinete
• La placa madre, que contiene: CPU, cooler, RAM, BIOS, buses (PCI, USB, HyperTransport, CSI, AGP, etc)
• Fuente de alimentación
• Controladores de almacenamiento: IDE, SATA, SCSI
• Controlador de video
• Controladores del bus de la computadora (paralelo, serial, USB, FireWire), para conectarla a periféricos
• Almacenamiento: disco duro, CD-ROM, disquetera, ZIP driver y otros
• Tarjeta de sonido
• Redes: módem y tarjeta de red
El hardware también puede incluir componentes externos como:
• Teclado
• Mouse, trackballs
• Joystick, gamepad, volante
• Escáner, webcam
• Micrófono, parlante
• Monitor (LCD, o CRT)
• Impresora
Distintas clasificaciones del hardware
Clasificación por la funcionalidad del hardware
* Hardware básico: dispositivos necesarios para iniciar la computadora. Los más básicos son la placa madre, la fuente de alimentación, el microprocesador y la memoria. Se podrían incluir componentes como monitor y teclado, aunque no son estrictamente básicos.
* Hardware complementario: aquellos dispositivos que complementan a la computadora, pero que no son fundamentales para su funcionamiento, como ser, impresora, unidades de almacenamiento, etc.
Clasificación por la ubicación del hardware
* Periféricos (componentes externos): dispositivos externos a la computadora. Ver periférico
* Componentes internos: dispositivos que son internos al gabinete de la computadora
* Puertos: conectan los periféricos con los componentes internos
Clasificación por el flujo de información del hardware
* Periféricos de salida: monitor, impresora, etc.
* Periféricos de entrada: teclado, mouse, etc.
* Periféricos/dispositivos de almacenamiento: disco duro, memorias, etc.
* Periféricos de comunicación: módem, puertos, etc.
* Dispositivos de procesamiento: CPU, microprocesador, placa madre, etc.
martes, 22 de junio de 2010
Microsoft ofrecerá Family Packs del Sistema Operativo Windows 7 Queridos lectores este articulo es una copia de este: Microsoft ofrecerá Family Pack
Microsoft ofrecerá licencias Family Pack para el nuevo Sistema Operativo Windows 7 que va hacer lanzado en octubre del 2009. Esto le dara la libertad de que un usuario tiene mas de un computador en su casa, pueda instalar el Windows 7 en tres computadores con la misma licencia.
Este Family Pack de Windows 7 solamente sera ofrecido en la versión del Home Premiun, es decir que las versiones Bussines y Ultime no podrán acogerse a esta oferta.
Esto se debe a las constantes reclamos de los usuarios de Microsoft que tienen más de un computador en su hogar y debian comprar más de una copia del Sistema Operativo, ademas de las actualizaciones que se iban realizando constantemente.
Queridos lectores este articulo es una copia de este: Microsoft ofrecerá Family Packs del Sistema Operativo Windows 7
Pertenece a: BlogsCol
Este Family Pack de Windows 7 solamente sera ofrecido en la versión del Home Premiun, es decir que las versiones Bussines y Ultime no podrán acogerse a esta oferta.
Esto se debe a las constantes reclamos de los usuarios de Microsoft que tienen más de un computador en su hogar y debian comprar más de una copia del Sistema Operativo, ademas de las actualizaciones que se iban realizando constantemente.
Queridos lectores este articulo es una copia de este: Microsoft ofrecerá Family Packs del Sistema Operativo Windows 7
Pertenece a: BlogsCol
Sistemas de Cómputo
Presentación
Conocer la evolución histórica de los instrumentos de cómputo, es sin duda una parte
fundamental para comprender el avance tecnológico actual. Es muy importante entender
el funcionamiento de los equipos de cómputo, los distintos tipos de equipo que existen, las
partes que lo integran, así como los términos utilizados en el mundo de la informática,
esto familiarizará al alumno con este entorno y le dará confianza en la utilización de la
computadora.
A través de esta unidad se pretende que el alumno conozca de forma general las bases
esenciales, capacidades y lim itaciones de los equipos de cómputo, presentando una explicación
general de la forma de trabajar de ellos para que, posteriormente en las siguientes
unidades se le introduzca de forma práctica en el uso de la computadora.
Objetivos
• Describir la evolución histórica y permanente de los instrumentos de cómputo.
• Identificar los elementos, estructura y funcionamiento de un sistema de cómputo.
• Distinguir entre Hardware y Software.
Contenidos temáticos
— El proceso de cómputo.
— Evolución de los instrumentos de cómputo.
— Hardware (soporte físico).
— Software
.
Actividades de aprendizaje
1. Las actividades que se señalan en cada unidad, son recomendaciones didácticas
para facilitar el proceso de enseñanza - aprendizaje. Estas recomendaciones se
pueden llevar a la práctica de acuerdo con el material y el equipo con que cuenten
en cada escuela.
2. La historia de la computación es uno de los temas más utilizados por algunos maestros
para aburrir a los alumnos con una larga lista de hechos y datos que no tendrán
utilidad significativa para el alumno en el uso de la computadora, por ese motivo se
recomienda no perder de vista cuál es el objetivo que se pretende alcanzar en la
primera unidad.
3. Se pretende que el alumno conozca la rápida evolución de los sistemas de cómputo
en su corta historia y con esto comprenda la necesidad de adquirir conocimientos
que no se conviertan en obsoletos con el avance de la tecnología, sino más bien
busque la comprensión de los principios con los que trabajan las aplicaciones más
comunes y así en el momento que se encuentre con una nueva versión del programa
sea capaz de aplicar sus conocimientos para descubrir las novedades que pueda
incluir el paquete.
4. Por este motivo para la exposición de la historia de la computación se recomienda el
uso de un audiovisual o filminas y la ayuda de un esquema cronológico, para estas
actividades sólo se recomienda utilizar dos horas.
5. No es raro que la mayoría de nuestros alumnos se imaginen que una computadora
es una caja mágica, que es super - inteligente y que ellos sólo necesitan encenderla
para que ella trabaje por sí misma. Es por eso que se sugiere que se abra una computadora
para observar las tarjetas que tiene adentro y como se encuentra conectado
físicamente el equipo para que el alumno comprenda como trabaja. Conviene
explicar además que si el equipo no tiene software no puede hacer nada esto se
puede apreciar con una computadora que no tenga disco duro y a la que no se le
ponga un disco de arranque para que el alumno comprenda la importancia del Sistema
Operativo.
6. Es recomendable introducir a los alumnos en la utilización de la calculadora como
un instrumento que facilita el trabajo de realizar gran cantidad de operaciones y que
remite al alumno en la parte principal que es el razonamiento de los problemas.
7. En esta unidad conviene también dar a los alumnos una breve explicación de lo que
es INTERNET y para que se utiliza, (navegadores, correo electrónico, transferencia
de archivos etc.). Además el tipo de conexión que se puede establecer para accesar
INTERNET.
8. Otro punto que se puede tratar al abordar el tema de INTERNET, es explicar muy
brevemente lo que es una red y sus características principales, teniendo en cuenta
que la mayoría de las preparatorias ya cuenta con una red instalada en el laboratorio
de cómputo.
Conocer la evolución histórica de los instrumentos de cómputo, es sin duda una parte
fundamental para comprender el avance tecnológico actual. Es muy importante entender
el funcionamiento de los equipos de cómputo, los distintos tipos de equipo que existen, las
partes que lo integran, así como los términos utilizados en el mundo de la informática,
esto familiarizará al alumno con este entorno y le dará confianza en la utilización de la
computadora.
A través de esta unidad se pretende que el alumno conozca de forma general las bases
esenciales, capacidades y lim itaciones de los equipos de cómputo, presentando una explicación
general de la forma de trabajar de ellos para que, posteriormente en las siguientes
unidades se le introduzca de forma práctica en el uso de la computadora.
Objetivos
• Describir la evolución histórica y permanente de los instrumentos de cómputo.
• Identificar los elementos, estructura y funcionamiento de un sistema de cómputo.
• Distinguir entre Hardware y Software.
Contenidos temáticos
— El proceso de cómputo.
— Evolución de los instrumentos de cómputo.
— Hardware (soporte físico).
— Software
.
Actividades de aprendizaje
1. Las actividades que se señalan en cada unidad, son recomendaciones didácticas
para facilitar el proceso de enseñanza - aprendizaje. Estas recomendaciones se
pueden llevar a la práctica de acuerdo con el material y el equipo con que cuenten
en cada escuela.
2. La historia de la computación es uno de los temas más utilizados por algunos maestros
para aburrir a los alumnos con una larga lista de hechos y datos que no tendrán
utilidad significativa para el alumno en el uso de la computadora, por ese motivo se
recomienda no perder de vista cuál es el objetivo que se pretende alcanzar en la
primera unidad.
3. Se pretende que el alumno conozca la rápida evolución de los sistemas de cómputo
en su corta historia y con esto comprenda la necesidad de adquirir conocimientos
que no se conviertan en obsoletos con el avance de la tecnología, sino más bien
busque la comprensión de los principios con los que trabajan las aplicaciones más
comunes y así en el momento que se encuentre con una nueva versión del programa
sea capaz de aplicar sus conocimientos para descubrir las novedades que pueda
incluir el paquete.
4. Por este motivo para la exposición de la historia de la computación se recomienda el
uso de un audiovisual o filminas y la ayuda de un esquema cronológico, para estas
actividades sólo se recomienda utilizar dos horas.
5. No es raro que la mayoría de nuestros alumnos se imaginen que una computadora
es una caja mágica, que es super - inteligente y que ellos sólo necesitan encenderla
para que ella trabaje por sí misma. Es por eso que se sugiere que se abra una computadora
para observar las tarjetas que tiene adentro y como se encuentra conectado
físicamente el equipo para que el alumno comprenda como trabaja. Conviene
explicar además que si el equipo no tiene software no puede hacer nada esto se
puede apreciar con una computadora que no tenga disco duro y a la que no se le
ponga un disco de arranque para que el alumno comprenda la importancia del Sistema
Operativo.
6. Es recomendable introducir a los alumnos en la utilización de la calculadora como
un instrumento que facilita el trabajo de realizar gran cantidad de operaciones y que
remite al alumno en la parte principal que es el razonamiento de los problemas.
7. En esta unidad conviene también dar a los alumnos una breve explicación de lo que
es INTERNET y para que se utiliza, (navegadores, correo electrónico, transferencia
de archivos etc.). Además el tipo de conexión que se puede establecer para accesar
INTERNET.
8. Otro punto que se puede tratar al abordar el tema de INTERNET, es explicar muy
brevemente lo que es una red y sus características principales, teniendo en cuenta
que la mayoría de las preparatorias ya cuenta con una red instalada en el laboratorio
de cómputo.
Programación de Computadores: Ayer, Hoy, Mañana
Aunque ya estamos acostumbrados a los impresionantes despliegues tecnológicos necesarios para que las modernas computadoras personales nos ayuden, pocas personas conocen cómo se logra que estas máquinas puedan funcionar.
Por un lado tenemos el equipo electrónico, compuesto de pastillas (chips) hechos de materiales especialísimos, llamados superconductores. La electrónica ha avanzado meteóricamente en los últimos veinte años, hasta el punto de que ahora cada dos años esperamos que la memoria de computador aumente al doble su capacidad, al mismo tiempo que se reduce a la mitad su precio.
Por otro lado tenemos que el computador puede ser programado. Esta cualidad ha permitido que el computador, a diferencia de otras máquinas, pueda ser aplicado a una gran diversidad de actividades. Veamos por qué.
Mediante un programa es posible hacer que el mismo computador sirva para muy diferentes propósitos. La programación permite reutilizar el mismo equipo en diferentes aplicaciones. Lo más usual es que los computadores personales modernos se usen como procesadores de palabras y como hojas de cálculo. Pero además se usan para jugar o para crear nuevos programas. Su aplicación más productiva es en el mundo de los negocios, en donde el computador puede efectuar muchas de las tareas burocráticas necesarias en nuestras sociedades modernas. Es esta aplicación la que recibe el nombre genérico de Sistemas de Información.
¿Cómo programamos un computador? Mediante un lenguaje de programación. Estos lenguajes, que generalmente son muy secos y parsimoniosos, permiten crear un programa que al ser cargado en la memoria del computador produce los resultados que un usuario de la máquina necesita. Por ejemplo, escribo este artículo usando un programa (llamado procesador de palabras) que está cargado en la memoria de la máquina. Este programa fue escrito usando el lenguaje de computador Assembler 8088, con partes algunas escritas en el lenguaje C.
El reto principal que encaramos los programadores es lograr que los grandes adelantos en electrónica se traduzcan en programas cada vez mejores. Desgraciadamente, no hemos tenido mucho éxito, por muy diversas razones. (Cada vez es más caro contratar a un programador, mientras que es más barato comprar equipo: el "fracaso" lo es sólo cuando comparamos los avances en programación respecto a los avances en manufactura de computadores).
Tal vez la más importante es que en programación todavía no hemos podido reutilizar completamente programas, o sus partes. A diferencia del mundo de los semiconductores, el universo de discurso del programador es mucho más ostil y diverso: al crear sistemas de información el programador debe lidiar con personas y modos de ser diferentes. Después de todo, a ningún gerente puede parecerle bien que el programdor le diga cómo debe ser su empresa, lo que obliga al programador a hacer un programa especializado para cada empresa, y también para cada gerente.
Pero ya hemos sido capaces de categorizar la mayoría de las necesidades informáticas de una empresa. Para esto hemos creado las herramientas de programación de Cuarta Generación, que permiten, en el 90% de los casos, producir los programas para un sistema de información de una forma expedita y correcta. Ejemplos de lenguajes de cuarta generación los son Paradox y RBase, en el mundo de las micro computadores, o LINC y DMS en el rango de las mega máquinas.
Podemos decir entonces que el problema de los sistemas de información está "suficientemente" resuelto. Todavía no es posible que las computadoras ayuden al gerente en todo lo que necesita, pero en general se obtienen buenos resultados.
Sin embargo, las aplicaciones de computadores no se limitan únicamente a este campo. Existen una gran cantidad de desafíos tecnológicos que no han sido adecuadamente resueltos. En los últimos veinte años dos tipos de tecnología para programación han sido desarrolladas: programación lógica y programación por objetos.
La programación lógica tiene sus raíces en el Cálculo de Predicados, que es una teoría matemática que permite, entre otras cosas, lograr que un computador pueda hacer deducciones inteligentes. El ejemplo clásico es el de Sócrates, que es humano, y como todo humano es mortal, entonces Sócrates debe ser mortal. En programación lógica, este programa se escribe así:
[Humano(x) -> Mortal(x), Humano(Sócrates)] ==> Mortal(Sócrates)
Japón asustó al mundo desarrollado hace unos años con su proyecto de la Quinta Generación, que usa lenguajes de programación lógica para lograr grandes avances en el campo de la Inteligencia Artificial aplicada. La verdad es que han logrado grandes avances, pero no tan impresionantes como los que uno espera. (Todavía recuerdo una de las películas de la serie de Viaje a las Estrellas, en que Scotty toma el "ratón" (mouse) de una computadora MacIntosh y le habla, con resultado nulo: las computadoras todavía no hablan, ni tampoco pueden ver. Con costos algunas tienen patas para caminar...).
La verdad es que lenguajes de programación lógica son lenguajes de gran utilidad en laboratorios de investigación, pero no han encontrado todavía muchos seguidores en las industrias.
La otra moda en programación de computadores es la programación por objetos, que es descrita por sus seguidores como el primer intento exitoso para reutilizar componentes de programas. Desgraciadamente, en ésto de los lenguajes los programadores nos volvemos fanáticos. Lo digo con conocimiento de causa, pues he sido fanático de varios lenguajes a través de mi vida: Fortran, Pascal, Prolog y ahora C++. Mi experiencia me ha demostrado que no existe una panacea, sólo soluciones que pueden ser aplicadas a problemas específicos, o a una gama de problemas específicos.
La programación por objetos (conocida como OOP) nació hace más de veinte años en el lenguaje Simula, que sirve para simular sistemas que, por su complejidad, no pueden ser analizados matemáticamente. Por ejemplo, la simulación se usa mucho para determinar el efecto que tendría el poner o quitar un semáforo en una calle, o el sustituir un puente por una rotonda.
Además, otro objetivo de la OOP es crear programas altamente reutilizables, hasta el punto de que se habla de "chips" de programación. La electrónica ha progresado mucho gracias a la reutilización de componentes, lo que ha llevado a los programadores a pensar que el mejorar el de reutilización de componentes de programas reditará iguales dividendos al construir nuevos programas.
La gran desventaja de estas nuevas tecnologías es que es muy difícil que sean asimiladas. Como docente dedicado a la enseñanza de la programación, he encontrado gran reticencia en los programadores de adoptar esta nueva tecnología, pues, después de todo, con las herramientas actuales ya pueden hacer su trabajo. Lo que la programación por objetos promete es aumentar el grado de modularización de un sistema computacional, lo que es un requisito indispensable para dominar la complejidad de los nuevos programas. Sin programación por objetos será cada vez más difícil producir programas.
Lo malo es que la programación por objetos no es una solución total. Es relativamente fácil encontrar ejemplos en que OOP no es solución. Lo que sucede es que la complejidad de los problemas es cada vez mayor, lo que exige cada vez mejores herramientas para resolverlos.
Este es el el dilema de nuestro mundo actual: el progreso exige cada vez más realizaciones tecnológicas y los avances tecnológicos son como la plata: nunca alcanzan.
La tendencia actual es ha crear cada vez más común lenguajes especializados para cada aplicación. Por ejemplo, la primera hoja de cálculo no tenía capacidad de graficación: hacer gráficos no es nada fácil, a menos que uno cuente con un lenguaje adecuado para ello. Las hojas de cálculo más recientes cuentan con un sofisticado lenguaje para producir gráficos.
¿Qué nos depara el futuro? En el futuro contaremos además con componentes computacionales inteligentes que nos permitan comunicarnos más fluidamente con los computadores. Llegará el día en que podamos decirle a la máquina: "mirá, alistame una cena para 25 personas, y contratame a un buen conjunto. Fijate, eso sí, en que algunos no pueden comer chancho, y no se te olvide que el postre tenga gelatina roja. Ah, mirá: no se te olvide hacer las invitaciones y las llamadas por teléfono".
Más adelante en el futuro, veremos máquinas que puedan autoprogramarse junto a otras máquinas. Esto permitirá crear máquinas que puedan trabajar junto a otras en forma armoniosa. Cuando una nueva máquina llegue, simplemente hablará con las viejas para ponerse de acuerdo en cómo pueden cooperar todas. Y también cada máquina sabrá cuando necesite reparación, o cómo repararse sóla.
En ese mundo utópico futuro, ¿qué haremos nosotros? Pues nacer, crecer, reproducirnos, divertirnos y morir, como Dios manda.
La reutilización es un concepto básico para las mejoras tecnológicas; los ingenieros siempre decimos que no debemos "reinventar la rueda". O sea que los nuevos avances tecnológicos descansan sobre los viejos. La nueva tecnología debe mejorar a la vieja, haciendo uso de los principios básicos que ya han sido descubiertos.
Por un lado tenemos el equipo electrónico, compuesto de pastillas (chips) hechos de materiales especialísimos, llamados superconductores. La electrónica ha avanzado meteóricamente en los últimos veinte años, hasta el punto de que ahora cada dos años esperamos que la memoria de computador aumente al doble su capacidad, al mismo tiempo que se reduce a la mitad su precio.
Por otro lado tenemos que el computador puede ser programado. Esta cualidad ha permitido que el computador, a diferencia de otras máquinas, pueda ser aplicado a una gran diversidad de actividades. Veamos por qué.
Mediante un programa es posible hacer que el mismo computador sirva para muy diferentes propósitos. La programación permite reutilizar el mismo equipo en diferentes aplicaciones. Lo más usual es que los computadores personales modernos se usen como procesadores de palabras y como hojas de cálculo. Pero además se usan para jugar o para crear nuevos programas. Su aplicación más productiva es en el mundo de los negocios, en donde el computador puede efectuar muchas de las tareas burocráticas necesarias en nuestras sociedades modernas. Es esta aplicación la que recibe el nombre genérico de Sistemas de Información.
¿Cómo programamos un computador? Mediante un lenguaje de programación. Estos lenguajes, que generalmente son muy secos y parsimoniosos, permiten crear un programa que al ser cargado en la memoria del computador produce los resultados que un usuario de la máquina necesita. Por ejemplo, escribo este artículo usando un programa (llamado procesador de palabras) que está cargado en la memoria de la máquina. Este programa fue escrito usando el lenguaje de computador Assembler 8088, con partes algunas escritas en el lenguaje C.
El reto principal que encaramos los programadores es lograr que los grandes adelantos en electrónica se traduzcan en programas cada vez mejores. Desgraciadamente, no hemos tenido mucho éxito, por muy diversas razones. (Cada vez es más caro contratar a un programador, mientras que es más barato comprar equipo: el "fracaso" lo es sólo cuando comparamos los avances en programación respecto a los avances en manufactura de computadores).
Tal vez la más importante es que en programación todavía no hemos podido reutilizar completamente programas, o sus partes. A diferencia del mundo de los semiconductores, el universo de discurso del programador es mucho más ostil y diverso: al crear sistemas de información el programador debe lidiar con personas y modos de ser diferentes. Después de todo, a ningún gerente puede parecerle bien que el programdor le diga cómo debe ser su empresa, lo que obliga al programador a hacer un programa especializado para cada empresa, y también para cada gerente.
Pero ya hemos sido capaces de categorizar la mayoría de las necesidades informáticas de una empresa. Para esto hemos creado las herramientas de programación de Cuarta Generación, que permiten, en el 90% de los casos, producir los programas para un sistema de información de una forma expedita y correcta. Ejemplos de lenguajes de cuarta generación los son Paradox y RBase, en el mundo de las micro computadores, o LINC y DMS en el rango de las mega máquinas.
Podemos decir entonces que el problema de los sistemas de información está "suficientemente" resuelto. Todavía no es posible que las computadoras ayuden al gerente en todo lo que necesita, pero en general se obtienen buenos resultados.
Sin embargo, las aplicaciones de computadores no se limitan únicamente a este campo. Existen una gran cantidad de desafíos tecnológicos que no han sido adecuadamente resueltos. En los últimos veinte años dos tipos de tecnología para programación han sido desarrolladas: programación lógica y programación por objetos.
La programación lógica tiene sus raíces en el Cálculo de Predicados, que es una teoría matemática que permite, entre otras cosas, lograr que un computador pueda hacer deducciones inteligentes. El ejemplo clásico es el de Sócrates, que es humano, y como todo humano es mortal, entonces Sócrates debe ser mortal. En programación lógica, este programa se escribe así:
[Humano(x) -> Mortal(x), Humano(Sócrates)] ==> Mortal(Sócrates)
Japón asustó al mundo desarrollado hace unos años con su proyecto de la Quinta Generación, que usa lenguajes de programación lógica para lograr grandes avances en el campo de la Inteligencia Artificial aplicada. La verdad es que han logrado grandes avances, pero no tan impresionantes como los que uno espera. (Todavía recuerdo una de las películas de la serie de Viaje a las Estrellas, en que Scotty toma el "ratón" (mouse) de una computadora MacIntosh y le habla, con resultado nulo: las computadoras todavía no hablan, ni tampoco pueden ver. Con costos algunas tienen patas para caminar...).
La verdad es que lenguajes de programación lógica son lenguajes de gran utilidad en laboratorios de investigación, pero no han encontrado todavía muchos seguidores en las industrias.
La otra moda en programación de computadores es la programación por objetos, que es descrita por sus seguidores como el primer intento exitoso para reutilizar componentes de programas. Desgraciadamente, en ésto de los lenguajes los programadores nos volvemos fanáticos. Lo digo con conocimiento de causa, pues he sido fanático de varios lenguajes a través de mi vida: Fortran, Pascal, Prolog y ahora C++. Mi experiencia me ha demostrado que no existe una panacea, sólo soluciones que pueden ser aplicadas a problemas específicos, o a una gama de problemas específicos.
La programación por objetos (conocida como OOP) nació hace más de veinte años en el lenguaje Simula, que sirve para simular sistemas que, por su complejidad, no pueden ser analizados matemáticamente. Por ejemplo, la simulación se usa mucho para determinar el efecto que tendría el poner o quitar un semáforo en una calle, o el sustituir un puente por una rotonda.
Además, otro objetivo de la OOP es crear programas altamente reutilizables, hasta el punto de que se habla de "chips" de programación. La electrónica ha progresado mucho gracias a la reutilización de componentes, lo que ha llevado a los programadores a pensar que el mejorar el de reutilización de componentes de programas reditará iguales dividendos al construir nuevos programas.
La gran desventaja de estas nuevas tecnologías es que es muy difícil que sean asimiladas. Como docente dedicado a la enseñanza de la programación, he encontrado gran reticencia en los programadores de adoptar esta nueva tecnología, pues, después de todo, con las herramientas actuales ya pueden hacer su trabajo. Lo que la programación por objetos promete es aumentar el grado de modularización de un sistema computacional, lo que es un requisito indispensable para dominar la complejidad de los nuevos programas. Sin programación por objetos será cada vez más difícil producir programas.
Lo malo es que la programación por objetos no es una solución total. Es relativamente fácil encontrar ejemplos en que OOP no es solución. Lo que sucede es que la complejidad de los problemas es cada vez mayor, lo que exige cada vez mejores herramientas para resolverlos.
Este es el el dilema de nuestro mundo actual: el progreso exige cada vez más realizaciones tecnológicas y los avances tecnológicos son como la plata: nunca alcanzan.
La tendencia actual es ha crear cada vez más común lenguajes especializados para cada aplicación. Por ejemplo, la primera hoja de cálculo no tenía capacidad de graficación: hacer gráficos no es nada fácil, a menos que uno cuente con un lenguaje adecuado para ello. Las hojas de cálculo más recientes cuentan con un sofisticado lenguaje para producir gráficos.
¿Qué nos depara el futuro? En el futuro contaremos además con componentes computacionales inteligentes que nos permitan comunicarnos más fluidamente con los computadores. Llegará el día en que podamos decirle a la máquina: "mirá, alistame una cena para 25 personas, y contratame a un buen conjunto. Fijate, eso sí, en que algunos no pueden comer chancho, y no se te olvide que el postre tenga gelatina roja. Ah, mirá: no se te olvide hacer las invitaciones y las llamadas por teléfono".
Más adelante en el futuro, veremos máquinas que puedan autoprogramarse junto a otras máquinas. Esto permitirá crear máquinas que puedan trabajar junto a otras en forma armoniosa. Cuando una nueva máquina llegue, simplemente hablará con las viejas para ponerse de acuerdo en cómo pueden cooperar todas. Y también cada máquina sabrá cuando necesite reparación, o cómo repararse sóla.
En ese mundo utópico futuro, ¿qué haremos nosotros? Pues nacer, crecer, reproducirnos, divertirnos y morir, como Dios manda.
La reutilización es un concepto básico para las mejoras tecnológicas; los ingenieros siempre decimos que no debemos "reinventar la rueda". O sea que los nuevos avances tecnológicos descansan sobre los viejos. La nueva tecnología debe mejorar a la vieja, haciendo uso de los principios básicos que ya han sido descubiertos.
martes, 15 de junio de 2010
Avances Tecnologicos S.R.L.
Software Factory Envía este producto a un amigo o familiar
Nombre completo (Obligatorio) Email (Obligatorio) La solución de Software Factory de AVANCES TECNOLÓGICOS, nos permite el Desarrollo de Sistemas, Mantenimiento Correctivo y Evolutivo de sus sistemas de información. Los pilares de la Software Factory de AVANCES TECNOLÓGICOS se basan en una probada estrategia metodológica, una vasta experiencia en el desarrollo de aplicaciones, equipo humano altamente calificado y Procesos de Desarrollo de Software basados en el modelo CMMI-DEV.
Filosofía software libre vs avances tecnológicos
← Hackers que no terminaron tan malCadena de 100 enlaces →Filosofía software libre vs avances tecnológicos
19 Septiembre, 2008 por Ariel Benz Dejar un comentario
Rate This
Me costo mucho encontrar un título adecuado para éste post pero creo que éste queda a tono. La filosofía del software libre surge de la mano del proyecto GNU/Linux donde se plantea la idea de que el usuario posea la libertad de usar el software con cualquier proposito, poder modificarlo y adaptarlo a nuestras necesidades, poder distribuirlo y asi mejorar el programa y asi poder generar todo el movimiento que conlleva tener presente esas ideas.
Realmente creo que es un proyecto sinigual el poder tener la libertad de poder modificar el código fuente a nuestra medida y comprender mas lo que estamos usando, en los ultimos años a crecido mucho esta comunidad con el principal referente que es Richard Stallman, el cual plantea que todos los usuarios deben tener ésta libertad al igual que las demas libertades que les son propias de un ciudadano, en este punto estoy totalmente de acuerdo con Stallman, uno debe tener la libertad de hacer lo que quiera con el producto y mas que nada saber que es lo que está usando pero hay quienes tienen una gran dependencia hacia este sistema y se niegan a usar o aprender muchas herramientas que no se corresponden con la ideologia.
Viendolo desde el punto de vista de un estudiante de Ingeniería en Sistemas y tomando en cuenta que en ésta área el desarrollo de aplicaciones y nuevas tecnologias no se detiene y es cada vez mayor, no creo que sea bueno seguir en parte ésta filosofía al pie de la letra ya que uno tiene que estar constantemente actualizando sus contenidos y aprendiendo a utilizar nuevas herramientas que haran un mejor desenvolvimiento en el ámbito laboral, asi que creo que uno deberia estar abierto al uso de cualquiera fuera el sistema sin tener tanto en cuenta sus principios, y si se plantea tener la libertad de poder usar y modificar un producto cualquiera fuere también se debe tener la libertad de elegir si utilizar software libre o privativo.
Soy usuario de Linux y apoyo esas ideas pero al mismo tiempo también uso Windows y nada me hace cambiar de opinión con respecto al software libre. Creo que el crecimiento en el área de la informática en gran parte está relacionado con la necesidad de aprender a usar nuevas herramientas mas alla de si es libre o privativa.
19 Septiembre, 2008 por Ariel Benz Dejar un comentario
Rate This
Me costo mucho encontrar un título adecuado para éste post pero creo que éste queda a tono. La filosofía del software libre surge de la mano del proyecto GNU/Linux donde se plantea la idea de que el usuario posea la libertad de usar el software con cualquier proposito, poder modificarlo y adaptarlo a nuestras necesidades, poder distribuirlo y asi mejorar el programa y asi poder generar todo el movimiento que conlleva tener presente esas ideas.
Realmente creo que es un proyecto sinigual el poder tener la libertad de poder modificar el código fuente a nuestra medida y comprender mas lo que estamos usando, en los ultimos años a crecido mucho esta comunidad con el principal referente que es Richard Stallman, el cual plantea que todos los usuarios deben tener ésta libertad al igual que las demas libertades que les son propias de un ciudadano, en este punto estoy totalmente de acuerdo con Stallman, uno debe tener la libertad de hacer lo que quiera con el producto y mas que nada saber que es lo que está usando pero hay quienes tienen una gran dependencia hacia este sistema y se niegan a usar o aprender muchas herramientas que no se corresponden con la ideologia.
Viendolo desde el punto de vista de un estudiante de Ingeniería en Sistemas y tomando en cuenta que en ésta área el desarrollo de aplicaciones y nuevas tecnologias no se detiene y es cada vez mayor, no creo que sea bueno seguir en parte ésta filosofía al pie de la letra ya que uno tiene que estar constantemente actualizando sus contenidos y aprendiendo a utilizar nuevas herramientas que haran un mejor desenvolvimiento en el ámbito laboral, asi que creo que uno deberia estar abierto al uso de cualquiera fuera el sistema sin tener tanto en cuenta sus principios, y si se plantea tener la libertad de poder usar y modificar un producto cualquiera fuere también se debe tener la libertad de elegir si utilizar software libre o privativo.
Soy usuario de Linux y apoyo esas ideas pero al mismo tiempo también uso Windows y nada me hace cambiar de opinión con respecto al software libre. Creo que el crecimiento en el área de la informática en gran parte está relacionado con la necesidad de aprender a usar nuevas herramientas mas alla de si es libre o privativa.
La Banca del Futuro: Software para el Reconocimiento de Voz
La segunda patente más prometedora recogida por MIT Technology Review se trata de un nuevo método para verificar la identificación de personas mediante un sistema de comprobación de la autenticidad de voz y realización de preguntas personales. Este avance tecnológico patentado por IBM pretende reducir el número de transacciones telefónicas fraudulentas.
Normalmente cuando un cliente llama a su banco para realizar alguna transacción, un mensaje grabado le pide su numero de identificación, y un operador le hace una pregunta personal para verificar su identidad. Otro método utilizado por bancos consiste en un sistema de reconocimiento automático de la voz, pero estos sistemas pueden tener problemas con ruidos causados por interferencias o incluso con alguna variación natural en la voz del cliente en cuestión.
IBM ha logrado combinar e integrar ambos métodos para crear un nuevo sistema de protección contra el fraude, en su opinión muy superior a cualquiera de los sistemas individuales. El sistema de IBM crea un archivo, a través de la grabación de una "huella de voz" (una muestra de la voz del cliente), además de la grabación de sus contestaciones a una serie de preguntas personales. Cuando el cliente llama al banco, el sistema recoge tanto su voz como la contestación que ofrece a la pregunta personal, los compara y si son iguales que las muestras y contestaciones grabadas en su archivo, le permite acceder a los servicios bancarios que solicita. Además, introduce una mayor variedad de preguntas personales, incluyendo información sobre las últimas transacciones realizadas, y crea un sistema de preguntas al azar, para que sea más difícil acceder a los servicios bancarios a través de la grabación ilegal de accesos telefónicos anteriores.
IBM espera sacar el sistema al mercado dentro de pocos años. Esta innovación aplicada a otras vertientes (gestión de las administraciones públicas, tramitaciones administrativas en general...) en el caso de superar las restricciones legales, supondría un sustancial avance en la agilización de trámites sin el requerimiento de la presencia física.
Etiquetas: futuro
posted by Euroresidentes at 10:35 AM
<< Home
Normalmente cuando un cliente llama a su banco para realizar alguna transacción, un mensaje grabado le pide su numero de identificación, y un operador le hace una pregunta personal para verificar su identidad. Otro método utilizado por bancos consiste en un sistema de reconocimiento automático de la voz, pero estos sistemas pueden tener problemas con ruidos causados por interferencias o incluso con alguna variación natural en la voz del cliente en cuestión.
IBM ha logrado combinar e integrar ambos métodos para crear un nuevo sistema de protección contra el fraude, en su opinión muy superior a cualquiera de los sistemas individuales. El sistema de IBM crea un archivo, a través de la grabación de una "huella de voz" (una muestra de la voz del cliente), además de la grabación de sus contestaciones a una serie de preguntas personales. Cuando el cliente llama al banco, el sistema recoge tanto su voz como la contestación que ofrece a la pregunta personal, los compara y si son iguales que las muestras y contestaciones grabadas en su archivo, le permite acceder a los servicios bancarios que solicita. Además, introduce una mayor variedad de preguntas personales, incluyendo información sobre las últimas transacciones realizadas, y crea un sistema de preguntas al azar, para que sea más difícil acceder a los servicios bancarios a través de la grabación ilegal de accesos telefónicos anteriores.
IBM espera sacar el sistema al mercado dentro de pocos años. Esta innovación aplicada a otras vertientes (gestión de las administraciones públicas, tramitaciones administrativas en general...) en el caso de superar las restricciones legales, supondría un sustancial avance en la agilización de trámites sin el requerimiento de la presencia física.
Etiquetas: futuro
posted by Euroresidentes at 10:35 AM
<< Home
jueves, 10 de junio de 2010
Elementos más básicos de Hardware
Elementos más básicos de Hardware
Enviado por chih186
Anuncios Google:
Hardware Security Modules
Universally compatible encryption solutions for banking & retail. | www.futurex.com
Gaoyun nail manufacturer
Professional for furniture nails, Sofa nails,Industrial nails etc. | www.gaoyunjjd.com
Partes: 1, 2
Indice
1. El Disco Duro (D.D)
2. Tarjeta de video
3. La tarjeta de sonido
4. El modem
5. El SIMM
6. El DIMM
7. Escaner
8. Tableta Digitalizadora
9. Lapiz Optico
10. Camaras digitales
11. Procesadores actuales
12. La memoria
13. Periféricos de almacenamiento
14. Medios Magneticos
15. Medios Opticos
16. Disquetes
17. Periféricos de entrada
18. Telematica
19. Codigos de barra
20. Unidades especiales de entrada/salida
21. Periféricos de salida
1. El Disco Duro (D.D)
En pocas palabras es un dispositivo de almacenimiento magnético que la computadora utiliza (como su nombre lo indica) para almacenar datos que en un futuro volveremos a utilizar.
Por otra parte, en muchos casos para que la velocidad de ejecución de los programas sea alta, es más eficiente un disco duro más rápido que un mismo procesador, lo importante en los discos duros es su capacidad, su velocidad y que tengan un funcionamiento estable.
El principio del disco duro
Desde los primeros tiempos de la tecnología, los discos duros siguen funcionando según el mismo principio, un principio que en pocas veces es válido también para disquetes.
En ambos casos, la información se encuentra guardada en una línea de minúsculos elementos magnetizables. Un cabezal de lectura y escritura magnetiza estas partes al escribir y al leer descifra su contenido magnético. El cabezal se encuentra en una posición determinada y el disco duro gira por debajo de el. Todo lo que puede leer y escribir en una reducción del disco duro, se encuentran en un círculo al que se le denomina pistas.
Si el cabezal se desplaza ligeramente hacia el centro, puede trabajar sobre otra pista. Los datos se encuentran sobre el disco duro repartidos por la pista.
Estas pistas se encuentran tanto en el disco duro como en los disquetes, en ambas de sus caras. En consecuencia hay un cabezal que procesa la parte superior del disco y otro que procesa la inferior, la pareja de pistas contrarias se le llama cilindro.
Para obtener un mejor control, las pistas están numeradas, pista más externa es la pista N° 0 y a partir de ella la numeración aumenta en orden creciente, en los disquetes, la última pista es la 79.
Organización del disco duro
La forma en como se almacenan y se leen los datos y llos disco duros como en los intercambiables.
Pistas y sectores de un Disco Duro (dd)
Los datos se almacenan en pistas concéntricas de la superficie magnetizada respetando las configuraciones de los bits (ver figura 1). Los bits se graban mediante la representación serial, esto es que los bits se alinean en una fila de la pista. El Nº de pistas varia mucho de un disco a otro, desde 40 hablando en caso de los disquetes hasta varios de mieles en un disco duro de gran capacidad. El espacio entre las pistas se medie en pistas x pulgadas (TPI), en los disquetes de 3 ½ son de 135 TPI y en los discos duros llegan a ser mas de 1000.
Figura 1
Para medir la grabación se hace por en bits x pulgada , y esto se refiere a que cantidad de bits (unos y ceros) se pueden almacenar en una pulgada de la pista.
Cilindros: pista sobre pista
Cada superficie de disco de alta densidad de un disco duro puede estar formado por miles de pistas, que están numeradas consecutivamente de fuera hacia adentro. Un cilindro en particular esta formado por pistas, que estas a su vez tienen un a superficie de grabación (ver figura 1).
2. Tarjeta de video
La tarjeta de video, (también llamada controlador de video, ver figura 2), es un componente electrónico requerido para generar una señal de video que se manda a una pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente en la placa de sistema de la computadora o en una placa de expansión. La tarjeta gráfica reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre el procesador y el monitor; la información es enviada a éste por la placa luego de haberla recibido a través del sistema de buses. Una tarjeta gráfica se compone, básicamente, de un controlador de video, de la memoria de pantalla o RAM video, y el generador de caracteres, y en la actualidad también poseen un acelerador de gráficos. El controlador de video va leyendo a intervalos la información almacenada en la RAM video y la transfiere al monitor en forma de señal de video; el número de veces por segundo que el contenido de la RAM video es leído y transmitido al monitor en forma de señal de video se conoce como frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes, la frecuencia depende en gran medida de la calidad de la placa de video.
Tipos de tarjeta de video
Tarjeta gráfica Hércules
Con ésta tarjeta se podía visualizar gráficos y textos simultáneamente. En modo texto, soportaba una resolución de 80x25 puntos. En tanto que en los gráficos lo hacía con 720x350 puntos, dicha tarjeta servía sólo para gráficos de un solo color. La tarjeta Hércules tenía una capacidad total de 64k de memoria video RAM. Poseía una frecuencia de refresco de la pantalla de 50HZ.
Color Graphics Adapter (CGA)
La CGA utiliza el mismo chip que la Hércules y aporta resoluciones y colores distintos. Los tres colores primarios se combinan digitalmente formando un máximo de ocho colores distintos. La resolución varía considerablemente según el modo de gráficos que se esté utilizando, como se ve en la siguiente lista:
* 160 X 100 PUNTOS CON 16 COLORES
* 320 X 200 PUNTOS CON 4 COLORES
* 640 X 200 PUNTOS CON 2 COLORES
La tarjeta EGA
Enchanced Graphics Adapter (EGA). Se trata de una tarjeta gráfica superior a la CGA. En el modo texto ofrece una resolución de 14x18 puntos y en el modo gráfico dos resoluciones diferentes de 640x200 y 640x350 a 4 bits, lo que da como resultado una paleta de 16 colores, siempre y cuando la tarjeta esté equipada con 256KB de memoria de video RAM.
La tarjeta VGA
La Video Graphics Adapter (VGA) significó la aparición de un nuevo estándar del mercado. Esta tarjeta ofrece una paleta de 256 colores, dando como resultado imágenes de colores mucho más vivos. Las primeras VGA contaban con 256KB de memoria y solo podían alcanzar una resolución de 320x200 puntos con la cantidad de colores mencionados anteriormente. Primero la cantidad de memoria video RAM se amplió a 512KB, y más tarde a 1024KB, gracias a ésta ampliación es posible conseguir una resolución de, por ejemplo, 1024x768 píxeles con 8 bits de color. En el modo texto la VGA tiene una resolución de 720x400 pixeles, además posee un refresco de pantalla de 60HZ, y con 16 colores soporta hasta 640X480 puntos.
La tarjeta SVGA
La tarjeta SVGA (Super Video Graphics Adapter) contiene conjuntos de chips de uso especial, y más memoria, lo que aumenta la cantidad de colores y la resolución.
3. La tarjeta de sonido
Es una tarjeta electrónica que se conecta una ranura que tiene la computadora (CPU, en especìfico la tarjeta madre) que tiene como funciones principales: la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable).
En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM donde almacenan dichos "samples" o cortos; normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a la misma.
4. El modem
Es un dispositivo electrónico de entrada / salida (ver figura 3)que se utiliza principalmente para convertir señales digitales a análogas y viceversa, una de sus principales aplicaciones es en la conexión a redes teniendo como principal punto de referencia o ejemplo la Internet.
Por otra parte, si la queremos definir técnicamente tendríamos, diríamos que cuando hay una conexión con redes telefónicas se establece mediante el módem, y gracias a este los usuarios de muy diversos lugares pueden intercambiar información como faxes, memorandos, etc., la palabra MODEM surgió de la combinación de dos términos los cuales son MODULADOR y el otro DEMODULADOR .
La Modulación consiste en transformar los datos de la computadora (bits y bytes) en sonido o vibraciones acústicas, sin embargo, la Demodulación consiste en el proceso inverso, los sonidos se reciben y los cuales son convertidos a dat datos.
5. El SIMM
Siglas de Single In line Memory Module (ver figura 4), un tipo de encapsulado consistente en una pequeña placa de circuito impreso que almacena chips de memoria, y que se inserta en un zócalo SIMM en la placa madre o en la placa de memoria. Los SIMMs son más fáciles de instalar que los antiguos chips de memoria individuales, y a diferencia de ellos son medidos en bytes en lugar de bits.
El primer formato que se hizo popular en los computadores personales tenía 3.5" de largo y usaba un conector de 32 pins. Un formato más largo de 4.25", que usa 72 contactos y puede almacenar hasta 64 megabytes de RAM es actualmente el más frecuente.
Un PC usa tanto memoria de nueve bits (ocho bits y un bit de paridad, en 9 chips de memoria RAM dinámica) como memoria de ocho bits sin paridad. En el primer caso los ocho primeros son para datos y el noveno es para el chequeo de paridad.
Figura 4
Tipos De Simm’s
SIMM’s de 30 contactos
Son los SIMM propios de las primeras placas base con micros de 32 bits (386 y 486). Supongamos una de estas placas con zócalos de 30 contactos, cada uno de los cuales soporta 8 bits de datos. Necesitaremos 4 SIMM’s de 30 contactos para conseguir los 32 bits. Típicamente, estas placas tienen 8 zócalos divididos en dos bancos de 4 zócalos cada uno. El microprocesador sólo puede direccionar uno de los dos bancos en cada momento.
En algunos ordenadores, el hecho de mezclar SIMM’s de diferente capacidad en el mismo banco, puede producir efectos tales como una mala detección de la cantidad de memoria del sistema, o que el ordenador no arranque.
SIMM’s de 72 contactos
Los SIMM de 72 contactos se desarrollaron para satisfacer los requerimientos de expansión de memoria cada vez mayores. Un SIMM de 72 contactos soporta 32 bits de datos, es decir, cuatro veces el número de bits de datos soportado por los SIMM de 30 contactos. En placas base con micros de 32 bits (Intel 386 y 486) se necesita sólo un SIMM de 72 contactos por banco para proporcionar al microprocesador los 32 bits de datos.
Con los microprocesadores Pentium, al tener 64 bits para comunicaciones externas (aunque internamente sean micros de 32 bits), se necesita utilizar grupos de dos SIMM para proporcionar los 64 bits necesarios.
6. El DIMM
Los módulos DIMM (Dual In-Line Memory Module, ver figura 5) son similares a los SIMM, aunque con notables diferencias. Al igual que los SIMM, los DIMM se instalan verticalmente en los sockets de memoria de la placa base. Sin embargo, un DIMM dispone de 168 contactos, la mitad por cada cara, separados entre sí. Los DIMM se instalan en aquellas placas que soportan típicamente un bus de memoria de 64 bits o más. Típicamente, son los módulos que se montan en todas las placas Pentium-II con chipset LX, y hoy por hoy se han convertido en el estándar en memoria.
7. Escaner
Los escáneres son periféricos diseñados para registrar caracteres escritos, o gráficos en forma de fotografías o dibujos, impresos en una hoja de papel facilitando su introducción en la computadora convirtiéndolos en información binaria comprensible para ésta.
El funcionamiento de un escáner es similar al de una fotocopiadora. Se coloca una hoja de papel que contiene una imagen sobre una superficie de cristal transparente, bajo el cristal existe una lente especial que realiza un barrido de la imagen existente en el papel; al realizar el barrido, la información existente en la hoja de papel es convertida en una sucesión de información en forma de unos y ceros que se introducen en la computadora.
Para mejorar el funcionamiento del sistema informático cuando se están registrando textos, los escáneres se asocian a un tipo de software especialmente diseñado para el manejo de este tipo de información en código binario llamados OCR (Optical Character Recognition o reconocimiento óptico de caracteres), que permiten reconocer e interpretar los caracteres detectados por el escáner en forma de una matriz de puntos e identificar y determinar qué caracteres son los que el subsistema está leyendo.
Un caso particular de la utilización de un scanner, aunque representa una de sus principales ventajas, es la velocidad de lectura e introducción de la información en el sistema informático con respecto al método tradicional de introducción manual de datos por medio del teclado, llegándose a alcanzar los 1.200 caracteres por segundo
Así funciona un escáner:
Una definición simple de escáner podría ser la siguiente: dispositivo que permite pasar la información que contiene un documento en papel a una computadora, para de esta manera poder modificarlo.
Este proceso transforma las imágenes a formato digital, es decir en series de 0 y de 1, pudiendo entonces ser almacenadas, retocadas, impresas o ser utilizadas para ilustrar un texto.
El OCR:
Si pensamos un poco en el proceso de escaneado descrito, nos daremos cuenta de que al escanear un texto no se escanean letras, palabras y frases, sino sencillamente los puntos que las forman, una especie de fotografía del texto. Evidentemente, esto puede ser útil para archivar textos, pero sería deseable que pudiéramos coger todas esas referencias tan interesantes pero tan pesadas e incorporarlas al procesador de texto no como una imagen, sino como texto editable.
El OCR es un programa que lee esas imágenes digitales y busca conjuntos de puntos que se asemejen a letras, a caracteres. Dependiendo de la complejidad de dicho programa entenderá más o menos tipos de letra, llegando en algunos casos a interpretar la escritura manual, mantener el formato original (columnas, fotos entre el texto...) o a aplicar reglas gramaticales para aumentar la exactitud del proceso de reconocimiento.
Para que el programa pueda realizar estas tareas con una cierta fiabilidad, sin confundir "t" con "1", por ejemplo, la imagen debe cumplir unas ciertas características. Fundamentalmente debe tener una gran resolución, unos 300 ppp para textos con tipos de letra claros o 600 ppp si se trata de tipos de letra pequeños u originales de poca calidad como periódicos. Por contra, podemos ahorrar en el aspecto del color: casi siempre bastará con blanco y negro (1 bit de color), o a lo sumo una escala de 256 grises (8 bits). Por este motivo algunos escáners de rodillo (muy apropiados para este tipo de tareas) carecen de soporte para color.
El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina la imagen con un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo denominado CCD que transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a formato digital en un DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al ordenador.
Tipos de Escáneres
Existen cinco tipos de escáneres, pero no todos son ideales para la digitalización de imágenes
- De sobremesa o planos:
Un escáner plano es el tipo más versátil. Es ideal para escanear páginas de un libro sin tener que desprenderlas Generalmente lucen como fotocopiadoras pequeñas ideales para un escritorio, y se utilizan para los objetos planos. Sus precios pueden variar de acuerdo con la resolución de la imagen, pero salvo que se utilicen para realizar presentaciones muy importantes, como por ejemplo colocar imágenes para la Web, no se necesita adquirir uno de un costo tan alto.
- De mano:
Son los escáners "portátiles", es el menos costoso, con todo lo bueno y lo malo que implica esto. Hasta hace unos pocos años eran los únicos modelos con precios asequibles para el usuario medio, ya que los de sobremesa eran extremadamente caros; esta situación a cambiado tanto que en la actualidad los escáners de mano están casi inutilizados por las limitaciones que presentan en cuanto a tamaño del original a escanear (generalmente puede ser tan largo como se quiera, pero de poco más de 10 cm de ancho máximo) y a su baja velocidad, así como a la carencia de color en los modelos más económicos.
Lo que es más, casi todos ellos carecen de motor para arrastrar la hoja, sino que es el usuario el que debe pasar el escáner sobre la superficie a escanear. Todo esto es muy engorroso, pero resulta ideal para copiar imágenes pequeñas como firmas, logotipos y fotografías, además es eficaz para escanear rápidamente fotos de libros encuadernados, artículos periodísticos, facturas y toda clase de pequeñas imágenes.
- De rodillo:
Unos modelos de aparición relativamente moderna, se basan en un sistema muy similar al de los aparatos de fax: un rodillo de goma motorizado arrastra a la hoja, haciéndola pasar por una rendija donde está situado el elemento capturador de imagen.
Este sistema implica que los originales sean hojas sueltas, lo que limita mucho su uso al no poder escanear libros encuadernados sin realizar antes una fotocopia (o arrancar las páginas), salvo en modelos peculiares que permite separar el cabezal de lectura y usarlo como si fuera un escáner de mano. A favor tienen el hecho de ocupar muy poco espacio, incluso existen modelos que se integran en la parte superior del teclado; en contra tenemos que su resolución rara vez supera los 400x800 puntos, aunque esto es más que suficiente para el tipo de trabajo con hojas sueltas al que van dirigidos.
- Escáneres para transparencias:
Poseen una resolución mejor que los anteriores y por eso también son un poco más caros; pueden digitalizar transparencias desarrollando un trabajo de muy buena calidad. Estos tampoco son tan utilizados como los planos, pero en aquellas empresas en donde utilizan el formato de diapositiva y transparencia para sus impresiones, son una herramienta realmente indispensable.
Con el scanner se pueden digitalizar textos (escritos a máquina o con ordenador) e imágenes. Es imprescindible que el scanner esté encendido antes de encender el ordenador, en caso contrario no lo detecta. Para poder digitalizar textos hay que utilizar el programa OmniPage mientras que para las imágenes hay que utilizar el programa Paint Shop Pro 5.
Cómo digitalizar textos
Clicando sobre el icono llamado OmniPage que se encuentra en el escritorio, se accede al programa de digitalización de textos.
Una vez dentro del programa, hay que buscar la opción obtener imagen dentro del menú archivo o bien clicar sobre el icono del scanner que aparece en la parte superior izquierda de la pantalla.Aparecerá entonces una pequeña pantalla con varias opciones. Clicando sobre digitalizar el scanner empezará a trabajar.
Las hojas se pueden poner de dos formas diferentes en el scanner.
- Hay que colocar la hoja boca abajo en la parte superior derecha del scanner y después bajar la tapa.
- Se puede utilizar el alimentador automático.
Una vez que el programa ha obtenido la información de la hoja de texto, hay que pasarle el reconocedor de textos OCR. Para ello hay que buscar un icono con dichos caracteres OCR en la pantalla o bien en el menú archivo OCR, esta página.Si el reconocimiento ha sido correcto, el programa mostrará un nuevo menú para agregar más páginas o parar el digitalizado.
Clicando sobre parar digitalizado, aparece un menú en el que hay que indicarle al programa el nombre con el que queremos guardar el programa así como el formato.
Cómo digitalizar imágenes y fotografías:
Clicando sobre el icono PaintShop Pro 5 que se encuentra en el escritorio, se entra en el programa de digitalización de imágenes.
Una vez dentro, hay que buscar la opción Acquire dentro del menú File, import, twain
Cuando se clica sobre la opción acquire el scanner se pone en marcha mostrando una previsualización de la imagen en pantalla.
La imagen hay que colocarla el la parte superior derecha del scanner y siempre boca abajo cerrando después bien la tapa.
Una vez que se haya seleccionado la zona que se desea digitalizar y si las opciones de digitalizado son las deseadas, tipo, escala, brillo etc.. pulsando final el scanner digitalizará la imagen y la enviará al PaintShop Pro 5. Si la imagen digitalizada se ve detrás del menú de digitalización se podrá cerrar este para empezar a trabajar con las herramientas de retoque .
¿Cuánto ocupa una imagen?
Las imágenes digitalizadas se pueden guardar en diferentes formatos: GIF, TIF, BMP, JPG etc.
El formato que más comprime la imagen es el JPG pero a cambio pierde un poco de calidad. Cuanta mayor sea la compresión que se le aplique a la imagen, menor será la calidad.
El formato GIF tiene una buena resolución y, al igual que los JPG, se puede utilizar en paginas web HTML de internet, pero ocupa algo más.
El formato TIF es el que mejor calidad de imagen da y es compatible con Macintosh, pero es uno de los que más ocupan.
El formato BMP, es el más estandar y el más facil de insertar en cualquier editor de texto, en cambio, es uno de los que más espacio ocupan.
El formato PSP se puede leer únicamente con el PaintShop Pro.
Con la opción save as se llega al menú que permite trabajar con todas estas opciónes.
Cuando la imagen está guardada en la cuenta personal o en el disquete, se puede salir del programa mediante la opción exit del menú file.
Cuadro ilustrativo a cerca del tamaño de las imágenes:
Tipo de original
Destino
Método escaneado
Tamaño en RAM
Fotografía 10x15 cm
Pantalla
75 ppp / 24 bits
0,4 MB
Impresora B/N
300 ppp / 8 bits
2 MB
Impresora color
300 ppp / 24 bits
6 MB
Texto o dibujo en blanco y negro tamaño DIN-A4
Pantalla
75 ppp / 1 bit
66 KB
Impresora
300 ppp / 8 bit
8 MB
OCR
300 ppp / 1 bit
1 MB
Foto DIN-A4 en color
Pantalla
75 ppp / 24 bits
1,6 MB
Impresora
300 ppp / 24 bits
25 MB
Los colores y los bits
Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene el color. Una fotografía en color resulta mucho más agradable de ver que otra en tonos grises; un gráfico acertadamente coloreado resulta mucho más interesante que otro en blanco y negro; incluso un texto en el que los epígrafes o las conclusiones tengan un color destacado resulta menos monótono e invita a su lectura.
Sin embargo, digitalizar los infinitos matices que puede haber en una foto cualquiera no es un proceso sencillo. Hasta no hace mucho, los escáners captaban las imágenes únicamente en blanco y negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente aparecieron escáners que podían captar color, aunque el proceso requería tres pasadas por encima de la imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáners captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los 68.719 millones de colores.
Para entender cómo se llega a estas apabullantes cifras debemos explicar cómo asignan los ordenadores los colores a las imágenes. En todos los ordenadores se utiliza lo que se denomina sistema binario, que es un sistema matemático en el cual la unidad superior no es el 10 como en el sistema decimal al que estamos acostumbrados, sino el 2. Un bit cualquiera puede por tanto tomar 2 valores, que pueden representar colores (blanco y negro, por ejemplo); si en vez de un bit tenemos 8, los posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16’777.216 colores; etc, etc.
Por tanto, "una imagen a 24 bits de color" es una imagen en la cual cada punto puede tener hasta 16,7 millones de colores distintos; esta cantidad de colores se considera suficiente para casi todos los usos normales de una imagen, por lo que se le suele denominar color real. La casi totalidad de los escáners actuales capturan las imágenes con 24 bits, pero la tendencia actual consiste en escanear incluso con más bits, 30 ó incluso 36, de tal forma que se capte un espectro de colores absolutamente fiel al real; sin embargo, casi siempre se reduce posteriormente esta profundidad de color a 24 bits para mantener un tamaño de memoria razonable, pero la calidad final sigue siendo muy alta ya que sólo se eliminan los datos de color más redundantes.
Parámetros para una elección correcta
Definición:
Es la cualidad más importante de un escáner, es el grado de finura con el que se puede realizar el análisis de la imágen. Los fabricantes indican dos tipos de definición:
* óptica, que es la realmente importante, está determinada por el número de elementos CCD y la resolución de la lente. Se mide en puntos por pulgada.
* interpolada, que es el resultado de una serie de cálculos de difícil verificación.
Profundidad de análisis de color, que se expresa en número de bits
de 2 bits, resultaría una imágen en blanco y negro
de 8 bits, se obtendrías una imágen de 256 tonos de grises
de 24 bits u 8 bits por componente de color (verde, rojo, azul), la imágen puede llegar a ser de 16'7 millones de colores, de 30 bits, permite sobrepasar los mil millones de tintas.
Software:
Otro elemento a tener en cuenta es el software que acompaña al escáner. Muchos de ellos incorporan programas de gestión de textos y fotos, programas de reconocimiento de caracteres o programas de retoque fotográfico.
Conectores: ¿paralelo, SCSI o USB?
Esta es una de las grandes preguntas que debe hacerse todo futuro comprador de un escáner. La forma de conectar un periférico al ordenador es siempre importante, pues puede afectar al rendimiento del dispositivo, a su facilidad de uso o instalación... y fundamentalmente a su precio, claro.
Puerto paralelo
Es el método más común de conexión para escáners domésticos, entendiendo como tales aquellos de resolución intermedia-alta (hasta 600 x 1.200 ppp, pero más comúnmente de 300 x 600 ó 400 x 800 ppp) en los que la velocidad no tiene necesidad de ser muy elevada mientras que el precio es un factor muy importante.
El puerto paralelo, a veces denominado LPT1, es el que utilizan la mayor parte de las impresoras; como generalmente el usuario tiene ya una conectada a su ordenador, el escáner tendrá dos conectores, uno de entrada y otro de salida, de forma que quede conectado en medio del ordenador y la impresora. Como primer problema de este tipo de conexión tenemos el hecho de que arbitrar el uso del puerto paralelo es algo casi imposible, por lo que en general no podremos imprimir y escanear a la vez (aunque para un usuario doméstico esto no debería ser excesivo problema).
Conector SCSI
Sin lugar a dudas, es la opción profesional. Un escáner SCSI (leído "escasi") es siempre más caro que su equivalente con conector paralelo, e incluso muchos resultan más caros que modelos de mayor resolución pero que utilizan otro conector. Debido a este sobreprecio no se fabrican en la actualidad escáners SCSI de resolución menor de 300x600 ppp, siendo lo más común que las cifras ronden los 600x1.200 ppp o más.
Puerto USB
Esto es lo último en escáners. Los puertos USB están presentes en la mayoría de ordenadores Pentium II, AMD K6-2 o más modernos, así como en algunos Pentium MMX.
En general podríamos decir que los escáners USB se sitúan en un punto intermedio de calidad / precio. La velocidad de transmisión ronda los 1,5 MB / s, algo más que el puerto paralelo pero bastante menos que el SCSI; la facilidad de instalación es casi insuperable, ya que se basa en el famoso Plug and Play (enchufar y listo) que casi siempre funciona; todos los ordenadores modernos tienen el USB incorporado (los Pentium normales ya son antiguos; y además dejan el puerto paralelo libre para imprimir o conectar otros dispositivos.
La interfaz TWAIN
Se trata de una norma que se definió para que cualquier escáner pudiera ser usado por cualquier programa de una forma estandarizada e incluso con la misma interfaz para la adquisición de la imagen.
Si bien hace unos años aún existía un número relativamente alto de aparatos que usaban otros métodos propios, hoy en día se puede decir que todos los escáners normales utilizan este protocolo, con lo que los fabricantes sólo deben preocuparse de proporcionar el controlador TWAIN apropiado, generalmente en versiones para Windows 9x, NT y a veces 3.x. Desgraciadamente, sólo los escáners de marca relativamente caros traen controladores para otros sistemas operativos como OS/2 o Linux, e incluso en ocasiones ni siquiera para Windows 3.x o NT; la buena noticia es que la estandarización de TWAIN hace que a veces podamos usar el controlador de otro escáner de similares características, aunque evidentemente no es un método deseable...
Se trata de un programa en el que de una forma visual podemos controlar todos los parámetros del escaneado (resolución, número de colores, brillo...), además de poder definir el tamaño de la zona que queremos procesar.
Si la fidelidad del color es un factor de importancia, uno de los parámetros que probablemente deberemos modificar en esta interfaz es el control de gamma, para ajustar la gama de colores que capta el escáner con la que presenta nuestro monitor o imprime la impresora.
8. Tableta Digitalizadora
Es una tableta compacta generalmente de 127 x 102 mm que incorpora un lápiz sin cables . Esta excelente herramienta de trabajo permite emular una pizarra electrónica ideal para los ordenadores portátiles.
Permiten el manejo del cursor a través de la pantalla del sistema informático y facilitan una importante ayuda en el tratamiento de los comandos de órdenes en aplicaciones de CAD / CAM (diseño asistido por computadora).
Las tabletas digitalizadoras convierten una serie de coordenadas espaciales en un código binario que se introduce en la computadora. Estas coordenadas serán manejadas posteriormente por programas de dibujo, ingeniería, etc.
La tableta suele tener impresos en su armazón pulsadores con símbolos dibujados para ejecutar de modo directo comandos que agilizan el trabajo de manejo del software.
Las tabletas digitalizadoras poseen una resolución de alrededor de una décima de milímetro y pueden manejar gráficos en dos y tres dimensiones.
Una posibilidad de manejo muy intuitiva convierte a las tabletas digitalizadoras en unas herramientas muy útiles y polivalentes en los sistemas informáticos de diseño y manejo de gráficos.
Existen diversas tecnologías de construcción de tabletas, pudiendo ser éstas:
• Tabletas mecánicas.
• Tabletas electrónicas.
Las mecánicas, debido al desgaste producido en sus componentes por el uso continuado, son menos precisas y más delicadas de manejar que las electrónicas, siendo éstas, por ello, las más extendidas comercialmente en el mercado.
9. Lapiz Optico
Es un instrumento en forma de lápiz que por medio de un sistema óptico, ubicado en su extremo, permite la entrada de datos directamente a la pantalla. Para elaborar dibujos, basta con mover el lápiz frente a la pantalla y en ella va apareciendo una línea que describe dicho movimiento, igualmente se puede mover líneas de un sitio a otro, cuando se coloca el punto de la pluma en la pantalla y se presiona un botón, un dispositivo siente dentro de la pluma activada. Transmite a la memoria de la computadora el sitio de la luz en la pantalla. También sirve para señalar ítems de los menús al igual que el mouse.
Los lápices ópticos son dispositivos de introducción de datos que trabajan directamente con la pantalla de la computadora, señalando puntos en ella y realizando operaciones de manejo de software.
Para operar con el lápiz óptico se coloca éste sobre la pantalla del sistema informático. En el momento en que el cañón de rayos catódicos de la pantalla barre el punto sobre el que se posiciona el lápiz, éste envía la información a un software especial que la maneja. El microprocesador calcula cuál es la posición sobre la pantalla de la computadora permitiendo manipular la información representada en ella.
Los lápices ópticos permiten la introducción de datos, el manejo del cursor, etc., en la pantalla de la computadora. Son una asistencia para las limitaciones de los teclados en algunas aplicaciones, sobre todo las que no son de gestión pura (creativas, etc.),
O bien los bolígrafos-escáner, utensilios con forma y tamaño de lápiz o marcador fluorescente que escanean el texto por encima del cual los pasamos y a veces hasta lo traducen a otro idioma al instante.
10. Camaras digitales
Una cámara digital permite tomar fotos que se pueden visualizar e imprimir utilizando una computadora.
La mayoría incluyen una pantalla tipo visualizador de cristal líquido (LCD), que puede utilizar para tener una vista preliminar y visualizar la fotografías.
Incluyen un cable que permite conectar la cámara a un puerto. Permitiendo transferir las fotografías.
Almacenan fotografías hasta que se las transfiera a una computadora. La mayoría tiene una memoria integrada o removible.
- Memoria removible: almacenan fotografías en una tarjeta de memoria. Algunas las almacenan en un disquete regular que calza dentro de esta. Se puede reemplazar una tarjeta de memoria o disquete cuando esté llena.
- Memoria incorporada: almacenan al menos 20 fotografías. Una vez que está llena, se las transfiere a la computadora.
Las filmadoras son unos aparatos periféricos altamente especializados que convierten información, que se les introduce en código binario, en imágenes con una calidad similar a la de una imprenta (1.600 puntos por pulgada como mínimo) o fotogramas similares a los de cinematografía.
Las filmadoras se pueden conectar a una computadora o trabajar con ellas remotamente llevando la información hasta el punto donde están por medio de un soporte magnético.
soporte magnético.
Se utilizan para grabar conversaciones y otros sonidos, utilizando programas de conferencia para comunicarse a través de Internet. Con los programas de control de voz se puede conversar en un micrófono y emplear los comando de voz para controlar la computadora.
Unidireccional: graba sonidos de una dirección, lo que ayuda a reducir el ruido de fondo. Este tipo es útil para grabar una voz individual
Omnidireccional: graba sonidos de todas direcciones. Este tipo es útil para grabar varias voces en una conversación en grupo
Otras Herramientas Para La Digitalización
La función de la biometría tecnológica sirve para verificar la identificación de cada persona y para confirmar que se trata realmente de quien dice ser.
Uno de los campos que más utilizan este sistema es la informática.
Los sistemas de identificación biométrica se basan en analizar una característica biológica única de la persona. Estos métodos de control dan mayor seguridad que la utilización de objetos como tarjetas, llaves, (lo que una persona porta), como así también contraseñas, información, claves, firma, etc. (lo que la persona sabe).
Lectura de la huella digital
La identificación de alguien mediante un sistema electrónico de la huella digital (digital personal) es una de las más utilizadas en el mundo.
Esta funciona conectada a una amplia base de datos que indica si en realidad las huellas dactilares concuerdan con la información que se tiene acerca de la persona.
¿Cómo lo hace? El sistema transforma los arcos, rizos y espirales de las huellas en códigos numéricos, que luego se comparan con los datos de que se dispone dando resultados exactos, lo que garantiza uno de los más altos niveles de seguridad.
Lectura de la geometría de la mano
Otro aparato de biometría es el de identificación con base en las características de la mano (forma de los dedos, medidas, tamaño).
Sirve además para identificar al personal y sustituir el típico mercado de tarjetas a la hora de entrada o salida de las labores.
Escaneo del iris
El reconocimiento ocular es muy efectivo y se usa, sobre todo, en instituciones de alta seguridad (cárceles, bancos, cajeros...) de Japón, Gran Bretaña, Alemania y Estados Unidos. Lo que se examina son las fibras, manchas y surcos del iris por medio de una cámara especial (Iris scan)
Escaneo facial
También existe biometría facial que analiza la imagen de la cara de alguien impresa en una fotografía o en una toma de vídeo funciona analizando la imagen en vídeo o una fotografía y las características específicas de ciertas partes localizadas entre la frente y el labio superior, lugares que generalmente no se ven afectados por la expresión (esta puede operar sin que la persona sepa que está siendo estudiada).
Digitalización de la firma
Identificación de voz
Entre otros avances biométricos se encuentran los que tienen que ver con el olor corporal y la resonancia acústica de la cabeza (esta es muy efectiva porque permite reconocer las diferencias entre gemelos idénticos, lo cual no es posible bajo el sistema facial)
11. Procesadores actuales
En la actualidad existen procesadores muy poderosos como se menciono anteriormente. La compañía Intel acaba de lanzar al mercado su nuevo procesador Intel Pentium 4 de 2.0GHz
De igual manera ha mejorado sus procesadores anteriores como lo son el Pentium III, el cual acaba de lanzar al mercado el Pentium III de 1.13 GHz.
También existen otros procesadores de la compañía Intel que sirven para servidores y estaciones de trabajo como lo es el Intel XEON.
Así también el Intel ITANIUM el cual se considera como la nueva generación en procesadores para servidores y estaciones de trabajo.
Sin embargo la compañía Intel no es la única que fabrica los procesadores para las PC´s existe otra compañía que fabrica procesadores y es una de las principales competidoras de Intel y es la compañía AMD (Advanced Micro Devices) que fabrica procesadores como el AMD Athlon cuya velocidad actual es de 1.4 GHz.
También hay otros procesadores como el AMD Duron cuyo modelo desarrolla velocidades de 1GHz.
Tarjeta Principal
También llamada Tarjeta Madre o Motherboard es donde se encuentran las conexiones básicas para todos los componentes de la computadora, los cuales giran en torno al microprocesador. Es básicamente la que permite o no el futuro crecimiento de las habilidades de cualquier computadora, una tarjeta con una arquitectura muy cerrada terminará con la vida de todo el equipo en el momento que ésta requiera una reparación o mejora, éste fue el caso de la mayoría de las computadoras que existieron en el pasado, como por mencionar algunas : Comodore 64, Tandy 1000 e incluso todas las XT´s y algunas 286 de IBM.
Estas se pueden clasificar en la actualidad en :
- Arquitectura de 8 bits : Primeras XT
- Arquitectura ISA 8 -16 bits. La mayoría de las actuales clones
Arquitectura EISA o MCA de 32 bits. La mayoría de las de IBM o compatibles de marca de calidad que se venden
actualmente.
Actualmente existen muchísimos tipos de tarjetas madre a continuación se muestra solo un ejemplo de los muchos tipos de tarjetas madres.
Azza 815EPX
Hardware Characteristics of the Azza 815EPX
CPU
Intel(R) Pentium(R) III (FC-PGA) / CeleronTM Processor
500MHz~1GHz or faster processor
Chipset
Intel(R) 815EP chipset. (544 BGA)+ Intel(R) ICH2 chipset. (241 BGA)
Form factor
ATX - 30.5cm X 21cm
Expansion
5 PCI - 0 ISA - 2 CNR - 1 AGP - 4 USB
Memory
3X 168-pins DIMM SDRAM 512Mb PC133
FSB
66Mhz to 166Mhz in 1Mhz increment in the BIOS.
Vcore adj.
+0.05v, +0.1v, +0.2v, +0.3v, +0.4v, -0.05v, -0.1v,
Vio adj.
NA
Audio chipset
embeded into the chipset
En ella podemos encontrar los siguientes componentes:
El Coprocesador Matemático O Numérico
Es un microprocesador de instalación opcional, también denominado Unidad de punto flotante que auxilia al microprocesador en el uso eficiente de programas de graficación, cálculos matemáticos complejos y diseño entre tantos, lo cual al especializarse dichas funciones acelera la velocidad con que una computadora puede responder a necesidades tan sofisticadas.
En la actualidad ya vienen incluidos en todas las computadoras nuevas, ya que el poder que exigen no puede descartar la falta de éste microprocesador. Si usted desea saber si su computadora cuenta con uno de ellos, sólo vea, si en el modelo tiene agregada el par de letras DX en el caso contrario, usted necesitará en el futuro inmediato su instalación.
Sobre todo no queda duda si su maquina en lugar de este par de letras presenta otras como SX, como por ejemplo : 486 SX de 25 Mhz.
En caso que usted necesite la instalación de uno de ellos, debe asegurarse primero lo siguiente:
1.- Que su motherboard cuente con un slot disponible específico para el coprocesador matemático.
2.- Que el que le venden sea de la misma marca que el Microprocesador Principal de su computadora
3.- Que trabaje a la misma velocidad que lo hace el Microprocesador Principal de su computadora. esto es, si usted cuenta con una computadora 486 SX de 25 Mhz, el coprocesador debe ser un 487 SX de 25 Mhz. Como puede usted observar el coprocesador es algo así como la mitad del microprocesador completo.
12. La memoria
Es la capacidad de almacenar información, la cual se realiza en bancos separados de la UCP. Su unidad de almacenamiento es el BYTE que es la capacidad de almacenar un caracter: una letra, número o cualquier símbolo como #,$,&, etc.
Tipos de memorias:
Memoria ROM
Esta memoria es sólo de lectura, y sirve para almacenar el programa básico de iniciación, instalado desde fábrica. Este programa entra en función en cuanto es encendida la computadora y su primer función es la de reconocer los dispositivos, (incluyendo memoria de trabajo), dispositivos.
Memoria RAM
Esta es la denominada memoria de acceso aleatorio o sea, como puede leerse también puede escribirse en ella, tiene la característica de ser volátil, esto es, que sólo opera mientras esté encendida la computadora. En ella son almacenadas tanto las instrucciones que necesita ejecutar el microprocesador como los datos que introducimos y deseamos procesar, así como los resultados obtenidos de esto.
Por lo tanto, programa que se desea ejecutar en la computadora, programa que máximo debe ser del mismo tamaño que la capacidad de dicha memoria, de lo contrario se verá imposibilitada de ejecutarlo.
NOTA: Cuando se vea en la necesidad de adquirir un programa de cómputo, independientemente de cual o para que sea, lea muy bien las instrucciones antes de pagarlo, puesto que en ellas debe especificar claramente la cantidad recursos mínimos necesarios que debe tener su equipo para trabajar con éste. Búsquelos con el título, Requerimientos del sistema.
NOTA2: Como puede usted ver, si al momento de apagar nuestra computadora se volatilizan nuestro datos almacenados en la memoria RAM, requerimos por lo tanto, de medios que almacenamiento por tiempo indefinido que nos garanticen la seguridad y confiabilidad de nuestros datos, o sea, otro tipo de memorias.
En la actualidad se pueden conseguir tarjetas de memoria en RAM de hasta 512 Mb y los costos varían. A continuación se muestra una tabla con los precios actuales de la memoria en RAM.
NOTA2: Como puede usted ver, si al momento de apagar nuestra computadora se volatilizan nuestro datos almacenados en la memoria RAM, requerimos por lo tanto, de medios que almacenamiento por tiempo indefinido que nos garanticen la seguridad y confiabilidad de nuestros datos, o sea, otro tipo de memorias.
En la actualidad se pueden conseguir tarjetas de memoria en RAM de hasta 512 Mb y los costos varían. A continuación se muestra una tabla con los precios actuales de la memoria en RAM.
Tamaño
Precio (US Dlls)
64 Mb
$44
128Mb
$82
256Mb
$165
512Mb
$605
Memorias Auxiliares
Por las características propias del uso de la memoria ROM y el manejo de la RAM, existen varios medios de almacenamiento de información, entre los más comunes se encuentran:
El Disquete, Floppie o Disco Flexible
Estos son los más comunes y baratos, cuyas características se describen en la siguiente tabla:
TIPO DE DISCO
DOBLE DENSIDAD Kb
ALTA DENSIDAD Mb
Cinta de respaldo
Son como las cintas de cassette de audio y pueden almacenar desde 20 Mbytes hasta 2 Gigabytes o más. Son medios de almacenamiento muy económicos y sobre todo muy rápidos, ya que pueden almacenar todo un disco duro en un pequeño cassette en unos cuantos minutos.
Disco Duro
El Cuál se instala fijo dentro de la computadora, son más rápidos y seguros que las unidades de lectura de disquete y cuyas capacidades de almacenamiento van desde los 20 Mbytes hasta 2 Gigabytes. Los más rápidos andan por debajo de los 15 milisegundos de acceso de la información. En la actualidad evite comprar discos con capacidades menores a 120 Mb. en poco tiempo no le servirán prácticamente para nada.
Actualmente existen discos duros de mayor capacidad que van desde 10,15, hasta 40 o 60 Gb.
Los precios de los discos duros van desde $78 dlls el disco de 10 GB hasta $132 dlls el disco de 40 Gb.
CD-ROM o Disco Compacto
Son los más caros y de mayor capacidad ya que mínimo son de 500 Mbytes y pueden llegar a almacenar en el futuro alrededor de algunos Terabytes. Se recomienda ir comprando equipo que contengan éste dispositivo, ya que gracias a las grandes cantidades de información tan variada que pueden soportar éste tipo de almacenamiento, ya se comienzan a construir las grandes base de información en un sólo disco : Enciclopedias, Cursos, Viajes turísticos, los periódicos y revistas del futuro que tenemos frente a nosotros.
Fuente De Poder
Como tanto el microprocesador como todos los circuitos que forman los dispositivos se alimentan de cantidades muy pequeñas de energía necesitan de una fuente que les suministre y regule la cantidad necesaria. Ya que cualquier variación en el voltaje podría ser suficiente para quemar dichos circuitos.
Dispositivos de crecimiento:
Son las puertas que están listas para recibir la conexión de cualquier otro aparato o tarjeta que permita ampliar las capacidades de trabajo de una computadora, y son el punto más importante para asegurarnos haber hecho una buena inversión. Estos son las Ranuras de Expansión y los puertos. Los puertos son los puntos de conexión que ya vienen con la computadora y que permiten la instalación rápida de los dispositivos más comunes, como lo son el teclado, la impresora, el monitor, etc.
Enviado por chih186
Anuncios Google:
Hardware Security Modules
Universally compatible encryption solutions for banking & retail. | www.futurex.com
Gaoyun nail manufacturer
Professional for furniture nails, Sofa nails,Industrial nails etc. | www.gaoyunjjd.com
Partes: 1, 2
Indice
1. El Disco Duro (D.D)
2. Tarjeta de video
3. La tarjeta de sonido
4. El modem
5. El SIMM
6. El DIMM
7. Escaner
8. Tableta Digitalizadora
9. Lapiz Optico
10. Camaras digitales
11. Procesadores actuales
12. La memoria
13. Periféricos de almacenamiento
14. Medios Magneticos
15. Medios Opticos
16. Disquetes
17. Periféricos de entrada
18. Telematica
19. Codigos de barra
20. Unidades especiales de entrada/salida
21. Periféricos de salida
1. El Disco Duro (D.D)
En pocas palabras es un dispositivo de almacenimiento magnético que la computadora utiliza (como su nombre lo indica) para almacenar datos que en un futuro volveremos a utilizar.
Por otra parte, en muchos casos para que la velocidad de ejecución de los programas sea alta, es más eficiente un disco duro más rápido que un mismo procesador, lo importante en los discos duros es su capacidad, su velocidad y que tengan un funcionamiento estable.
El principio del disco duro
Desde los primeros tiempos de la tecnología, los discos duros siguen funcionando según el mismo principio, un principio que en pocas veces es válido también para disquetes.
En ambos casos, la información se encuentra guardada en una línea de minúsculos elementos magnetizables. Un cabezal de lectura y escritura magnetiza estas partes al escribir y al leer descifra su contenido magnético. El cabezal se encuentra en una posición determinada y el disco duro gira por debajo de el. Todo lo que puede leer y escribir en una reducción del disco duro, se encuentran en un círculo al que se le denomina pistas.
Si el cabezal se desplaza ligeramente hacia el centro, puede trabajar sobre otra pista. Los datos se encuentran sobre el disco duro repartidos por la pista.
Estas pistas se encuentran tanto en el disco duro como en los disquetes, en ambas de sus caras. En consecuencia hay un cabezal que procesa la parte superior del disco y otro que procesa la inferior, la pareja de pistas contrarias se le llama cilindro.
Para obtener un mejor control, las pistas están numeradas, pista más externa es la pista N° 0 y a partir de ella la numeración aumenta en orden creciente, en los disquetes, la última pista es la 79.
Organización del disco duro
La forma en como se almacenan y se leen los datos y llos disco duros como en los intercambiables.
Pistas y sectores de un Disco Duro (dd)
Los datos se almacenan en pistas concéntricas de la superficie magnetizada respetando las configuraciones de los bits (ver figura 1). Los bits se graban mediante la representación serial, esto es que los bits se alinean en una fila de la pista. El Nº de pistas varia mucho de un disco a otro, desde 40 hablando en caso de los disquetes hasta varios de mieles en un disco duro de gran capacidad. El espacio entre las pistas se medie en pistas x pulgadas (TPI), en los disquetes de 3 ½ son de 135 TPI y en los discos duros llegan a ser mas de 1000.
Figura 1
Para medir la grabación se hace por en bits x pulgada , y esto se refiere a que cantidad de bits (unos y ceros) se pueden almacenar en una pulgada de la pista.
Cilindros: pista sobre pista
Cada superficie de disco de alta densidad de un disco duro puede estar formado por miles de pistas, que están numeradas consecutivamente de fuera hacia adentro. Un cilindro en particular esta formado por pistas, que estas a su vez tienen un a superficie de grabación (ver figura 1).
2. Tarjeta de video
La tarjeta de video, (también llamada controlador de video, ver figura 2), es un componente electrónico requerido para generar una señal de video que se manda a una pantalla de video por medio de un cable. La tarjeta de video se encuentra normalmente en la placa de sistema de la computadora o en una placa de expansión. La tarjeta gráfica reúne toda la información que debe visualizarse en pantalla y actúa como interfaz entre el procesador y el monitor; la información es enviada a éste por la placa luego de haberla recibido a través del sistema de buses. Una tarjeta gráfica se compone, básicamente, de un controlador de video, de la memoria de pantalla o RAM video, y el generador de caracteres, y en la actualidad también poseen un acelerador de gráficos. El controlador de video va leyendo a intervalos la información almacenada en la RAM video y la transfiere al monitor en forma de señal de video; el número de veces por segundo que el contenido de la RAM video es leído y transmitido al monitor en forma de señal de video se conoce como frecuencia de refresco de la pantalla. Entonces, como ya dijimos antes, la frecuencia depende en gran medida de la calidad de la placa de video.
Tipos de tarjeta de video
Tarjeta gráfica Hércules
Con ésta tarjeta se podía visualizar gráficos y textos simultáneamente. En modo texto, soportaba una resolución de 80x25 puntos. En tanto que en los gráficos lo hacía con 720x350 puntos, dicha tarjeta servía sólo para gráficos de un solo color. La tarjeta Hércules tenía una capacidad total de 64k de memoria video RAM. Poseía una frecuencia de refresco de la pantalla de 50HZ.
Color Graphics Adapter (CGA)
La CGA utiliza el mismo chip que la Hércules y aporta resoluciones y colores distintos. Los tres colores primarios se combinan digitalmente formando un máximo de ocho colores distintos. La resolución varía considerablemente según el modo de gráficos que se esté utilizando, como se ve en la siguiente lista:
* 160 X 100 PUNTOS CON 16 COLORES
* 320 X 200 PUNTOS CON 4 COLORES
* 640 X 200 PUNTOS CON 2 COLORES
La tarjeta EGA
Enchanced Graphics Adapter (EGA). Se trata de una tarjeta gráfica superior a la CGA. En el modo texto ofrece una resolución de 14x18 puntos y en el modo gráfico dos resoluciones diferentes de 640x200 y 640x350 a 4 bits, lo que da como resultado una paleta de 16 colores, siempre y cuando la tarjeta esté equipada con 256KB de memoria de video RAM.
La tarjeta VGA
La Video Graphics Adapter (VGA) significó la aparición de un nuevo estándar del mercado. Esta tarjeta ofrece una paleta de 256 colores, dando como resultado imágenes de colores mucho más vivos. Las primeras VGA contaban con 256KB de memoria y solo podían alcanzar una resolución de 320x200 puntos con la cantidad de colores mencionados anteriormente. Primero la cantidad de memoria video RAM se amplió a 512KB, y más tarde a 1024KB, gracias a ésta ampliación es posible conseguir una resolución de, por ejemplo, 1024x768 píxeles con 8 bits de color. En el modo texto la VGA tiene una resolución de 720x400 pixeles, además posee un refresco de pantalla de 60HZ, y con 16 colores soporta hasta 640X480 puntos.
La tarjeta SVGA
La tarjeta SVGA (Super Video Graphics Adapter) contiene conjuntos de chips de uso especial, y más memoria, lo que aumenta la cantidad de colores y la resolución.
3. La tarjeta de sonido
Es una tarjeta electrónica que se conecta una ranura que tiene la computadora (CPU, en especìfico la tarjeta madre) que tiene como funciones principales: la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable).
En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM donde almacenan dichos "samples" o cortos; normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a la misma.
4. El modem
Es un dispositivo electrónico de entrada / salida (ver figura 3)que se utiliza principalmente para convertir señales digitales a análogas y viceversa, una de sus principales aplicaciones es en la conexión a redes teniendo como principal punto de referencia o ejemplo la Internet.
Por otra parte, si la queremos definir técnicamente tendríamos, diríamos que cuando hay una conexión con redes telefónicas se establece mediante el módem, y gracias a este los usuarios de muy diversos lugares pueden intercambiar información como faxes, memorandos, etc., la palabra MODEM surgió de la combinación de dos términos los cuales son MODULADOR y el otro DEMODULADOR .
La Modulación consiste en transformar los datos de la computadora (bits y bytes) en sonido o vibraciones acústicas, sin embargo, la Demodulación consiste en el proceso inverso, los sonidos se reciben y los cuales son convertidos a dat datos.
5. El SIMM
Siglas de Single In line Memory Module (ver figura 4), un tipo de encapsulado consistente en una pequeña placa de circuito impreso que almacena chips de memoria, y que se inserta en un zócalo SIMM en la placa madre o en la placa de memoria. Los SIMMs son más fáciles de instalar que los antiguos chips de memoria individuales, y a diferencia de ellos son medidos en bytes en lugar de bits.
El primer formato que se hizo popular en los computadores personales tenía 3.5" de largo y usaba un conector de 32 pins. Un formato más largo de 4.25", que usa 72 contactos y puede almacenar hasta 64 megabytes de RAM es actualmente el más frecuente.
Un PC usa tanto memoria de nueve bits (ocho bits y un bit de paridad, en 9 chips de memoria RAM dinámica) como memoria de ocho bits sin paridad. En el primer caso los ocho primeros son para datos y el noveno es para el chequeo de paridad.
Figura 4
Tipos De Simm’s
SIMM’s de 30 contactos
Son los SIMM propios de las primeras placas base con micros de 32 bits (386 y 486). Supongamos una de estas placas con zócalos de 30 contactos, cada uno de los cuales soporta 8 bits de datos. Necesitaremos 4 SIMM’s de 30 contactos para conseguir los 32 bits. Típicamente, estas placas tienen 8 zócalos divididos en dos bancos de 4 zócalos cada uno. El microprocesador sólo puede direccionar uno de los dos bancos en cada momento.
En algunos ordenadores, el hecho de mezclar SIMM’s de diferente capacidad en el mismo banco, puede producir efectos tales como una mala detección de la cantidad de memoria del sistema, o que el ordenador no arranque.
SIMM’s de 72 contactos
Los SIMM de 72 contactos se desarrollaron para satisfacer los requerimientos de expansión de memoria cada vez mayores. Un SIMM de 72 contactos soporta 32 bits de datos, es decir, cuatro veces el número de bits de datos soportado por los SIMM de 30 contactos. En placas base con micros de 32 bits (Intel 386 y 486) se necesita sólo un SIMM de 72 contactos por banco para proporcionar al microprocesador los 32 bits de datos.
Con los microprocesadores Pentium, al tener 64 bits para comunicaciones externas (aunque internamente sean micros de 32 bits), se necesita utilizar grupos de dos SIMM para proporcionar los 64 bits necesarios.
6. El DIMM
Los módulos DIMM (Dual In-Line Memory Module, ver figura 5) son similares a los SIMM, aunque con notables diferencias. Al igual que los SIMM, los DIMM se instalan verticalmente en los sockets de memoria de la placa base. Sin embargo, un DIMM dispone de 168 contactos, la mitad por cada cara, separados entre sí. Los DIMM se instalan en aquellas placas que soportan típicamente un bus de memoria de 64 bits o más. Típicamente, son los módulos que se montan en todas las placas Pentium-II con chipset LX, y hoy por hoy se han convertido en el estándar en memoria.
7. Escaner
Los escáneres son periféricos diseñados para registrar caracteres escritos, o gráficos en forma de fotografías o dibujos, impresos en una hoja de papel facilitando su introducción en la computadora convirtiéndolos en información binaria comprensible para ésta.
El funcionamiento de un escáner es similar al de una fotocopiadora. Se coloca una hoja de papel que contiene una imagen sobre una superficie de cristal transparente, bajo el cristal existe una lente especial que realiza un barrido de la imagen existente en el papel; al realizar el barrido, la información existente en la hoja de papel es convertida en una sucesión de información en forma de unos y ceros que se introducen en la computadora.
Para mejorar el funcionamiento del sistema informático cuando se están registrando textos, los escáneres se asocian a un tipo de software especialmente diseñado para el manejo de este tipo de información en código binario llamados OCR (Optical Character Recognition o reconocimiento óptico de caracteres), que permiten reconocer e interpretar los caracteres detectados por el escáner en forma de una matriz de puntos e identificar y determinar qué caracteres son los que el subsistema está leyendo.
Un caso particular de la utilización de un scanner, aunque representa una de sus principales ventajas, es la velocidad de lectura e introducción de la información en el sistema informático con respecto al método tradicional de introducción manual de datos por medio del teclado, llegándose a alcanzar los 1.200 caracteres por segundo
Así funciona un escáner:
Una definición simple de escáner podría ser la siguiente: dispositivo que permite pasar la información que contiene un documento en papel a una computadora, para de esta manera poder modificarlo.
Este proceso transforma las imágenes a formato digital, es decir en series de 0 y de 1, pudiendo entonces ser almacenadas, retocadas, impresas o ser utilizadas para ilustrar un texto.
El OCR:
Si pensamos un poco en el proceso de escaneado descrito, nos daremos cuenta de que al escanear un texto no se escanean letras, palabras y frases, sino sencillamente los puntos que las forman, una especie de fotografía del texto. Evidentemente, esto puede ser útil para archivar textos, pero sería deseable que pudiéramos coger todas esas referencias tan interesantes pero tan pesadas e incorporarlas al procesador de texto no como una imagen, sino como texto editable.
El OCR es un programa que lee esas imágenes digitales y busca conjuntos de puntos que se asemejen a letras, a caracteres. Dependiendo de la complejidad de dicho programa entenderá más o menos tipos de letra, llegando en algunos casos a interpretar la escritura manual, mantener el formato original (columnas, fotos entre el texto...) o a aplicar reglas gramaticales para aumentar la exactitud del proceso de reconocimiento.
Para que el programa pueda realizar estas tareas con una cierta fiabilidad, sin confundir "t" con "1", por ejemplo, la imagen debe cumplir unas ciertas características. Fundamentalmente debe tener una gran resolución, unos 300 ppp para textos con tipos de letra claros o 600 ppp si se trata de tipos de letra pequeños u originales de poca calidad como periódicos. Por contra, podemos ahorrar en el aspecto del color: casi siempre bastará con blanco y negro (1 bit de color), o a lo sumo una escala de 256 grises (8 bits). Por este motivo algunos escáners de rodillo (muy apropiados para este tipo de tareas) carecen de soporte para color.
El proceso de captación de una imagen resulta casi idéntico para cualquier escáner: se ilumina la imagen con un foco de luz, se conduce mediante espejos la luz reflejada hacia un dispositivo denominado CCD que transforma la luz en señales eléctricas, se transforma dichas señales eléctricas a formato digital en un DAC (conversor analógico-digital) y se transmite el caudal de bits resultante al ordenador.
Tipos de Escáneres
Existen cinco tipos de escáneres, pero no todos son ideales para la digitalización de imágenes
- De sobremesa o planos:
Un escáner plano es el tipo más versátil. Es ideal para escanear páginas de un libro sin tener que desprenderlas Generalmente lucen como fotocopiadoras pequeñas ideales para un escritorio, y se utilizan para los objetos planos. Sus precios pueden variar de acuerdo con la resolución de la imagen, pero salvo que se utilicen para realizar presentaciones muy importantes, como por ejemplo colocar imágenes para la Web, no se necesita adquirir uno de un costo tan alto.
- De mano:
Son los escáners "portátiles", es el menos costoso, con todo lo bueno y lo malo que implica esto. Hasta hace unos pocos años eran los únicos modelos con precios asequibles para el usuario medio, ya que los de sobremesa eran extremadamente caros; esta situación a cambiado tanto que en la actualidad los escáners de mano están casi inutilizados por las limitaciones que presentan en cuanto a tamaño del original a escanear (generalmente puede ser tan largo como se quiera, pero de poco más de 10 cm de ancho máximo) y a su baja velocidad, así como a la carencia de color en los modelos más económicos.
Lo que es más, casi todos ellos carecen de motor para arrastrar la hoja, sino que es el usuario el que debe pasar el escáner sobre la superficie a escanear. Todo esto es muy engorroso, pero resulta ideal para copiar imágenes pequeñas como firmas, logotipos y fotografías, además es eficaz para escanear rápidamente fotos de libros encuadernados, artículos periodísticos, facturas y toda clase de pequeñas imágenes.
- De rodillo:
Unos modelos de aparición relativamente moderna, se basan en un sistema muy similar al de los aparatos de fax: un rodillo de goma motorizado arrastra a la hoja, haciéndola pasar por una rendija donde está situado el elemento capturador de imagen.
Este sistema implica que los originales sean hojas sueltas, lo que limita mucho su uso al no poder escanear libros encuadernados sin realizar antes una fotocopia (o arrancar las páginas), salvo en modelos peculiares que permite separar el cabezal de lectura y usarlo como si fuera un escáner de mano. A favor tienen el hecho de ocupar muy poco espacio, incluso existen modelos que se integran en la parte superior del teclado; en contra tenemos que su resolución rara vez supera los 400x800 puntos, aunque esto es más que suficiente para el tipo de trabajo con hojas sueltas al que van dirigidos.
- Escáneres para transparencias:
Poseen una resolución mejor que los anteriores y por eso también son un poco más caros; pueden digitalizar transparencias desarrollando un trabajo de muy buena calidad. Estos tampoco son tan utilizados como los planos, pero en aquellas empresas en donde utilizan el formato de diapositiva y transparencia para sus impresiones, son una herramienta realmente indispensable.
Con el scanner se pueden digitalizar textos (escritos a máquina o con ordenador) e imágenes. Es imprescindible que el scanner esté encendido antes de encender el ordenador, en caso contrario no lo detecta. Para poder digitalizar textos hay que utilizar el programa OmniPage mientras que para las imágenes hay que utilizar el programa Paint Shop Pro 5.
Cómo digitalizar textos
Clicando sobre el icono llamado OmniPage que se encuentra en el escritorio, se accede al programa de digitalización de textos.
Una vez dentro del programa, hay que buscar la opción obtener imagen dentro del menú archivo o bien clicar sobre el icono del scanner que aparece en la parte superior izquierda de la pantalla.Aparecerá entonces una pequeña pantalla con varias opciones. Clicando sobre digitalizar el scanner empezará a trabajar.
Las hojas se pueden poner de dos formas diferentes en el scanner.
- Hay que colocar la hoja boca abajo en la parte superior derecha del scanner y después bajar la tapa.
- Se puede utilizar el alimentador automático.
Una vez que el programa ha obtenido la información de la hoja de texto, hay que pasarle el reconocedor de textos OCR. Para ello hay que buscar un icono con dichos caracteres OCR en la pantalla o bien en el menú archivo OCR, esta página.Si el reconocimiento ha sido correcto, el programa mostrará un nuevo menú para agregar más páginas o parar el digitalizado.
Clicando sobre parar digitalizado, aparece un menú en el que hay que indicarle al programa el nombre con el que queremos guardar el programa así como el formato.
Cómo digitalizar imágenes y fotografías:
Clicando sobre el icono PaintShop Pro 5 que se encuentra en el escritorio, se entra en el programa de digitalización de imágenes.
Una vez dentro, hay que buscar la opción Acquire dentro del menú File, import, twain
Cuando se clica sobre la opción acquire el scanner se pone en marcha mostrando una previsualización de la imagen en pantalla.
La imagen hay que colocarla el la parte superior derecha del scanner y siempre boca abajo cerrando después bien la tapa.
Una vez que se haya seleccionado la zona que se desea digitalizar y si las opciones de digitalizado son las deseadas, tipo, escala, brillo etc.. pulsando final el scanner digitalizará la imagen y la enviará al PaintShop Pro 5. Si la imagen digitalizada se ve detrás del menú de digitalización se podrá cerrar este para empezar a trabajar con las herramientas de retoque .
¿Cuánto ocupa una imagen?
Las imágenes digitalizadas se pueden guardar en diferentes formatos: GIF, TIF, BMP, JPG etc.
El formato que más comprime la imagen es el JPG pero a cambio pierde un poco de calidad. Cuanta mayor sea la compresión que se le aplique a la imagen, menor será la calidad.
El formato GIF tiene una buena resolución y, al igual que los JPG, se puede utilizar en paginas web HTML de internet, pero ocupa algo más.
El formato TIF es el que mejor calidad de imagen da y es compatible con Macintosh, pero es uno de los que más ocupan.
El formato BMP, es el más estandar y el más facil de insertar en cualquier editor de texto, en cambio, es uno de los que más espacio ocupan.
El formato PSP se puede leer únicamente con el PaintShop Pro.
Con la opción save as se llega al menú que permite trabajar con todas estas opciónes.
Cuando la imagen está guardada en la cuenta personal o en el disquete, se puede salir del programa mediante la opción exit del menú file.
Cuadro ilustrativo a cerca del tamaño de las imágenes:
Tipo de original
Destino
Método escaneado
Tamaño en RAM
Fotografía 10x15 cm
Pantalla
75 ppp / 24 bits
0,4 MB
Impresora B/N
300 ppp / 8 bits
2 MB
Impresora color
300 ppp / 24 bits
6 MB
Texto o dibujo en blanco y negro tamaño DIN-A4
Pantalla
75 ppp / 1 bit
66 KB
Impresora
300 ppp / 8 bit
8 MB
OCR
300 ppp / 1 bit
1 MB
Foto DIN-A4 en color
Pantalla
75 ppp / 24 bits
1,6 MB
Impresora
300 ppp / 24 bits
25 MB
Los colores y los bits
Al hablar de imágenes, digitales o no, a nadie se le escapa la importancia que tiene el color. Una fotografía en color resulta mucho más agradable de ver que otra en tonos grises; un gráfico acertadamente coloreado resulta mucho más interesante que otro en blanco y negro; incluso un texto en el que los epígrafes o las conclusiones tengan un color destacado resulta menos monótono e invita a su lectura.
Sin embargo, digitalizar los infinitos matices que puede haber en una foto cualquiera no es un proceso sencillo. Hasta no hace mucho, los escáners captaban las imágenes únicamente en blanco y negro o, como mucho, con un número muy limitado de matices de gris, entre 16 y 256. Posteriormente aparecieron escáners que podían captar color, aunque el proceso requería tres pasadas por encima de la imagen, una para cada color primario (rojo, azul y verde). Hoy en día la práctica totalidad de los escáners captan hasta 16,7 millones de colores distintos en una única pasada, e incluso algunos llegan hasta los 68.719 millones de colores.
Para entender cómo se llega a estas apabullantes cifras debemos explicar cómo asignan los ordenadores los colores a las imágenes. En todos los ordenadores se utiliza lo que se denomina sistema binario, que es un sistema matemático en el cual la unidad superior no es el 10 como en el sistema decimal al que estamos acostumbrados, sino el 2. Un bit cualquiera puede por tanto tomar 2 valores, que pueden representar colores (blanco y negro, por ejemplo); si en vez de un bit tenemos 8, los posibles valores son 2 elevado a 8 = 256 colores; si son 16 bits, 2 elevado a 16 = 65.536 colores; si son 24 bits, 2 elevado a 24 = 16’777.216 colores; etc, etc.
Por tanto, "una imagen a 24 bits de color" es una imagen en la cual cada punto puede tener hasta 16,7 millones de colores distintos; esta cantidad de colores se considera suficiente para casi todos los usos normales de una imagen, por lo que se le suele denominar color real. La casi totalidad de los escáners actuales capturan las imágenes con 24 bits, pero la tendencia actual consiste en escanear incluso con más bits, 30 ó incluso 36, de tal forma que se capte un espectro de colores absolutamente fiel al real; sin embargo, casi siempre se reduce posteriormente esta profundidad de color a 24 bits para mantener un tamaño de memoria razonable, pero la calidad final sigue siendo muy alta ya que sólo se eliminan los datos de color más redundantes.
Parámetros para una elección correcta
Definición:
Es la cualidad más importante de un escáner, es el grado de finura con el que se puede realizar el análisis de la imágen. Los fabricantes indican dos tipos de definición:
* óptica, que es la realmente importante, está determinada por el número de elementos CCD y la resolución de la lente. Se mide en puntos por pulgada.
* interpolada, que es el resultado de una serie de cálculos de difícil verificación.
Profundidad de análisis de color, que se expresa en número de bits
de 2 bits, resultaría una imágen en blanco y negro
de 8 bits, se obtendrías una imágen de 256 tonos de grises
de 24 bits u 8 bits por componente de color (verde, rojo, azul), la imágen puede llegar a ser de 16'7 millones de colores, de 30 bits, permite sobrepasar los mil millones de tintas.
Software:
Otro elemento a tener en cuenta es el software que acompaña al escáner. Muchos de ellos incorporan programas de gestión de textos y fotos, programas de reconocimiento de caracteres o programas de retoque fotográfico.
Conectores: ¿paralelo, SCSI o USB?
Esta es una de las grandes preguntas que debe hacerse todo futuro comprador de un escáner. La forma de conectar un periférico al ordenador es siempre importante, pues puede afectar al rendimiento del dispositivo, a su facilidad de uso o instalación... y fundamentalmente a su precio, claro.
Puerto paralelo
Es el método más común de conexión para escáners domésticos, entendiendo como tales aquellos de resolución intermedia-alta (hasta 600 x 1.200 ppp, pero más comúnmente de 300 x 600 ó 400 x 800 ppp) en los que la velocidad no tiene necesidad de ser muy elevada mientras que el precio es un factor muy importante.
El puerto paralelo, a veces denominado LPT1, es el que utilizan la mayor parte de las impresoras; como generalmente el usuario tiene ya una conectada a su ordenador, el escáner tendrá dos conectores, uno de entrada y otro de salida, de forma que quede conectado en medio del ordenador y la impresora. Como primer problema de este tipo de conexión tenemos el hecho de que arbitrar el uso del puerto paralelo es algo casi imposible, por lo que en general no podremos imprimir y escanear a la vez (aunque para un usuario doméstico esto no debería ser excesivo problema).
Conector SCSI
Sin lugar a dudas, es la opción profesional. Un escáner SCSI (leído "escasi") es siempre más caro que su equivalente con conector paralelo, e incluso muchos resultan más caros que modelos de mayor resolución pero que utilizan otro conector. Debido a este sobreprecio no se fabrican en la actualidad escáners SCSI de resolución menor de 300x600 ppp, siendo lo más común que las cifras ronden los 600x1.200 ppp o más.
Puerto USB
Esto es lo último en escáners. Los puertos USB están presentes en la mayoría de ordenadores Pentium II, AMD K6-2 o más modernos, así como en algunos Pentium MMX.
En general podríamos decir que los escáners USB se sitúan en un punto intermedio de calidad / precio. La velocidad de transmisión ronda los 1,5 MB / s, algo más que el puerto paralelo pero bastante menos que el SCSI; la facilidad de instalación es casi insuperable, ya que se basa en el famoso Plug and Play (enchufar y listo) que casi siempre funciona; todos los ordenadores modernos tienen el USB incorporado (los Pentium normales ya son antiguos; y además dejan el puerto paralelo libre para imprimir o conectar otros dispositivos.
La interfaz TWAIN
Se trata de una norma que se definió para que cualquier escáner pudiera ser usado por cualquier programa de una forma estandarizada e incluso con la misma interfaz para la adquisición de la imagen.
Si bien hace unos años aún existía un número relativamente alto de aparatos que usaban otros métodos propios, hoy en día se puede decir que todos los escáners normales utilizan este protocolo, con lo que los fabricantes sólo deben preocuparse de proporcionar el controlador TWAIN apropiado, generalmente en versiones para Windows 9x, NT y a veces 3.x. Desgraciadamente, sólo los escáners de marca relativamente caros traen controladores para otros sistemas operativos como OS/2 o Linux, e incluso en ocasiones ni siquiera para Windows 3.x o NT; la buena noticia es que la estandarización de TWAIN hace que a veces podamos usar el controlador de otro escáner de similares características, aunque evidentemente no es un método deseable...
Se trata de un programa en el que de una forma visual podemos controlar todos los parámetros del escaneado (resolución, número de colores, brillo...), además de poder definir el tamaño de la zona que queremos procesar.
Si la fidelidad del color es un factor de importancia, uno de los parámetros que probablemente deberemos modificar en esta interfaz es el control de gamma, para ajustar la gama de colores que capta el escáner con la que presenta nuestro monitor o imprime la impresora.
8. Tableta Digitalizadora
Es una tableta compacta generalmente de 127 x 102 mm que incorpora un lápiz sin cables . Esta excelente herramienta de trabajo permite emular una pizarra electrónica ideal para los ordenadores portátiles.
Permiten el manejo del cursor a través de la pantalla del sistema informático y facilitan una importante ayuda en el tratamiento de los comandos de órdenes en aplicaciones de CAD / CAM (diseño asistido por computadora).
Las tabletas digitalizadoras convierten una serie de coordenadas espaciales en un código binario que se introduce en la computadora. Estas coordenadas serán manejadas posteriormente por programas de dibujo, ingeniería, etc.
La tableta suele tener impresos en su armazón pulsadores con símbolos dibujados para ejecutar de modo directo comandos que agilizan el trabajo de manejo del software.
Las tabletas digitalizadoras poseen una resolución de alrededor de una décima de milímetro y pueden manejar gráficos en dos y tres dimensiones.
Una posibilidad de manejo muy intuitiva convierte a las tabletas digitalizadoras en unas herramientas muy útiles y polivalentes en los sistemas informáticos de diseño y manejo de gráficos.
Existen diversas tecnologías de construcción de tabletas, pudiendo ser éstas:
• Tabletas mecánicas.
• Tabletas electrónicas.
Las mecánicas, debido al desgaste producido en sus componentes por el uso continuado, son menos precisas y más delicadas de manejar que las electrónicas, siendo éstas, por ello, las más extendidas comercialmente en el mercado.
9. Lapiz Optico
Es un instrumento en forma de lápiz que por medio de un sistema óptico, ubicado en su extremo, permite la entrada de datos directamente a la pantalla. Para elaborar dibujos, basta con mover el lápiz frente a la pantalla y en ella va apareciendo una línea que describe dicho movimiento, igualmente se puede mover líneas de un sitio a otro, cuando se coloca el punto de la pluma en la pantalla y se presiona un botón, un dispositivo siente dentro de la pluma activada. Transmite a la memoria de la computadora el sitio de la luz en la pantalla. También sirve para señalar ítems de los menús al igual que el mouse.
Los lápices ópticos son dispositivos de introducción de datos que trabajan directamente con la pantalla de la computadora, señalando puntos en ella y realizando operaciones de manejo de software.
Para operar con el lápiz óptico se coloca éste sobre la pantalla del sistema informático. En el momento en que el cañón de rayos catódicos de la pantalla barre el punto sobre el que se posiciona el lápiz, éste envía la información a un software especial que la maneja. El microprocesador calcula cuál es la posición sobre la pantalla de la computadora permitiendo manipular la información representada en ella.
Los lápices ópticos permiten la introducción de datos, el manejo del cursor, etc., en la pantalla de la computadora. Son una asistencia para las limitaciones de los teclados en algunas aplicaciones, sobre todo las que no son de gestión pura (creativas, etc.),
O bien los bolígrafos-escáner, utensilios con forma y tamaño de lápiz o marcador fluorescente que escanean el texto por encima del cual los pasamos y a veces hasta lo traducen a otro idioma al instante.
10. Camaras digitales
Una cámara digital permite tomar fotos que se pueden visualizar e imprimir utilizando una computadora.
La mayoría incluyen una pantalla tipo visualizador de cristal líquido (LCD), que puede utilizar para tener una vista preliminar y visualizar la fotografías.
Incluyen un cable que permite conectar la cámara a un puerto. Permitiendo transferir las fotografías.
Almacenan fotografías hasta que se las transfiera a una computadora. La mayoría tiene una memoria integrada o removible.
- Memoria removible: almacenan fotografías en una tarjeta de memoria. Algunas las almacenan en un disquete regular que calza dentro de esta. Se puede reemplazar una tarjeta de memoria o disquete cuando esté llena.
- Memoria incorporada: almacenan al menos 20 fotografías. Una vez que está llena, se las transfiere a la computadora.
Las filmadoras son unos aparatos periféricos altamente especializados que convierten información, que se les introduce en código binario, en imágenes con una calidad similar a la de una imprenta (1.600 puntos por pulgada como mínimo) o fotogramas similares a los de cinematografía.
Las filmadoras se pueden conectar a una computadora o trabajar con ellas remotamente llevando la información hasta el punto donde están por medio de un soporte magnético.
soporte magnético.
Se utilizan para grabar conversaciones y otros sonidos, utilizando programas de conferencia para comunicarse a través de Internet. Con los programas de control de voz se puede conversar en un micrófono y emplear los comando de voz para controlar la computadora.
Unidireccional: graba sonidos de una dirección, lo que ayuda a reducir el ruido de fondo. Este tipo es útil para grabar una voz individual
Omnidireccional: graba sonidos de todas direcciones. Este tipo es útil para grabar varias voces en una conversación en grupo
Otras Herramientas Para La Digitalización
La función de la biometría tecnológica sirve para verificar la identificación de cada persona y para confirmar que se trata realmente de quien dice ser.
Uno de los campos que más utilizan este sistema es la informática.
Los sistemas de identificación biométrica se basan en analizar una característica biológica única de la persona. Estos métodos de control dan mayor seguridad que la utilización de objetos como tarjetas, llaves, (lo que una persona porta), como así también contraseñas, información, claves, firma, etc. (lo que la persona sabe).
Lectura de la huella digital
La identificación de alguien mediante un sistema electrónico de la huella digital (digital personal) es una de las más utilizadas en el mundo.
Esta funciona conectada a una amplia base de datos que indica si en realidad las huellas dactilares concuerdan con la información que se tiene acerca de la persona.
¿Cómo lo hace? El sistema transforma los arcos, rizos y espirales de las huellas en códigos numéricos, que luego se comparan con los datos de que se dispone dando resultados exactos, lo que garantiza uno de los más altos niveles de seguridad.
Lectura de la geometría de la mano
Otro aparato de biometría es el de identificación con base en las características de la mano (forma de los dedos, medidas, tamaño).
Sirve además para identificar al personal y sustituir el típico mercado de tarjetas a la hora de entrada o salida de las labores.
Escaneo del iris
El reconocimiento ocular es muy efectivo y se usa, sobre todo, en instituciones de alta seguridad (cárceles, bancos, cajeros...) de Japón, Gran Bretaña, Alemania y Estados Unidos. Lo que se examina son las fibras, manchas y surcos del iris por medio de una cámara especial (Iris scan)
Escaneo facial
También existe biometría facial que analiza la imagen de la cara de alguien impresa en una fotografía o en una toma de vídeo funciona analizando la imagen en vídeo o una fotografía y las características específicas de ciertas partes localizadas entre la frente y el labio superior, lugares que generalmente no se ven afectados por la expresión (esta puede operar sin que la persona sepa que está siendo estudiada).
Digitalización de la firma
Identificación de voz
Entre otros avances biométricos se encuentran los que tienen que ver con el olor corporal y la resonancia acústica de la cabeza (esta es muy efectiva porque permite reconocer las diferencias entre gemelos idénticos, lo cual no es posible bajo el sistema facial)
11. Procesadores actuales
En la actualidad existen procesadores muy poderosos como se menciono anteriormente. La compañía Intel acaba de lanzar al mercado su nuevo procesador Intel Pentium 4 de 2.0GHz
De igual manera ha mejorado sus procesadores anteriores como lo son el Pentium III, el cual acaba de lanzar al mercado el Pentium III de 1.13 GHz.
También existen otros procesadores de la compañía Intel que sirven para servidores y estaciones de trabajo como lo es el Intel XEON.
Así también el Intel ITANIUM el cual se considera como la nueva generación en procesadores para servidores y estaciones de trabajo.
Sin embargo la compañía Intel no es la única que fabrica los procesadores para las PC´s existe otra compañía que fabrica procesadores y es una de las principales competidoras de Intel y es la compañía AMD (Advanced Micro Devices) que fabrica procesadores como el AMD Athlon cuya velocidad actual es de 1.4 GHz.
También hay otros procesadores como el AMD Duron cuyo modelo desarrolla velocidades de 1GHz.
Tarjeta Principal
También llamada Tarjeta Madre o Motherboard es donde se encuentran las conexiones básicas para todos los componentes de la computadora, los cuales giran en torno al microprocesador. Es básicamente la que permite o no el futuro crecimiento de las habilidades de cualquier computadora, una tarjeta con una arquitectura muy cerrada terminará con la vida de todo el equipo en el momento que ésta requiera una reparación o mejora, éste fue el caso de la mayoría de las computadoras que existieron en el pasado, como por mencionar algunas : Comodore 64, Tandy 1000 e incluso todas las XT´s y algunas 286 de IBM.
Estas se pueden clasificar en la actualidad en :
- Arquitectura de 8 bits : Primeras XT
- Arquitectura ISA 8 -16 bits. La mayoría de las actuales clones
Arquitectura EISA o MCA de 32 bits. La mayoría de las de IBM o compatibles de marca de calidad que se venden
actualmente.
Actualmente existen muchísimos tipos de tarjetas madre a continuación se muestra solo un ejemplo de los muchos tipos de tarjetas madres.
Azza 815EPX
Hardware Characteristics of the Azza 815EPX
CPU
Intel(R) Pentium(R) III (FC-PGA) / CeleronTM Processor
500MHz~1GHz or faster processor
Chipset
Intel(R) 815EP chipset. (544 BGA)+ Intel(R) ICH2 chipset. (241 BGA)
Form factor
ATX - 30.5cm X 21cm
Expansion
5 PCI - 0 ISA - 2 CNR - 1 AGP - 4 USB
Memory
3X 168-pins DIMM SDRAM 512Mb PC133
FSB
66Mhz to 166Mhz in 1Mhz increment in the BIOS.
Vcore adj.
+0.05v, +0.1v, +0.2v, +0.3v, +0.4v, -0.05v, -0.1v,
Vio adj.
NA
Audio chipset
embeded into the chipset
En ella podemos encontrar los siguientes componentes:
El Coprocesador Matemático O Numérico
Es un microprocesador de instalación opcional, también denominado Unidad de punto flotante que auxilia al microprocesador en el uso eficiente de programas de graficación, cálculos matemáticos complejos y diseño entre tantos, lo cual al especializarse dichas funciones acelera la velocidad con que una computadora puede responder a necesidades tan sofisticadas.
En la actualidad ya vienen incluidos en todas las computadoras nuevas, ya que el poder que exigen no puede descartar la falta de éste microprocesador. Si usted desea saber si su computadora cuenta con uno de ellos, sólo vea, si en el modelo tiene agregada el par de letras DX en el caso contrario, usted necesitará en el futuro inmediato su instalación.
Sobre todo no queda duda si su maquina en lugar de este par de letras presenta otras como SX, como por ejemplo : 486 SX de 25 Mhz.
En caso que usted necesite la instalación de uno de ellos, debe asegurarse primero lo siguiente:
1.- Que su motherboard cuente con un slot disponible específico para el coprocesador matemático.
2.- Que el que le venden sea de la misma marca que el Microprocesador Principal de su computadora
3.- Que trabaje a la misma velocidad que lo hace el Microprocesador Principal de su computadora. esto es, si usted cuenta con una computadora 486 SX de 25 Mhz, el coprocesador debe ser un 487 SX de 25 Mhz. Como puede usted observar el coprocesador es algo así como la mitad del microprocesador completo.
12. La memoria
Es la capacidad de almacenar información, la cual se realiza en bancos separados de la UCP. Su unidad de almacenamiento es el BYTE que es la capacidad de almacenar un caracter: una letra, número o cualquier símbolo como #,$,&, etc.
Tipos de memorias:
Memoria ROM
Esta memoria es sólo de lectura, y sirve para almacenar el programa básico de iniciación, instalado desde fábrica. Este programa entra en función en cuanto es encendida la computadora y su primer función es la de reconocer los dispositivos, (incluyendo memoria de trabajo), dispositivos.
Memoria RAM
Esta es la denominada memoria de acceso aleatorio o sea, como puede leerse también puede escribirse en ella, tiene la característica de ser volátil, esto es, que sólo opera mientras esté encendida la computadora. En ella son almacenadas tanto las instrucciones que necesita ejecutar el microprocesador como los datos que introducimos y deseamos procesar, así como los resultados obtenidos de esto.
Por lo tanto, programa que se desea ejecutar en la computadora, programa que máximo debe ser del mismo tamaño que la capacidad de dicha memoria, de lo contrario se verá imposibilitada de ejecutarlo.
NOTA: Cuando se vea en la necesidad de adquirir un programa de cómputo, independientemente de cual o para que sea, lea muy bien las instrucciones antes de pagarlo, puesto que en ellas debe especificar claramente la cantidad recursos mínimos necesarios que debe tener su equipo para trabajar con éste. Búsquelos con el título, Requerimientos del sistema.
NOTA2: Como puede usted ver, si al momento de apagar nuestra computadora se volatilizan nuestro datos almacenados en la memoria RAM, requerimos por lo tanto, de medios que almacenamiento por tiempo indefinido que nos garanticen la seguridad y confiabilidad de nuestros datos, o sea, otro tipo de memorias.
En la actualidad se pueden conseguir tarjetas de memoria en RAM de hasta 512 Mb y los costos varían. A continuación se muestra una tabla con los precios actuales de la memoria en RAM.
NOTA2: Como puede usted ver, si al momento de apagar nuestra computadora se volatilizan nuestro datos almacenados en la memoria RAM, requerimos por lo tanto, de medios que almacenamiento por tiempo indefinido que nos garanticen la seguridad y confiabilidad de nuestros datos, o sea, otro tipo de memorias.
En la actualidad se pueden conseguir tarjetas de memoria en RAM de hasta 512 Mb y los costos varían. A continuación se muestra una tabla con los precios actuales de la memoria en RAM.
Tamaño
Precio (US Dlls)
64 Mb
$44
128Mb
$82
256Mb
$165
512Mb
$605
Memorias Auxiliares
Por las características propias del uso de la memoria ROM y el manejo de la RAM, existen varios medios de almacenamiento de información, entre los más comunes se encuentran:
El Disquete, Floppie o Disco Flexible
Estos son los más comunes y baratos, cuyas características se describen en la siguiente tabla:
TIPO DE DISCO
DOBLE DENSIDAD Kb
ALTA DENSIDAD Mb
Cinta de respaldo
Son como las cintas de cassette de audio y pueden almacenar desde 20 Mbytes hasta 2 Gigabytes o más. Son medios de almacenamiento muy económicos y sobre todo muy rápidos, ya que pueden almacenar todo un disco duro en un pequeño cassette en unos cuantos minutos.
Disco Duro
El Cuál se instala fijo dentro de la computadora, son más rápidos y seguros que las unidades de lectura de disquete y cuyas capacidades de almacenamiento van desde los 20 Mbytes hasta 2 Gigabytes. Los más rápidos andan por debajo de los 15 milisegundos de acceso de la información. En la actualidad evite comprar discos con capacidades menores a 120 Mb. en poco tiempo no le servirán prácticamente para nada.
Actualmente existen discos duros de mayor capacidad que van desde 10,15, hasta 40 o 60 Gb.
Los precios de los discos duros van desde $78 dlls el disco de 10 GB hasta $132 dlls el disco de 40 Gb.
CD-ROM o Disco Compacto
Son los más caros y de mayor capacidad ya que mínimo son de 500 Mbytes y pueden llegar a almacenar en el futuro alrededor de algunos Terabytes. Se recomienda ir comprando equipo que contengan éste dispositivo, ya que gracias a las grandes cantidades de información tan variada que pueden soportar éste tipo de almacenamiento, ya se comienzan a construir las grandes base de información en un sólo disco : Enciclopedias, Cursos, Viajes turísticos, los periódicos y revistas del futuro que tenemos frente a nosotros.
Fuente De Poder
Como tanto el microprocesador como todos los circuitos que forman los dispositivos se alimentan de cantidades muy pequeñas de energía necesitan de una fuente que les suministre y regule la cantidad necesaria. Ya que cualquier variación en el voltaje podría ser suficiente para quemar dichos circuitos.
Dispositivos de crecimiento:
Son las puertas que están listas para recibir la conexión de cualquier otro aparato o tarjeta que permita ampliar las capacidades de trabajo de una computadora, y son el punto más importante para asegurarnos haber hecho una buena inversión. Estos son las Ranuras de Expansión y los puertos. Los puertos son los puntos de conexión que ya vienen con la computadora y que permiten la instalación rápida de los dispositivos más comunes, como lo son el teclado, la impresora, el monitor, etc.
Suscribirse a:
Entradas (Atom)