miércoles, 4 de agosto de 2010
Microsoft ofrecerá Family Packs del Sistema Operativo Windows 7
Microsoft ofrecerá licencias Family Pack para el nuevo Sistema Operativo Windows 7 que va hacer lanzado en octubre del 2009. Esto le dara la libertad de que un usuario tiene mas de un computador en su casa, pueda instalar el Windows 7 en tres computadores con la misma licencia.
Este Family Pack de Windows 7 solamente sera ofrecido en la versión del Home Premiun, es decir que las versiones Bussines y Ultime no podrán acogerse a esta oferta.
Esto se debe a las constantes reclamos de los usuarios de Microsoft que tienen más de un computador en su hogar y debian comprar más de una copia del Sistema Operativo, ademas de las actualizaciones que se iban realizando constantemente.
Queridos lectores este articulo es una copia de este: Microsoft ofrecerá Family Packs del Sistema Operativo Windows 7
Pertenece a: BlogsCol
Los 10 avances tecnológicos más importantes de la década
A partir del 2000 y gracias a la aparición de nuevos productos y herramientas web, las comunicaciones se potenciaron. La masificación de las redes sociales y la aparición de celulares con más aplicaciones son sólo parte del catálogo de posibilidades.
por Axel Christiansen - 30/12/2009 - 09:00
Aumentar Disminuir Comentar Enviar a un amigo Imprimir Alertas Compartir
Su noticia está siendo enviada.
Sistema de envío de mensajes no disponible.
Reintente en unos minutos por favor.
Su mensaje ha sido enviado con éxito
Su nombre:
Nombre Destinatario:
E-mail Destinatario:
--------------------------------------------------------------------------------
Comentarios:
Enviar Cancelar
Digg del.icio.us Facebook Google Technorati Twitter Yahoo Fresqui
cerrar
GOOGLE
Su influencia se convirtió en un verbo: la gente no busca información en internet, sino que "googlea". Más del 75% de todas las búsquedas se hacen ahí. La compañía creada por Sergey Brin y Larry Page se convirtió en un imperio tecnológico que rivaliza con Microsoft: productos como Google Earth, Google Mail, el navegador Chrome y un sistema operativo para celulares (Android) son parte de sus logros.
FACEBOOK
En febrero de 2004, un estudiante de Harvard llamado Mark Zuckerberg creó un sitio para facilitar el contacto entre los estudiantes. En un par de años se convertiría en la red social más importante de internet. Hoy tiene más de 350 millones de usuarios.
IPOD
El iPod (2001) y la tienda digital iTunes volvieron a hacer rentable la industria musical con la venta de música digital, que hoy representa el 20% de las ganancias del sector.
SMARTPHONES
Esta fue la década en que se consolidó la pantalla multimedia del celular gracias a los smartphones, teléfonos que reciben emails y navegan por internet. BlackBerry y el iPhone dominan un mercado que suma 300 millones de aparatos.
YOUTUBE
Creado en 2005, tiene mil millones de visitas al día y suma 20 horas de contenido audiovisual subidas cada minuto.
FIREFOX
Tras la desaparición de Netscape, Microsoft tomó el dominio casi completo de los navegadores con Internet Explorer. Hasta que en 2004 apareció Mozilla Firefox, un proyecto sin fines de lucro y de código abierto. Hoy tiene el 25% del mercado.
WIKIPEDIA
Crear la mayor enciclopedia virtual, gratuita y con contenido de los mismos usuarios parecía descabellado. Hoy Wikipedia (2001) tiene 14 millones de artículos.
KINDLE
Creado por Amazon -empresa que nació vendiendo libros de papel-, Kindle (2007) asegura a los usuarios comprar, descargar y leer libros de manera fácil y sin perder calidad.
FOTOGRAFÍA DIGITAL
En esta década cambiamos los rollos por los megapíxeles. Las cámaras digitales no sólo se hicieron más asequibles, sino que están en un sinfín de aparatos, como los celulares.
INTERNET INALÁMBRICA
Ya sea a través de Wi-Fi -que aumentó la movilidad de los equipos y le dio mayor uso a los notebooks- o de 3G -que dotó a celulares de la experiencia web- internet está en todos lados.
por Axel Christiansen - 30/12/2009 - 09:00
Aumentar Disminuir Comentar Enviar a un amigo Imprimir Alertas Compartir
Su noticia está siendo enviada.
Sistema de envío de mensajes no disponible.
Reintente en unos minutos por favor.
Su mensaje ha sido enviado con éxito
Su nombre:
Nombre Destinatario:
E-mail Destinatario:
--------------------------------------------------------------------------------
Comentarios:
Enviar Cancelar
Digg del.icio.us Facebook Google Technorati Twitter Yahoo Fresqui
cerrar
Su influencia se convirtió en un verbo: la gente no busca información en internet, sino que "googlea". Más del 75% de todas las búsquedas se hacen ahí. La compañía creada por Sergey Brin y Larry Page se convirtió en un imperio tecnológico que rivaliza con Microsoft: productos como Google Earth, Google Mail, el navegador Chrome y un sistema operativo para celulares (Android) son parte de sus logros.
En febrero de 2004, un estudiante de Harvard llamado Mark Zuckerberg creó un sitio para facilitar el contacto entre los estudiantes. En un par de años se convertiría en la red social más importante de internet. Hoy tiene más de 350 millones de usuarios.
IPOD
El iPod (2001) y la tienda digital iTunes volvieron a hacer rentable la industria musical con la venta de música digital, que hoy representa el 20% de las ganancias del sector.
SMARTPHONES
Esta fue la década en que se consolidó la pantalla multimedia del celular gracias a los smartphones, teléfonos que reciben emails y navegan por internet. BlackBerry y el iPhone dominan un mercado que suma 300 millones de aparatos.
YOUTUBE
Creado en 2005, tiene mil millones de visitas al día y suma 20 horas de contenido audiovisual subidas cada minuto.
FIREFOX
Tras la desaparición de Netscape, Microsoft tomó el dominio casi completo de los navegadores con Internet Explorer. Hasta que en 2004 apareció Mozilla Firefox, un proyecto sin fines de lucro y de código abierto. Hoy tiene el 25% del mercado.
WIKIPEDIA
Crear la mayor enciclopedia virtual, gratuita y con contenido de los mismos usuarios parecía descabellado. Hoy Wikipedia (2001) tiene 14 millones de artículos.
KINDLE
Creado por Amazon -empresa que nació vendiendo libros de papel-, Kindle (2007) asegura a los usuarios comprar, descargar y leer libros de manera fácil y sin perder calidad.
FOTOGRAFÍA DIGITAL
En esta década cambiamos los rollos por los megapíxeles. Las cámaras digitales no sólo se hicieron más asequibles, sino que están en un sinfín de aparatos, como los celulares.
INTERNET INALÁMBRICA
Ya sea a través de Wi-Fi -que aumentó la movilidad de los equipos y le dio mayor uso a los notebooks- o de 3G -que dotó a celulares de la experiencia web- internet está en todos lados.
Sistemas Operativos por Servicios.
Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final:
Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final:
Por Número de Usuarios:
Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.
Por Número de Usuarios:
Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.
Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final:
Por Número de Usuarios:
Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.
Por Número de Usuarios:
Sistema Operativo Monousuario.
Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.
Tipos de Sistemas Operativos.
Actualmente los sistemas operativos se clasifican en tres formas:
sistemas operativos por los servicios que ofrecen
sistemas operativos por su estructura (visión interna)
sistemas operativos por la forma en que ofrecen sus servicios (visión externa).
sistemas operativos por los servicios que ofrecen
sistemas operativos por su estructura (visión interna)
sistemas operativos por la forma en que ofrecen sus servicios (visión externa).
Sistemas de Cómputo
Por otra parte, las principales líneas que se desarrollan como apoyo a la investigación se refieren al diseño y desarrollo de redes de cómputo y telecomunicaciones de datos de altas especificaciones; la puesta en funcionamiento de sistemas operativos de misión crítica con aplicaciones de visualización científica y supercómputo para investigación en ingeniería; el diseño y desarrollo de sistemas informáticos distribuidos; el diseño de sistemas para videoconferencia y la capacitación en informática y cómputo avanzado.
Investigación acerca de los últimos avances tecnológicos en plataformas de cómputo personal de oficina y móvil, sistemas de misión crítica basados en los sistemas operativos UNIX y Windows NT, así como programas de aplicación científica para estas plataformas y las de supercómputo, para conformar una infraestructura de cómputo distribuida.
Investigación sobre los últimos avances tecnológicos en redes de cómputo y videoconferencia de altas especificaciones basadas en tecnologías ATM, Gigabitethernet, fastethernet, H320, H323 y otras.
Investigación relacionada con los últimos avances en desarrollo de sistemas intranet basados en tecnologías web y motores de bases de datos SQL para ofrecer al personal los más avanzados sistemas de información académica.
Actualización y mantenimiento, en óptimas condiciones de operación, de hardware, software e infraestructura de cómputo a través de la contratación de servicios de mantenimiento externo con compañías privadas.
Asesoría y apoyo técnico en materia de cómputo al personal del Instituto.
Formación de recursos humanos en el conocimiento y manejo de nuevas tecnologías.
Investigación acerca de los últimos avances tecnológicos en plataformas de cómputo personal de oficina y móvil, sistemas de misión crítica basados en los sistemas operativos UNIX y Windows NT, así como programas de aplicación científica para estas plataformas y las de supercómputo, para conformar una infraestructura de cómputo distribuida.
Investigación sobre los últimos avances tecnológicos en redes de cómputo y videoconferencia de altas especificaciones basadas en tecnologías ATM, Gigabitethernet, fastethernet, H320, H323 y otras.
Investigación relacionada con los últimos avances en desarrollo de sistemas intranet basados en tecnologías web y motores de bases de datos SQL para ofrecer al personal los más avanzados sistemas de información académica.
Actualización y mantenimiento, en óptimas condiciones de operación, de hardware, software e infraestructura de cómputo a través de la contratación de servicios de mantenimiento externo con compañías privadas.
Asesoría y apoyo técnico en materia de cómputo al personal del Instituto.
Formación de recursos humanos en el conocimiento y manejo de nuevas tecnologías.
Manual de procedimiento
Un manual de procedimientos es el documento que contiene la descripciòn de actividades que deben seguirse en la realización de las funciones de una unidad administrativa, o de dos ò mas de ellas.
El manual incluye además los puestos o unidades administrativas que intervienen precisando su responsabilidad y participación.
Suelen contener información y ejemplos de formularios, autorizaciones o documentos necesarios, màquinas o equipo de oficina a utilizar y cualquier otro dato que pueda auxiliar al correcto desarrollo de las actividades dentro de la empresa.
En el se encuentra registrada y transmitida sin distorsión la información básica referente al funcionamiento de todas las unidades administrativas, facilita las labores de auditoria, la evaluación y control interno y su vigilancia, la conciencia en los empleados y en sus jefes de que el trabajo se està realizando o no adecuadamente
El manual incluye además los puestos o unidades administrativas que intervienen precisando su responsabilidad y participación.
Suelen contener información y ejemplos de formularios, autorizaciones o documentos necesarios, màquinas o equipo de oficina a utilizar y cualquier otro dato que pueda auxiliar al correcto desarrollo de las actividades dentro de la empresa.
En el se encuentra registrada y transmitida sin distorsión la información básica referente al funcionamiento de todas las unidades administrativas, facilita las labores de auditoria, la evaluación y control interno y su vigilancia, la conciencia en los empleados y en sus jefes de que el trabajo se està realizando o no adecuadamente
Historia de los Sistemas Introducción
Para tratar de comprender los requisitos de un Sistema Operativo y el significado de las principales características de un SistemaOperativo contemporáneo, es útil considerar como han ido evolucionando éstos con el tiempo.
A finales de los 40's el uso de computadoras estaba restringido a aquellas empresas o instituciones que podían pagar su alto precio, y no existían los sistemas operativos. En su lugar, el programador debía tener un conocimiento y contacto profundo con el hardware, y en el infortunado caso de que su programa fallara, debía examinar los valores de los registros y páneles de luces indicadoras del estado de la computadora para determinar la causa del fallo y podercorregir su programa, además de enfrentarse nuevamente a los procedimientos de apartar tiempo del sistema y poner a punto los compiladores, ligadores, etc; para volver a correr su programa, es decir, enfrentaba el problema del procesamiento serial ( serial processing ).
La importancia de los sistemas operativos nace históricamente desde los 50's, cuando se hizo evidente que el operar una computadora por medio de tableros enchufables en la primera generación y luego por medio del trabajoen lote en la segunda generación se podía mejorar notoriamente, pues el operador realizaba siempre una secuencia de pasos repetitivos, lo cual es una de las características contempladas en la definición de lo que es un programa. Es decir, se comenzó a ver que las tareas mismas del operador podían plasmarse en un programa, el cual a través del tiempo y por su enorme complejidad se le llamó "Sistema Operativo". Así, tenemos entre los primeros sistemas operativos al Fortran Monitor System ( FMS ) e IBSYS.
Posteriormente, en la tercera generación de computadoras nace uno de los primeros sistemas operativos con la filosofía de administrar una familia de computadoras: el OS/360 de IBM. Fue este un proyectotan novedoso y ambicioso que enfrentó por primera vez una serie de problemas conflictivos debido a que anteriormente las computadoras eran creadas para dos propósitos en general: el comercial y el científico. Así, al tratar de crear un solo sistema operativo para computadoras que podían dedicarse a un propósito, al otro o ambos, puso en evidencia la problemática del trabajo en equipos de análisis, diseñoe implantación de sistemas grandes. El resultado fue un sistema del cual uno de sus mismos diseñadores patentizó su opinión en la portada de un libro: una horda de bestias prehistóricas atascadas en un foso de brea.
Surge también en la tercera generación de computadoras el concepto de la multiprogramación, porque debido al alto costo de las computadoras era necesario idear un esquema de trabajo que mantuviese a la unidad central de procesamiento más tiempo ocupada, así como el encolado (spooling ) de trabajos para su lectura hacia los lugares libres de memoria o la escritura de resultados. Sin embargo, se puede afirmar que los sistemas durante la tercera generación siguieron siendo básicamente sistemas de lote.
En la cuarta generación la electrónica avanza hacia la integración a gran escala, pudiendo crear circuitos con miles de transistoresen un centímetro cuadrado de silicón y ya es posible hablar de las computadoras personales y las estaciones de trabajo. Surgen los conceptos de interfaces amigables intentando así atraer al público en general al uso de las computadoras como herramientas cotidianas. Se hacen populares el MS-DOS y UNIX en estas máquinas. También es común encontrar clones de computadoras personales y una multitud de empresas pequeñas ensamblándolas por todo el mundo.
Para mediados de los 80's, comienza el auge de las redes de computadoras y la necesidad de sistemas operativos en redy sistemas operativos distribuidos. La red mundial Internet se va haciendo accesible a toda clase de instituciones y se comienzan a dar muchas soluciones( y problemas ) al querer hacer convivir recursos residentes en computadoras con sistemas operativos diferentes. Para los 90's el paradigma de la programaciónorientada a objetos cobra auge, así como el manejo de objetos desde los sistemas operativos. Las aplicaciones intentan crearse para ser ejecutadas en una plataforma específica y poder ver sus resultados en la pantalla o monitor de otra diferente (por ejemplo, ejecutar una simulación en una máquina con UNIX y ver los resultados en otra con DOS ). Los niveles de interacción se van haciendo cada vez más profundos.
¿Qué es un Sistema Operativo?.
Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente.
Un Sistema Operativo es una parte importante de cualquier sistema de computación. Un sistema de computación puede dividirse en cuatro componentes: el hardware, el Sistema Operativo, los programas de aplicación y los usuarios. El hardware (Unidad Central de Procesamiento(UCP), memoria y dispositivos de entrada/salida (E/S)) proporciona los recursos de computación básicos. Los programas de aplicación (compiladores, sistemas de bases de datos, juegos de vídeo y programas para negocios) definen la forma en que estos recursos se emplean para resolver los problemas de computación de los usuarios.
Característica de un Sistema Operativo.
En general, se puede decir que un Sistema Operativo tiene las siguientes características:
Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.
Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una pàrte del procesador para poder compartir los recursos.
Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.
Procesamiento por bytes de flujo a través del bus de datos.
Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.
Técnicas de recuperación de errores.
Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario.
Generación de estadísticas.
Permite que se puedan compartir el hardware y los datos entre los usuarios.
El softwarede aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programación, hojas de cálculo, etc.
El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo.
El Software de base está compuesto por :
Cargadores.
Compiladores.
Ensambladores.
A finales de los 40's el uso de computadoras estaba restringido a aquellas empresas o instituciones que podían pagar su alto precio, y no existían los sistemas operativos. En su lugar, el programador debía tener un conocimiento y contacto profundo con el hardware, y en el infortunado caso de que su programa fallara, debía examinar los valores de los registros y páneles de luces indicadoras del estado de la computadora para determinar la causa del fallo y podercorregir su programa, además de enfrentarse nuevamente a los procedimientos de apartar tiempo del sistema y poner a punto los compiladores, ligadores, etc; para volver a correr su programa, es decir, enfrentaba el problema del procesamiento serial ( serial processing ).
La importancia de los sistemas operativos nace históricamente desde los 50's, cuando se hizo evidente que el operar una computadora por medio de tableros enchufables en la primera generación y luego por medio del trabajoen lote en la segunda generación se podía mejorar notoriamente, pues el operador realizaba siempre una secuencia de pasos repetitivos, lo cual es una de las características contempladas en la definición de lo que es un programa. Es decir, se comenzó a ver que las tareas mismas del operador podían plasmarse en un programa, el cual a través del tiempo y por su enorme complejidad se le llamó "Sistema Operativo". Así, tenemos entre los primeros sistemas operativos al Fortran Monitor System ( FMS ) e IBSYS.
Posteriormente, en la tercera generación de computadoras nace uno de los primeros sistemas operativos con la filosofía de administrar una familia de computadoras: el OS/360 de IBM. Fue este un proyectotan novedoso y ambicioso que enfrentó por primera vez una serie de problemas conflictivos debido a que anteriormente las computadoras eran creadas para dos propósitos en general: el comercial y el científico. Así, al tratar de crear un solo sistema operativo para computadoras que podían dedicarse a un propósito, al otro o ambos, puso en evidencia la problemática del trabajo en equipos de análisis, diseñoe implantación de sistemas grandes. El resultado fue un sistema del cual uno de sus mismos diseñadores patentizó su opinión en la portada de un libro: una horda de bestias prehistóricas atascadas en un foso de brea.
Surge también en la tercera generación de computadoras el concepto de la multiprogramación, porque debido al alto costo de las computadoras era necesario idear un esquema de trabajo que mantuviese a la unidad central de procesamiento más tiempo ocupada, así como el encolado (spooling ) de trabajos para su lectura hacia los lugares libres de memoria o la escritura de resultados. Sin embargo, se puede afirmar que los sistemas durante la tercera generación siguieron siendo básicamente sistemas de lote.
En la cuarta generación la electrónica avanza hacia la integración a gran escala, pudiendo crear circuitos con miles de transistoresen un centímetro cuadrado de silicón y ya es posible hablar de las computadoras personales y las estaciones de trabajo. Surgen los conceptos de interfaces amigables intentando así atraer al público en general al uso de las computadoras como herramientas cotidianas. Se hacen populares el MS-DOS y UNIX en estas máquinas. También es común encontrar clones de computadoras personales y una multitud de empresas pequeñas ensamblándolas por todo el mundo.
Para mediados de los 80's, comienza el auge de las redes de computadoras y la necesidad de sistemas operativos en redy sistemas operativos distribuidos. La red mundial Internet se va haciendo accesible a toda clase de instituciones y se comienzan a dar muchas soluciones( y problemas ) al querer hacer convivir recursos residentes en computadoras con sistemas operativos diferentes. Para los 90's el paradigma de la programaciónorientada a objetos cobra auge, así como el manejo de objetos desde los sistemas operativos. Las aplicaciones intentan crearse para ser ejecutadas en una plataforma específica y poder ver sus resultados en la pantalla o monitor de otra diferente (por ejemplo, ejecutar una simulación en una máquina con UNIX y ver los resultados en otra con DOS ). Los niveles de interacción se van haciendo cada vez más profundos.
¿Qué es un Sistema Operativo?.
Un Sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente.
Un Sistema Operativo es una parte importante de cualquier sistema de computación. Un sistema de computación puede dividirse en cuatro componentes: el hardware, el Sistema Operativo, los programas de aplicación y los usuarios. El hardware (Unidad Central de Procesamiento(UCP), memoria y dispositivos de entrada/salida (E/S)) proporciona los recursos de computación básicos. Los programas de aplicación (compiladores, sistemas de bases de datos, juegos de vídeo y programas para negocios) definen la forma en que estos recursos se emplean para resolver los problemas de computación de los usuarios.
Característica de un Sistema Operativo.
En general, se puede decir que un Sistema Operativo tiene las siguientes características:
Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora.
Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible.
Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio.
Encargado de administrar el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una pàrte del procesador para poder compartir los recursos.
Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera.
Organizar datos para acceso rápido y seguro.
Manejar las comunicaciones en red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras.
Procesamiento por bytes de flujo a través del bus de datos.
Facilitar las entradas y salidas. Un Sistema Operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora.
Técnicas de recuperación de errores.
Evita que otros usuarios interfieran. El Sistema Operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario.
Generación de estadísticas.
Permite que se puedan compartir el hardware y los datos entre los usuarios.
El softwarede aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programación, hojas de cálculo, etc.
El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo.
El Software de base está compuesto por :
Cargadores.
Compiladores.
Ensambladores.
Mouse IRIBIO con scanner de Iris
Este tipo de Mouse es el que necesita el FBI o la CIA. Se trata de una Mouse creado por una compañía Qritek que tiene un Scanner de Iris para poder acceder a la PC a la cual esté conectado el Mouse. Pero si no trabajas en una compañía importante o gubernamental, seguramente te verás extraño o tonto colocando el Mouse en tu ojo cada vez que quieras encender tu ordenador.
Este Mouse aunque raro, tiene su propio procesador de 500 MHz y 16MB de memoria RAM y 1MB de memoria flash, para almacenar y verificar registros, en caso de que tengas a varios usuarios autorizados para el acceso.
Su resolución de chequeo es de 600 dpi y la conexión hacia el ordenador es por medio de USB con encriptación.
Aún no se tiene un precio exacto, pero por el mini procesador y la memoria Ram, seguramente valdrá más.
Este Mouse aunque raro, tiene su propio procesador de 500 MHz y 16MB de memoria RAM y 1MB de memoria flash, para almacenar y verificar registros, en caso de que tengas a varios usuarios autorizados para el acceso.
Su resolución de chequeo es de 600 dpi y la conexión hacia el ordenador es por medio de USB con encriptación.
Aún no se tiene un precio exacto, pero por el mini procesador y la memoria Ram, seguramente valdrá más.
Mouse con teclado numérico
El Mouse de nuestra computadora es un elemento importante, tanto como hardware, como también puede ser un bonito elemento estético.
Algunas veces necesitamos que incluya algunas funciones extra, como Mouse con teléfono, que sea vertical, con aire, luminoso, etc. pero muy pocos incluyen funciones que realmente se utilicen.
Este ratón incluye un teclado numérico, es ideal para tu computadora personal, ya sea que estés trabajando con alguna hoja de cálculo o necesites hacer operaciones matemáticas rápidamente y tengas que ir a tu teclado, descuidando el ratón por algunos segundos.
Parece una buena idea ya que te ahorra bastante tiempo y aparte tiene un diseño que permite ver el teclado numérico mientras no lo usas gracias a su protección plástica transparente.
Tiene una resolución de 1000 dpi, 19 teclas numéricas, y no tiene palabras disponibles en el teclado, además de incluir la tradicional rueda de en medio y un tamaño de 13 x 13 mm, al parecer es apenas un prototipo, ya que no se habla mucho del precio o de la posible comercialización, pero esperemos que el precio no se eleve mucho.
No necesitas ningún driver, solo necesitas una conexión disponible USB y es compatible con Windows 98/ME/2000/XP.
Herramienta gratuita para crear aplicaciones Android sin ser experto: Google App Inventor. No sería mejor SOA?
Google creó una herramienta para desarrollar funciones sencillas para teléfonos celulares Android. Se llama App Inventor, es gratuita y la pueden usar incluso personas no especializadas en el desarrollo de software.
Google permitirá que cualquier usuario diseñe programas para su sistema operativo para teléfonos móviles Android.
La empresa aboga por una plataforma abierta para ampliar el mercado para su sistema operativo Android, en una estrategia exactamente opuesta a la de su rival Apple, en la que cada programa para el iPhone debe ser autorizado primero por los responsables.
Algunos expertos creen que en pocos años Google será líder con Android en el mercado de los teléfonos móviles.
Imágenes de Google App Inventor
Google permitirá que cualquier usuario diseñe programas para su sistema operativo para teléfonos móviles Android.
La empresa aboga por una plataforma abierta para ampliar el mercado para su sistema operativo Android, en una estrategia exactamente opuesta a la de su rival Apple, en la que cada programa para el iPhone debe ser autorizado primero por los responsables.
Algunos expertos creen que en pocos años Google será líder con Android en el mercado de los teléfonos móviles.
Imágenes de Google App Inventor
Kleer presenta el curso de Estimación y Planificación con Scrum – Programa CSD
Kleer presenta el curso de Estimación y Planificación con Scrum – Programa CSD
July 25th, 2010 por inventionary · Dejar un comentario
Duración: 8 horas
Fecha: 30 de Julio
Horario: 9:00 a 18:00 hs
Lugar del evento
Hotel “El Conquistador”
Suipacha 948, Salón América
Ciudad Autónoma de Buenos Aires
Buenos Aires
Argentina
PDUs (PMI): 8 (Categoría 4)
Muchos equipos creen que la planificación es algo que debe evitarse y demasiadas organizaciones consideran que los planes son un elementos de control de los equipos de desarrollo. Sin embargo, la planificación es una parte clave de todos los proyectos, sean ágiles o no. A pesar de la dudosa utilidad de la planificación tradicional, es posible crear un plan de proyecto de seis a nueve meses y que éste sea útil.
En este curso de un día los participantes aprenderán prácticas que realmente funcionan a la hora de la identificación y estimación de user stories, identificación de velocity y armado de un release plan.
Este curso enseña nuevas habilidades que los participantes pueden utilizar en la creación de planes ágiles. Los participantes saldrán con una sólida comprensión, y experiencia en relación con la planificación de releases e iteraciones ágiles. Se presentarán los enfoques para la estimación por puntos de historia , se presentarán cuatro técnicas de estimación, incluyendo la popular técnica de Planning Poker. Estas técnicas han demostrado aumentar la precisión de estimación y planificación, aumentando las posibilidades de finalización a tiempo de cualquier proyecto.
July 25th, 2010 por inventionary · Dejar un comentario
Duración: 8 horas
Fecha: 30 de Julio
Horario: 9:00 a 18:00 hs
Lugar del evento
Hotel “El Conquistador”
Suipacha 948, Salón América
Ciudad Autónoma de Buenos Aires
Buenos Aires
Argentina
PDUs (PMI): 8 (Categoría 4)
Muchos equipos creen que la planificación es algo que debe evitarse y demasiadas organizaciones consideran que los planes son un elementos de control de los equipos de desarrollo. Sin embargo, la planificación es una parte clave de todos los proyectos, sean ágiles o no. A pesar de la dudosa utilidad de la planificación tradicional, es posible crear un plan de proyecto de seis a nueve meses y que éste sea útil.
En este curso de un día los participantes aprenderán prácticas que realmente funcionan a la hora de la identificación y estimación de user stories, identificación de velocity y armado de un release plan.
Este curso enseña nuevas habilidades que los participantes pueden utilizar en la creación de planes ágiles. Los participantes saldrán con una sólida comprensión, y experiencia en relación con la planificación de releases e iteraciones ágiles. Se presentarán los enfoques para la estimación por puntos de historia , se presentarán cuatro técnicas de estimación, incluyendo la popular técnica de Planning Poker. Estas técnicas han demostrado aumentar la precisión de estimación y planificación, aumentando las posibilidades de finalización a tiempo de cualquier proyecto.
Kleer presenta el curso de Estimación y Planificación con Scrum – Programa CSD
Kleer presenta el curso de Estimación y Planificación con Scrum – Programa CSD
July 25th, 2010 por inventionary · Dejar un comentario
Duración: 8 horas
Fecha: 30 de Julio
Horario: 9:00 a 18:00 hs
Lugar del evento
Hotel “El Conquistador”
Suipacha 948, Salón América
Ciudad Autónoma de Buenos Aires
Buenos Aires
Argentina
PDUs (PMI): 8 (Categoría 4)
Muchos equipos creen que la planificación es algo que debe evitarse y demasiadas organizaciones consideran que los planes son un elementos de control de los equipos de desarrollo. Sin embargo, la planificación es una parte clave de todos los proyectos, sean ágiles o no. A pesar de la dudosa utilidad de la planificación tradicional, es posible crear un plan de proyecto de seis a nueve meses y que éste sea útil.
En este curso de un día los participantes aprenderán prácticas que realmente funcionan a la hora de la identificación y estimación de user stories, identificación de velocity y armado de un release plan.
Este curso enseña nuevas habilidades que los participantes pueden utilizar en la creación de planes ágiles. Los participantes saldrán con una sólida comprensión, y experiencia en relación con la planificación de releases e iteraciones ágiles. Se presentarán los enfoques para la estimación por puntos de historia , se presentarán cuatro técnicas de estimación, incluyendo la popular técnica de Planning Poker. Estas técnicas han demostrado aumentar la precisión de estimación y planificación, aumentando las posibilidades de finalización a tiempo de cualquier proyecto.
July 25th, 2010 por inventionary · Dejar un comentario
Duración: 8 horas
Fecha: 30 de Julio
Horario: 9:00 a 18:00 hs
Lugar del evento
Hotel “El Conquistador”
Suipacha 948, Salón América
Ciudad Autónoma de Buenos Aires
Buenos Aires
Argentina
PDUs (PMI): 8 (Categoría 4)
Muchos equipos creen que la planificación es algo que debe evitarse y demasiadas organizaciones consideran que los planes son un elementos de control de los equipos de desarrollo. Sin embargo, la planificación es una parte clave de todos los proyectos, sean ágiles o no. A pesar de la dudosa utilidad de la planificación tradicional, es posible crear un plan de proyecto de seis a nueve meses y que éste sea útil.
En este curso de un día los participantes aprenderán prácticas que realmente funcionan a la hora de la identificación y estimación de user stories, identificación de velocity y armado de un release plan.
Este curso enseña nuevas habilidades que los participantes pueden utilizar en la creación de planes ágiles. Los participantes saldrán con una sólida comprensión, y experiencia en relación con la planificación de releases e iteraciones ágiles. Se presentarán los enfoques para la estimación por puntos de historia , se presentarán cuatro técnicas de estimación, incluyendo la popular técnica de Planning Poker. Estas técnicas han demostrado aumentar la precisión de estimación y planificación, aumentando las posibilidades de finalización a tiempo de cualquier proyecto.
Maquina Analítica de Babbage.
Las dos grandes máquinas que inventó el hombre que se podían considerar como antecesores lejanos de las computadoras fueron: La Pascalina (máquina de Pascal) y la Máquina analítica de Babbage. Blaise Pascal, uno de los mas grandes filósofos y matemáticos de la historia, ideó una máquina para sumar (aunque también hacía restas, multiplicaciones y divisiones), empleando engranes.
La Máquina Analítica de Babbage, por otro lado, fue un fracaso al querer construir una enorme copia de la simple "calculadora" de Pascal, al querer destacar una unidad de control que manejaría todas las operaciones. Este diseño era muy ambicioso, en el sentido de que su funcionamiento se dividía en dos partes: la primera, una unidad para almacenar datos y la otra para introducir valores en la máquina y obtener resultados. Es decir, en aquella época este hombre de ciencia, estuvo a punto de "inventar" los programas que hoy en día usamos, lamentablemente el proyecto fracasó, por la limitada tecnología de los engranes y las máquinas de vapor y nunca pudo completarse.
Entre los antecesores mas directos de la computadora está la MARK 1, y la ENIAC en cuyos proyectos intervino John Von Newmann, quien aportó el concepto de programa, ya olvidado, además de aportar ideas de relevancia, que con base en ellas funcionan prácticamente todas las computadoras actuales, entre ellas el de que la computadora trabaje con sistema en base dos, es decir con los números 0 y 1, y no en base diez, el sistema que nosotros manejamos. Por sus ideas y aportaciones se podría considerar a John Von Newmann, como el inventor de las computadoras modernas.
A partir de la ENIAC y de la EDVAC (primera computadora programable), las computadoras comerciales han surgido con ciertas características comunes, que nos ayudan a agruparlas en términos históricos.
La corta historia de la computadora debe medirse, no tanto como un orden cronológico de años, sino mas bien en función de sus avances tecnológicos, en cualquiera de sus dos aspectos: los componentes físicos (HARDWARE) y los programas con los que funcionan (SOFTWARE).
Desde la invención de la primera computadora, estas han evolucionado, ese proceso se ha dividido en las siguientes generaciones:
PRIMERA GENERACION.
Esta generación abarca desde los inicios del año 1945 hasta unos diez años después. Durante ella la tecnología electrónica era en base de bulbos y la comunicación (en términos de computadoras) se hacía en el nivel mas bajo que puede existir, el lenguaje máquina.
Los principales avances que se dieron en esta generación fueron los siguientes:
ENIAC. Primera computadora digital de la historia. Esta máquina era experimental, no era programable, se trataba de un enorme aparato que se dice que ocupaba todo un sótano en la Universidad de Pennsylvania, donde se construyó, constaba de 18,000 bulbos, consumía varios Kw de potencia eléctrica y pesaba algunas toneladas. Esta máquina era capaz de efectuar 5,000 sumas por segundo y fue hecha por varios científicos estadounidenses encabezados por Mauchly y Eckert.
EDVAC. Primera computadora programable. Fue un prototipo de laboratorio, pero ya incluía en su diseño, las ideas centrales que conforman a las computadoras actuales.
UNIVAC 1. Primera computadora comercial, producto del trabajo que los doctores Mauchly y Eckert. Su primer uso fue en las oficinas de censos de los EE.UU.
IBM 701. Fue la primera de una larga serie de computadoras de esta compañía, fundada por Thomas Watson en 1934, que al inicio fabricaba tarjetas perforadas de registros, para la contabilidad. A la postre, esta compañía se convertiría en la #1, por sus altas ventas.
En esta generación fueron apareciendo las primeras compañías de computadoras que se anexaron a la UNIVAC y a la IBM, como la REMINGTON RAND.
SEGUNDA GENERACIÓN
En el año 1955, la electrónica tuvo un gran avance, que fue la sustitución de los bulbos por el transistor.
Estos tenían muchas ventajas, gracias a que consumían menos energía eléctrica y reducía el tamaño de las computadoras. Además, también ahora se iban a programar las computadoras con lenguaje de alto nivel y no con lenguaje máquina. Es decir, con una serie de instrucciones, más fáciles de comprender que el lenguaje máquina.
Varias compañías productoras aparecieron como CDC que fabricaba computadoras grandes y veloces; RCA que ofrecía una máquina que se manejaba con lenguaje COBOL, enfocado a programas de tipo administrativo.
Además, apareció otro lenguaje llamado FORTRAN, traductor de fórmulas, que hasta la fecha es empleado en labores de ingeniería.
Esta segunda generación duró pocos años, porque pronto hubo nuevos avances y porque lo que haría IBM en 1964, marcaría el inicio de una nueva generación de computadoras.
La Máquina Analítica de Babbage, por otro lado, fue un fracaso al querer construir una enorme copia de la simple "calculadora" de Pascal, al querer destacar una unidad de control que manejaría todas las operaciones. Este diseño era muy ambicioso, en el sentido de que su funcionamiento se dividía en dos partes: la primera, una unidad para almacenar datos y la otra para introducir valores en la máquina y obtener resultados. Es decir, en aquella época este hombre de ciencia, estuvo a punto de "inventar" los programas que hoy en día usamos, lamentablemente el proyecto fracasó, por la limitada tecnología de los engranes y las máquinas de vapor y nunca pudo completarse.
Entre los antecesores mas directos de la computadora está la MARK 1, y la ENIAC en cuyos proyectos intervino John Von Newmann, quien aportó el concepto de programa, ya olvidado, además de aportar ideas de relevancia, que con base en ellas funcionan prácticamente todas las computadoras actuales, entre ellas el de que la computadora trabaje con sistema en base dos, es decir con los números 0 y 1, y no en base diez, el sistema que nosotros manejamos. Por sus ideas y aportaciones se podría considerar a John Von Newmann, como el inventor de las computadoras modernas.
A partir de la ENIAC y de la EDVAC (primera computadora programable), las computadoras comerciales han surgido con ciertas características comunes, que nos ayudan a agruparlas en términos históricos.
La corta historia de la computadora debe medirse, no tanto como un orden cronológico de años, sino mas bien en función de sus avances tecnológicos, en cualquiera de sus dos aspectos: los componentes físicos (HARDWARE) y los programas con los que funcionan (SOFTWARE).
Desde la invención de la primera computadora, estas han evolucionado, ese proceso se ha dividido en las siguientes generaciones:
PRIMERA GENERACION.
Esta generación abarca desde los inicios del año 1945 hasta unos diez años después. Durante ella la tecnología electrónica era en base de bulbos y la comunicación (en términos de computadoras) se hacía en el nivel mas bajo que puede existir, el lenguaje máquina.
Los principales avances que se dieron en esta generación fueron los siguientes:
ENIAC. Primera computadora digital de la historia. Esta máquina era experimental, no era programable, se trataba de un enorme aparato que se dice que ocupaba todo un sótano en la Universidad de Pennsylvania, donde se construyó, constaba de 18,000 bulbos, consumía varios Kw de potencia eléctrica y pesaba algunas toneladas. Esta máquina era capaz de efectuar 5,000 sumas por segundo y fue hecha por varios científicos estadounidenses encabezados por Mauchly y Eckert.
EDVAC. Primera computadora programable. Fue un prototipo de laboratorio, pero ya incluía en su diseño, las ideas centrales que conforman a las computadoras actuales.
UNIVAC 1. Primera computadora comercial, producto del trabajo que los doctores Mauchly y Eckert. Su primer uso fue en las oficinas de censos de los EE.UU.
IBM 701. Fue la primera de una larga serie de computadoras de esta compañía, fundada por Thomas Watson en 1934, que al inicio fabricaba tarjetas perforadas de registros, para la contabilidad. A la postre, esta compañía se convertiría en la #1, por sus altas ventas.
En esta generación fueron apareciendo las primeras compañías de computadoras que se anexaron a la UNIVAC y a la IBM, como la REMINGTON RAND.
SEGUNDA GENERACIÓN
En el año 1955, la electrónica tuvo un gran avance, que fue la sustitución de los bulbos por el transistor.
Estos tenían muchas ventajas, gracias a que consumían menos energía eléctrica y reducía el tamaño de las computadoras. Además, también ahora se iban a programar las computadoras con lenguaje de alto nivel y no con lenguaje máquina. Es decir, con una serie de instrucciones, más fáciles de comprender que el lenguaje máquina.
Varias compañías productoras aparecieron como CDC que fabricaba computadoras grandes y veloces; RCA que ofrecía una máquina que se manejaba con lenguaje COBOL, enfocado a programas de tipo administrativo.
Además, apareció otro lenguaje llamado FORTRAN, traductor de fórmulas, que hasta la fecha es empleado en labores de ingeniería.
Esta segunda generación duró pocos años, porque pronto hubo nuevos avances y porque lo que haría IBM en 1964, marcaría el inicio de una nueva generación de computadoras.
ANTECESORES DE LAS COMPUTADORAS
ANTECESORES DE LAS COMPUTADORAS
El Ábaco, quizás fue el primer dispositivo mecánico de contabilidad que existió. Su origen es de al menos 3000 años, es un instrumento con bolas que corrían de izquierda a derecha hacían cálculos y todavía hoy es usado en Japón y China.
El Ábaco, quizás fue el primer dispositivo mecánico de contabilidad que existió. Su origen es de al menos 3000 años, es un instrumento con bolas que corrían de izquierda a derecha hacían cálculos y todavía hoy es usado en Japón y China.
Introducción.
A diferencia de como la mayoría de la gente piensa, la computadora no es el máximo invento de algún genio, sino mas bien el producto de enormes y complicados proyectos de investigación que duraron muchos años hasta poder llegar a crear modelos iniciales de computadoras, no es mas que la revolución que ha venido experimentando nuestra sociedad a lo largo de la historia.
La computadora surge durante la segunda guerra mundial, durante la construcción de la bomba atómica, desde entonces ha llegado a constituir un elemento esencial para la transformación de la industria mundial, como en esos momentos lo constituyó para la industria bélica. En efecto, esta primera computadora surge como respuesta a la necesidad de resolver en forma rápida y práctica, el problema de efectuar los miles y miles de cálculos requeridos, para determinar la trayectoria de un proyectil. La Universidad de Pennsylvania en unión con el departamento de defensa de los EE.UU., trabajaron en un proyecto destinado a obtener trayectorias balísticas, por medios mecánicos o electrónicos, esto dio como resultado una máquina llamada ENIAC, utilizaba, como ya mencioné, por necesidad de guerra, por los EE.UU., quienes habrían de comprobar su eficacia en el lanzamiento de las bombas atómicas sobre las ciudades de Hiroshima y Nagasaki en Japón, durante la segunda guerra mundial.
Con el paso de los años, a cambiado, con respecto a su origen militarista, por que se ha convertido, junto con la electrónica digital en el pilar indiscutible sobre la que descansa toda la tecnología moderna, ya que desde la máquina de Pascal hasta los robots, la computadora ha servido de base para la realización de diversos estudios relacionados por el hombre, casi siempre para el beneficio de la sociedad y de la ciencia.
Lo que ha hecho posible la existencia de las computadoras y su evolución es el avance de la electrónica, además de las inversiones de capitales para la investigación y el avance tecnológico.
Para resumir, las computadoras existen porque tenían que aparecer, una vez que el hombre había aprendido ha convertir en modelos matemáticos con los que explica la realidad que lo rodea.
La computadora surge durante la segunda guerra mundial, durante la construcción de la bomba atómica, desde entonces ha llegado a constituir un elemento esencial para la transformación de la industria mundial, como en esos momentos lo constituyó para la industria bélica. En efecto, esta primera computadora surge como respuesta a la necesidad de resolver en forma rápida y práctica, el problema de efectuar los miles y miles de cálculos requeridos, para determinar la trayectoria de un proyectil. La Universidad de Pennsylvania en unión con el departamento de defensa de los EE.UU., trabajaron en un proyecto destinado a obtener trayectorias balísticas, por medios mecánicos o electrónicos, esto dio como resultado una máquina llamada ENIAC, utilizaba, como ya mencioné, por necesidad de guerra, por los EE.UU., quienes habrían de comprobar su eficacia en el lanzamiento de las bombas atómicas sobre las ciudades de Hiroshima y Nagasaki en Japón, durante la segunda guerra mundial.
Con el paso de los años, a cambiado, con respecto a su origen militarista, por que se ha convertido, junto con la electrónica digital en el pilar indiscutible sobre la que descansa toda la tecnología moderna, ya que desde la máquina de Pascal hasta los robots, la computadora ha servido de base para la realización de diversos estudios relacionados por el hombre, casi siempre para el beneficio de la sociedad y de la ciencia.
Lo que ha hecho posible la existencia de las computadoras y su evolución es el avance de la electrónica, además de las inversiones de capitales para la investigación y el avance tecnológico.
Para resumir, las computadoras existen porque tenían que aparecer, una vez que el hombre había aprendido ha convertir en modelos matemáticos con los que explica la realidad que lo rodea.
guia on line con informacion de los avances y desarrollo tecnologico de hardware y software
guia on line con informacion de los avances y desarrollo tecnologico de hardware y software
Usted ha buscado el término: guia on line con informacion de los avances y desarrollo tecnologico de hardware y software encontrando 750 coincidencias.
Pág. 1.
1Avances Tecnológicos (Lima, Perú)
Empresa proveedora de soluciones en Tecnología de la Información (TI) que mejoran su productividad, su relación con clientes y proveedores. Desarrollo de Software / Sistemas, cuenta con un trayectoria de más de 15 años.
http://www.avances.com.pe/
Categoría: Informática Consultoría, Asesoría, Servicio Técnico
2Centro de Predicción Numérica del Tiempo y Clima - Instituto Geofísico del Perú (Perú)
El CPNTC tiene el propósito de aplicar los avances científicos y tecnológicos en la predicción del estado del tiempo y del clima, y con ello ayudar a resolver los problemas de planificación económica y desarrollo sostenible. Pronóstico del tiempo para el Perú, para la Aviación. Condiciones Observadas. Temperatura del Mar. Información de Satélite. El Clima en el Perú.
http://www.met.igp.gob.pe/
Categoría: Clima, el Tiempo, Meteorología
3Línea Perú (Perú)
Soporte en Hardware y Software, desarrollo de software, Internet, Intranet y Extranet. Sistema de Administración de Bibliotecas, Software de Control de Bazar, Software de Captura Biométrica, Digitalización de Documentos, etc.
http://www.lineaperu.com/
Categoría: Software
4Data Nostrum (Perú
Servicios de búsqueda de informacion de toda actividad por Internet. Desarrollo y mantenimiento de sistemas. Diseño de páginas web. Capacitacion y consultoria empresarial. Venta de hardware y software. Autores: Ingenieros de Tecnologias de la Informacion.
http://www.datanostrum.com
Categoría: Captura de Datos, Gestión de la Información
5Intech Group Peru SAC. (Magdalena, Lima, LM, Perú)
Comercializamos software (Gis, Cad, Hidrología), hardware, capacitación, desarrollo de aplicaciones, dibujo y diseño de planos y soluciones infomáticas como: MapInfo, AutoCAD, Envi y otros.
http://www.intechgroup.com.pe/
Categoría: Software
6Interneteando (Perú)
Página web del programa radial Interneteando (98.1 FM) que difunde información sobre Internet, ayudando a los novatos a conocer esta fascinante herramienta llamada Internet, así como software, hardware e informática en general. Tambien prestamos nuestro servicios de asesoría para la compra de sus equipos informáticos. Nuestra seccion 'Técnico en Línea' ayuda a solucionar los problemas de hardware o software.
http://www.interneteando.net/
Categoría: Manuales de Informática
7Orbis Informática S.R.L. (Perú)
Soluciones integrales para la Empresa de hoy. Asesoría, desarrollo, venta y mantenimiento. Solucionamos cualquier problema informático y asesoramos a empresas. Servicio personalizado. Todos nuestros productos, ya sea hardware o software son respaldados por marcas de prestigio.
http://www.orbisinformatica.com/
Categoría: Informática Consultoría, Asesoría, Servicio Técnico
8Transfar Suplies Computer (Surquillo, Lima, LM, Perú)
Desarrollo de Soluciones para Internet y Multimedia. Venta de Computadoras y Notebooks. Desarrollo de CD-ROMs interactivos, kioscos multimedia, desarrollo de sitios web y comercio electrónico. Desarrollo de sistemas Intranet / Extranet. Instalación de Redes.
http://www.transfarcorp.com/
Categoría: Computadoras Venta de Hardware y Accesorios
9TumiSoft Informatique (Lausanne, Suiza)
De la conception et de la réalisation de sites Web. Installation, configuration des postes de travail. Mise en place de systèmes en réseau. Serveurs dédiés, serveurs de fichiers, d'impression. Installation des Intranet et accès Internet. /// Empresa peruana en Suiza.
http://www.tumisoft.ch/
Categoría: Diseño de Páginas Web: Extranjero
10Apoyo Digital - Negocios y Tecnología (Lima, LM, Perú)
Diseño y mantenimiento de páginas web, hosting, marketing web, alta en buscadores, venta de computadoras, soporte técnico, instalación de cabinas internet, desarrollo de e-books y consultoria en general en tecnología. Contamos con Datacenter en EEUU.
http://www.apoyo-digital.com/
Categoría: Diseño de Páginas Web: Lima: Corporativas
11All Perú On Line - E-Commerce - E-Marketing - E-Business (La Molina, Lima, Perú)
Desarrollo, diseño, mantenimiento de páginas web. E-Commerce, e-marketing, e-business, asesoría estratégica, desarrollo de negocios convencionales y/o virtuales.
http://www.allperuonline.com/
Categoría: Diseño de Páginas Web: Lima: Corporativas
12Trabucco Vizcarra - Negocios Electrónicos y Sistemas de Información (Tacna, TC, Perú)
Diseño de Páginas Web, Asesoramiento en Modelo de Negocios por Internet, Base de Datos, Consultoría de Contenido. Implementacion de e-CMR y e-Marketing, Fidelización de Clientes, etc..
http://trabuccovizcarra.awardspace.com/trabucco/
Categoría: Software
13Supérate.com.pe - Buscador de maestrias y diplomados (Perú)
La mejor guía para tu desarrollo profesional. Te acercamos a los estudios de postgrado con la mejor información para aquellos que deseen ampliar sus conocimientos profesionales y disponer de distintas herramientas para alcanzar el éxito.
http://www.superate.com.pe/
Categoría: Portales Educativos
14InfoCapitalHumano.pe - Guía de Recursos Humanos (Perú)
Portal peruano especializado en Recursos Humanos, que brinda la más completa información del y para el sector. Para los ejecutivos que trabajan Recursos Humanos.
http://www.infocapitalhumano.pe/
Categoría: Trabajo, Empleo
15Becois Peru Sac. - Beco Inform Systems (Lima, Perú)
Innovación y desarrollo de avances tecnológicos. Desarrollo de softwares a medida, diseño de páginas web, venta de equipo y suministros de cómputo, mantenimiento y soporte técnico, redes inalámbricas, videos de seguridad, etc.
Usted ha buscado el término: guia on line con informacion de los avances y desarrollo tecnologico de hardware y software encontrando 750 coincidencias.
Pág. 1.
1Avances Tecnológicos (Lima, Perú)
Empresa proveedora de soluciones en Tecnología de la Información (TI) que mejoran su productividad, su relación con clientes y proveedores. Desarrollo de Software / Sistemas, cuenta con un trayectoria de más de 15 años.
http://www.avances.com.pe/
Categoría: Informática Consultoría, Asesoría, Servicio Técnico
2Centro de Predicción Numérica del Tiempo y Clima - Instituto Geofísico del Perú (Perú)
El CPNTC tiene el propósito de aplicar los avances científicos y tecnológicos en la predicción del estado del tiempo y del clima, y con ello ayudar a resolver los problemas de planificación económica y desarrollo sostenible. Pronóstico del tiempo para el Perú, para la Aviación. Condiciones Observadas. Temperatura del Mar. Información de Satélite. El Clima en el Perú.
http://www.met.igp.gob.pe/
Categoría: Clima, el Tiempo, Meteorología
3Línea Perú (Perú)
Soporte en Hardware y Software, desarrollo de software, Internet, Intranet y Extranet. Sistema de Administración de Bibliotecas, Software de Control de Bazar, Software de Captura Biométrica, Digitalización de Documentos, etc.
http://www.lineaperu.com/
Categoría: Software
4Data Nostrum (Perú
Servicios de búsqueda de informacion de toda actividad por Internet. Desarrollo y mantenimiento de sistemas. Diseño de páginas web. Capacitacion y consultoria empresarial. Venta de hardware y software. Autores: Ingenieros de Tecnologias de la Informacion.
http://www.datanostrum.com
Categoría: Captura de Datos, Gestión de la Información
5Intech Group Peru SAC. (Magdalena, Lima, LM, Perú)
Comercializamos software (Gis, Cad, Hidrología), hardware, capacitación, desarrollo de aplicaciones, dibujo y diseño de planos y soluciones infomáticas como: MapInfo, AutoCAD, Envi y otros.
http://www.intechgroup.com.pe/
Categoría: Software
6Interneteando (Perú)
Página web del programa radial Interneteando (98.1 FM) que difunde información sobre Internet, ayudando a los novatos a conocer esta fascinante herramienta llamada Internet, así como software, hardware e informática en general. Tambien prestamos nuestro servicios de asesoría para la compra de sus equipos informáticos. Nuestra seccion 'Técnico en Línea' ayuda a solucionar los problemas de hardware o software.
http://www.interneteando.net/
Categoría: Manuales de Informática
7Orbis Informática S.R.L. (Perú)
Soluciones integrales para la Empresa de hoy. Asesoría, desarrollo, venta y mantenimiento. Solucionamos cualquier problema informático y asesoramos a empresas. Servicio personalizado. Todos nuestros productos, ya sea hardware o software son respaldados por marcas de prestigio.
http://www.orbisinformatica.com/
Categoría: Informática Consultoría, Asesoría, Servicio Técnico
8Transfar Suplies Computer (Surquillo, Lima, LM, Perú)
Desarrollo de Soluciones para Internet y Multimedia. Venta de Computadoras y Notebooks. Desarrollo de CD-ROMs interactivos, kioscos multimedia, desarrollo de sitios web y comercio electrónico. Desarrollo de sistemas Intranet / Extranet. Instalación de Redes.
http://www.transfarcorp.com/
Categoría: Computadoras Venta de Hardware y Accesorios
9TumiSoft Informatique (Lausanne, Suiza)
De la conception et de la réalisation de sites Web. Installation, configuration des postes de travail. Mise en place de systèmes en réseau. Serveurs dédiés, serveurs de fichiers, d'impression. Installation des Intranet et accès Internet. /// Empresa peruana en Suiza.
http://www.tumisoft.ch/
Categoría: Diseño de Páginas Web: Extranjero
10Apoyo Digital - Negocios y Tecnología (Lima, LM, Perú)
Diseño y mantenimiento de páginas web, hosting, marketing web, alta en buscadores, venta de computadoras, soporte técnico, instalación de cabinas internet, desarrollo de e-books y consultoria en general en tecnología. Contamos con Datacenter en EEUU.
http://www.apoyo-digital.com/
Categoría: Diseño de Páginas Web: Lima: Corporativas
11All Perú On Line - E-Commerce - E-Marketing - E-Business (La Molina, Lima, Perú)
Desarrollo, diseño, mantenimiento de páginas web. E-Commerce, e-marketing, e-business, asesoría estratégica, desarrollo de negocios convencionales y/o virtuales.
http://www.allperuonline.com/
Categoría: Diseño de Páginas Web: Lima: Corporativas
12Trabucco Vizcarra - Negocios Electrónicos y Sistemas de Información (Tacna, TC, Perú)
Diseño de Páginas Web, Asesoramiento en Modelo de Negocios por Internet, Base de Datos, Consultoría de Contenido. Implementacion de e-CMR y e-Marketing, Fidelización de Clientes, etc..
http://trabuccovizcarra.awardspace.com/trabucco/
Categoría: Software
13Supérate.com.pe - Buscador de maestrias y diplomados (Perú)
La mejor guía para tu desarrollo profesional. Te acercamos a los estudios de postgrado con la mejor información para aquellos que deseen ampliar sus conocimientos profesionales y disponer de distintas herramientas para alcanzar el éxito.
http://www.superate.com.pe/
Categoría: Portales Educativos
14InfoCapitalHumano.pe - Guía de Recursos Humanos (Perú)
Portal peruano especializado en Recursos Humanos, que brinda la más completa información del y para el sector. Para los ejecutivos que trabajan Recursos Humanos.
http://www.infocapitalhumano.pe/
Categoría: Trabajo, Empleo
15Becois Peru Sac. - Beco Inform Systems (Lima, Perú)
Innovación y desarrollo de avances tecnológicos. Desarrollo de softwares a medida, diseño de páginas web, venta de equipo y suministros de cómputo, mantenimiento y soporte técnico, redes inalámbricas, videos de seguridad, etc.
Avances en Hardware
En verano de 1970, IBM amplió el juego de instrucciones e implementó el mecanismo de memoria virtual del 360/67 en todos los modelos, y por consiguiente, desarrollando y adaptando los SO existentes para trabajar con memoria virtual, rebautizando la nueva arquitectura como IBM S/370. A partir de aquí, a lo largo de los años 70 y 80, las máquinas se hicieron más grandes en tamaño, potencia, velocidad y recursos, pero la arquitectura básica de 1964 no cambió en absoluto.
Por un lado venía de puta madre, porque los programas escritos en 1964 funcionaban perfectamente en 1980, pero a toda leche. Pero por otro, dado que el bus de direcciones era de 24 bits, y los programas eran cada vez mayores, se dieron cuenta que al final existía una limitación hardware de 16 MB de RAM direccionable, tanto real como virtual. Así que IBM se puso manos a la obra, y en 1982 desarrollo la arquitectura S/370-XA, que tenía un bus de 32 bits, lo que hacía que se direccionala hasta ¿4 GB de RAM? Noooo! Sólo podía direccionar 2 GB de RAM.
Y a que se debe esto? Pues muy sencillo: Como para IBM primaba la compatibilidad hacia atrás, se las arreglo para que a nivel hardware los programas escritos para 24 bits no notaran la diferencia, usando de los 32 bits, un bit (el 31) para decir si la página de memoria esta por encima de los 16 bits (XA) o esta por debajo (tradicional). Así, mi programa escrito en 1964 funcionaría por debajo de los 16 MB como siempre, pero los nuevos programas que escriba a partir de ahora, podría desarrollarlos a 31 bits y situarlos en un espacio de direcciones por encima de los 16 MB. O que coño, puedo coger mis fuentes y recompilarlos con mi compilador y decirle que me los sitúe encima de los 16 MB de RAM (solo tengo que poner un parámetro en el compilador).
Como información adicional, esa diferencia entre menos de 16 MB y mas de 16 MB la denominó “La LINEA”, haciendo referencia a que por debajo de la línea, se situaban los programas tradicionales, y por encima de la línea, los programas “cool” nuevecitos. Y ya que estamos, IBM en 1988 le dio por desarrollar un nuevo concepto de memoria virtual: Los múltiples espacios de almacenamiento, haciendo referencia a que cada programa podría tener su propia gestión de la memoria virtual, por capas, desterrando así el concepto de gestión plana de memoria. A esta arquitectura, se la denomino IBM ESA/370 (Enterprise Systems Architecture).
En la década de los 90, IBM desarrolló una nueva arquitectura llamada ES/9000, multiprocesadores con múltiples espacios de memoria, sistema LPAR de particiones virtuales de máquina (vamos, VMwares por hardware), cambiando el nombre de la arquitectura ESA/370 a ESA/390. Fue también la época donde se desterró el cobre como medio de transmisión y se impuso la fibra óptica (ESCON –Enterprise Systems CONnection), por lo que el acceso a discos, cintas, etc, se realizaba vía fibra a velocidades de 20 MB/seg por canal, mientras que en cobre como mucho se podían alcanzar velocidades de 4,5 MB/seg (decir que puedes conectar mas de un canal a un periférico, así que el ancho de banda se balancea automáticamente y lo multiplicas).
A partir de ese momento, y una vez que en 1994 los ES/9000 estaban en pleno auge, IBM cambió la tecnología a una más barata, pequeña pero mucho mas veloz, llamada IBM Parallell Enterprise Server, sacando cada año, una generación (desde la G1 hasta el G6 de 1999).
Pero fue en el año 2000 cuando IBM dijo: 2 GB me saben a poco. Quiero más. Así que desarrolló la arquitectura z/Series, con un espacio de direcciones de 64 bits, lo que hacía que podría direccionar hasta 16 EXABYTES de datos en memoria. Es decir, que en el último z/Series que me compre mañana mismo, me va a funcionar un programa escrito en 1964. Te cagas.
No existe otro sistema informático en el mundo que respete de forma tan fiel la compatibilidad hacia atrás. Como nota curiosa, como el bit 31 es el identificador que sitúa a un programa por encima o por debajo de la línea, hay 2 GB que no se pueden direccionar, para la máquina no existen. Así que a estos 2 GB “fantasmas” se les denomino La BARRA.
Por encima de la Barra, y al igual que pasaba con la línea, puedo compilar un programa y hacer que se ejecute o debajo de la línea, o entre la línea y la barra o por encima de la barra, ya os digo que cambiando un parámetro.
Después de este “breve” paso por los adelantos tecnológicos que ha sufrido la historia del mainframe, paso ya a comentar los adelantos de los SO de la época hasta nuestros días.
A lo largo de la vida de la plataforma S/360, se desarrollaron los siguientes SO:
DOS para las máquinas pequeñas
OS/360 para las máquinas medianas/grandes
TSS/360 para sistemas de tiempo compartido y multiusuarios.
Pero como el TSS/360 fue un fiasco mayúsculo, fue reemplazado por los siguientes productos:
CP/67, que luego pasaría a llamarse VM/370
TSO, Time Sharing Option, para OS/360
A continuación, paso a explicar brevemente cada uno:
DOS: Disk Operating System, ideado para máquinas pequeñas. Se almacenaba en disco y ocupaba 24 KB. Existía tambien una versión tipo Knoppix “Live-Tape” llamada TOS, para equipos que no tenían disco duro y se cargaba todo desde cinta.
Este SO sólo podía ejecutar una tarea a la vez, así que era como podréis observar similar al MS-DOS, pero con 25 años de diferencia. Vamos, que Microsoft no inventó absolutamente nada. Tenía un espacio de direcciones plano así que si tu programa no cabía en memoria real, pues a joderse.
Se introducía en programa por tarjetas y daba un resultado. Simple a mas no poder –por eso no petaba, a menos que tu, como programador lo metieras en un bucle infinito por tu ineptitud picando código-, y como esto se parece mucho al MS-DOS, pues poco mas que añadir.
TSS/360: Este SO quería ser algo mejor de lo que hacía el Multics de aquel entonces. Como IBM sabía que el impacto iba a ser sobrecogedor, empleo a miles y miles de programadores en todo el mundo para hacer el TSS/360. Lo que tenía este SO de bueno era que podías tener cientos de terminales simultáneamente trabajando contra la misma máquina, cada uno desarrollando programas, ejecutándolos, en definitiva, interactuando con la máquina en tiempo real.
El resultado fue un pedazo de mierda solo comparable con MS Windows 95 Primera edición: tardaba 10 minutos arrancar, hasta que te aparecía el LOGON, y luego tenías 10 minutos de vida aproximadamente hasta que se cayera todo el sistema de manera dramática. Evidentemente, IBM abandonó dicho proyecto y nunca se llegó a comercializar.
TSO: No obstante, cuando murió el TSS, algunos desarrolladores de IBM se quedaron con la copla y con lo mejor del TSS y desarrollaron un nuevo sistema de tiempo compartido, llamado TSO (Time Sharing Option), que ha perdurado hasta nuestros días (si veis una pantalla verde en algún ministerio o ayuntamiento con emulación 3270, o es que hay un CICS (un gestor transaccional desarrollado en 1968) o hay TSO, no puede haber nada más).
El problema es que por aquel entonces, no funcionaba tan maravillosamente, ya que el TSO comía más de media máquina en MFT o MVT (luego los explico), sin contar con el hecho que una vez al día por lo menos, cascaba estrepitosamente.
CP67: Este SO virtualizaba en todos los aspectos la máquina real, dando la sensación que el usuario tenía toda una máquina S/360 para el solito, pero al final todo es un programa, como el de Parada. Se llama Control Program.
Por consiguiente, podías instalar un SO dentro de esa máquina, ya sea MVT, MFT, DOS o lo que quisieras, al igual que lo hace un VMware de los de hoy en día. Al final, este SO se rebautizó como VM/370 con la llegada del System/370. Y ha seguido una evolución tecnológica de acuerdo a la tecnología existente, pasando de ser VM/370 a VM/370-XA, VM/ESA, y ahora, z/VM.
OS/360: El estandarte de los sistemas operativos de la época y el que mas recursos humanos en todo el mundo ha tenido –antes de la llegada de GNU/Linux-. Robusto de narices, es EL SO mas seguro del mundo. El nombre de OS/360 viene a que ese iba a ser el SO que iba a soportar toda la gama de máquinas, pero al principio se desarrollaron varias fases:
OS/360-PCP: Primary Control Program: Era una parte muy muy simple del OS/360, y como el DOS, solo podía ejecutar un programa a la vez. Pero claro, OS/360-PCP necesitaba de un maquinón para su ejecución, así que la gente que se decantaba por una máquina pequeña y un sistema operativo similar, se iba de cabeza al DOS. Así que este SO se quedo en los laboratorios de IBM para desarrollar software para otros SO.
OS/360-MFT: Multiprogramming with Fixed number of Tasks: Meses mas tarde, salió a la luz y fue el primer SO multitarea de la historia. La memoria la dividías en regiones y cada región podía ejecutar un programa distinto. Pero la pega es que debías conocer al dedillo los jobs o programas que ibas a lanzar, ya que si un job ocupaba más que la región seleccionada, no cabía y por lo tanto, no podía ser ejecutado.
Y si tenias que cambiar la configuración de las regiones de memoria, tenías que apagar todo y volver a configurar, por lo que era un modelo chungo de trabajo, aunque si te lo montabas bien, podrías ejecutar cientos de tareas simultáneas.
OS/360-MVT: Multiprogramming with Variable number of Tasks: Este SO podía crear y borrar regiones de memoria a placer, de tal forma que para ejecutar un job, el SO miraba la memoria disponible y consultaba la cola de jobs por si alguna le entraba en ese espacio libre y si lo encontraba, creaba la región que iba a consumir el job y luego lo cargaba para su ejecución.
La ventaja es evidente, ya que el sistema se reconfigura automáticamente de acuerdo a las necesidades de tu job, pero esto traía una desventaja con los jobs que consumían poca memoria pero que requerían de mucho tiempo de CPU para finalizar, y era que al de un rato de tener la máquina funcionando, estos jobs se situaban en una zona central de la memoria, y que el espacio libre de memoria de alrededor no se podía aprovechar porque los otros jobs que están esperando en la cola no entraban en esas partes libres, así que no podrían entrar hasta que estos pequeños jobs terminaran y se liberase dicha memoria, creando cuellos de botella y paradas de exclusiones mútuas si un job en ejecución necesitara que otro job se ejecutara para terminar.
Por lo tanto, se desarrolló un producto llamado HASP que no era mas que un planificador de trabajos, que ordenaba la cola de jobs de acuerdo a sus consumos de memoria y demás parámetros, y saliendo en un orden predefinido mediante unas hebras o “slots” predefinidos. Esta ejecución se parece mas a MFT, pero con la ventaja de la reordenación de la memoria que realiza el HASP (que con el paso de los años se rebautizaría como JES –Job Entry Subsystem-).
Cuando el hardware de memoria virtual estuvo disponible en los modelos posteriores, los diversos SOs se rebautizaron. Al OS/360-MFT se llamó OS/VS1 y al OS/360-MVT se le llamó OS/VS2. Además se re-escribieron ya que con la memoria virtual, dejaba de ser necesario que el programa adquiriera la memoria contigua, con lo que el problema del MVT sin el HASP desaparecía (aunque se siguió utilizando el HASP –JES2- igualmente). Sucesivas ampliaciones del OS/VS2 y con el hardware que admitía múltiples espacios de direcciones virtuales, lo rebautizaron como MVS (Multiple Virtual Storage).
Con la llegada de la arquitectura 370 se le llamó MVS/370, luego con la XA se le llamo MVS/XA, luego MVS/ESA, y ya con el cambio de nombre de la arquitectura a S/390, se volvió a utilizar el OS/360 para llamarlo OS/390. Y en el 2000, con el z/Series, z/OS. Pero vamos, en la practica el z/OS se basa en los mismos fundamentos que el OS/360 pero con las mejoras tecnológicas. Existe el concepto de submitir jobs, el JES2, el TSO, etc.
A partir de aquí, hay toda una gama de productos para el buen desempeño de la máquina: El SDSF (Spool Display and Search Facility) que administra el JES2 y todos los trabajos, colas, etc. El RMF (Resource Measuremente Facility) que monitoriza usando los registros del SMF (System Management Facility) el estado de la máquina, productos como DFSMS (Data Facility Storage Management System) que ordena los datos en disco según ciertas políticas, el DFSMS-hsm (Hierachical Storage Manager) que migra datos poco usados a cintas, etc.
Y luego productos como DB2 para bases de datos, CICS para el transaccional, herramientas de programación y desarrollo en Cobol, C, Java, así como herramientas de orientación a la web tipo Lotus Domino+Notes, Websphere, así como OMVS (Openedition MVS, un UNIX embebido dentro del SO), etc. Y eso sin contar con los monitores de rendimiento de cada producto que instales, por ejemplo el TMON o el OmegaMon del CICS, y demás utilidades de Boole& Babagge de monitorización, a no ser que te guste mas el Tivoli Netview.
Y eso es todo amigos. Si queréis alguna información adicional, Internet es el camino, sobre todo los ABC’s Of System Programming z/OS que IBM publica en PDF con descarga directa desde mi web.
No obstante, se podría montar un buen foro de opinión sobre esto, ya que ya he recibido mensajes de los que apoyan esta arquitectura y los que la rechazan. Y creedme, es muy interesante conocer opiniones de todos los ámbitos
Por un lado venía de puta madre, porque los programas escritos en 1964 funcionaban perfectamente en 1980, pero a toda leche. Pero por otro, dado que el bus de direcciones era de 24 bits, y los programas eran cada vez mayores, se dieron cuenta que al final existía una limitación hardware de 16 MB de RAM direccionable, tanto real como virtual. Así que IBM se puso manos a la obra, y en 1982 desarrollo la arquitectura S/370-XA, que tenía un bus de 32 bits, lo que hacía que se direccionala hasta ¿4 GB de RAM? Noooo! Sólo podía direccionar 2 GB de RAM.
Y a que se debe esto? Pues muy sencillo: Como para IBM primaba la compatibilidad hacia atrás, se las arreglo para que a nivel hardware los programas escritos para 24 bits no notaran la diferencia, usando de los 32 bits, un bit (el 31) para decir si la página de memoria esta por encima de los 16 bits (XA) o esta por debajo (tradicional). Así, mi programa escrito en 1964 funcionaría por debajo de los 16 MB como siempre, pero los nuevos programas que escriba a partir de ahora, podría desarrollarlos a 31 bits y situarlos en un espacio de direcciones por encima de los 16 MB. O que coño, puedo coger mis fuentes y recompilarlos con mi compilador y decirle que me los sitúe encima de los 16 MB de RAM (solo tengo que poner un parámetro en el compilador).
Como información adicional, esa diferencia entre menos de 16 MB y mas de 16 MB la denominó “La LINEA”, haciendo referencia a que por debajo de la línea, se situaban los programas tradicionales, y por encima de la línea, los programas “cool” nuevecitos. Y ya que estamos, IBM en 1988 le dio por desarrollar un nuevo concepto de memoria virtual: Los múltiples espacios de almacenamiento, haciendo referencia a que cada programa podría tener su propia gestión de la memoria virtual, por capas, desterrando así el concepto de gestión plana de memoria. A esta arquitectura, se la denomino IBM ESA/370 (Enterprise Systems Architecture).
En la década de los 90, IBM desarrolló una nueva arquitectura llamada ES/9000, multiprocesadores con múltiples espacios de memoria, sistema LPAR de particiones virtuales de máquina (vamos, VMwares por hardware), cambiando el nombre de la arquitectura ESA/370 a ESA/390. Fue también la época donde se desterró el cobre como medio de transmisión y se impuso la fibra óptica (ESCON –Enterprise Systems CONnection), por lo que el acceso a discos, cintas, etc, se realizaba vía fibra a velocidades de 20 MB/seg por canal, mientras que en cobre como mucho se podían alcanzar velocidades de 4,5 MB/seg (decir que puedes conectar mas de un canal a un periférico, así que el ancho de banda se balancea automáticamente y lo multiplicas).
A partir de ese momento, y una vez que en 1994 los ES/9000 estaban en pleno auge, IBM cambió la tecnología a una más barata, pequeña pero mucho mas veloz, llamada IBM Parallell Enterprise Server, sacando cada año, una generación (desde la G1 hasta el G6 de 1999).
Pero fue en el año 2000 cuando IBM dijo: 2 GB me saben a poco. Quiero más. Así que desarrolló la arquitectura z/Series, con un espacio de direcciones de 64 bits, lo que hacía que podría direccionar hasta 16 EXABYTES de datos en memoria. Es decir, que en el último z/Series que me compre mañana mismo, me va a funcionar un programa escrito en 1964. Te cagas.
No existe otro sistema informático en el mundo que respete de forma tan fiel la compatibilidad hacia atrás. Como nota curiosa, como el bit 31 es el identificador que sitúa a un programa por encima o por debajo de la línea, hay 2 GB que no se pueden direccionar, para la máquina no existen. Así que a estos 2 GB “fantasmas” se les denomino La BARRA.
Por encima de la Barra, y al igual que pasaba con la línea, puedo compilar un programa y hacer que se ejecute o debajo de la línea, o entre la línea y la barra o por encima de la barra, ya os digo que cambiando un parámetro.
Después de este “breve” paso por los adelantos tecnológicos que ha sufrido la historia del mainframe, paso ya a comentar los adelantos de los SO de la época hasta nuestros días.
A lo largo de la vida de la plataforma S/360, se desarrollaron los siguientes SO:
DOS para las máquinas pequeñas
OS/360 para las máquinas medianas/grandes
TSS/360 para sistemas de tiempo compartido y multiusuarios.
Pero como el TSS/360 fue un fiasco mayúsculo, fue reemplazado por los siguientes productos:
CP/67, que luego pasaría a llamarse VM/370
TSO, Time Sharing Option, para OS/360
A continuación, paso a explicar brevemente cada uno:
DOS: Disk Operating System, ideado para máquinas pequeñas. Se almacenaba en disco y ocupaba 24 KB. Existía tambien una versión tipo Knoppix “Live-Tape” llamada TOS, para equipos que no tenían disco duro y se cargaba todo desde cinta.
Este SO sólo podía ejecutar una tarea a la vez, así que era como podréis observar similar al MS-DOS, pero con 25 años de diferencia. Vamos, que Microsoft no inventó absolutamente nada. Tenía un espacio de direcciones plano así que si tu programa no cabía en memoria real, pues a joderse.
Se introducía en programa por tarjetas y daba un resultado. Simple a mas no poder –por eso no petaba, a menos que tu, como programador lo metieras en un bucle infinito por tu ineptitud picando código-, y como esto se parece mucho al MS-DOS, pues poco mas que añadir.
TSS/360: Este SO quería ser algo mejor de lo que hacía el Multics de aquel entonces. Como IBM sabía que el impacto iba a ser sobrecogedor, empleo a miles y miles de programadores en todo el mundo para hacer el TSS/360. Lo que tenía este SO de bueno era que podías tener cientos de terminales simultáneamente trabajando contra la misma máquina, cada uno desarrollando programas, ejecutándolos, en definitiva, interactuando con la máquina en tiempo real.
El resultado fue un pedazo de mierda solo comparable con MS Windows 95 Primera edición: tardaba 10 minutos arrancar, hasta que te aparecía el LOGON, y luego tenías 10 minutos de vida aproximadamente hasta que se cayera todo el sistema de manera dramática. Evidentemente, IBM abandonó dicho proyecto y nunca se llegó a comercializar.
TSO: No obstante, cuando murió el TSS, algunos desarrolladores de IBM se quedaron con la copla y con lo mejor del TSS y desarrollaron un nuevo sistema de tiempo compartido, llamado TSO (Time Sharing Option), que ha perdurado hasta nuestros días (si veis una pantalla verde en algún ministerio o ayuntamiento con emulación 3270, o es que hay un CICS (un gestor transaccional desarrollado en 1968) o hay TSO, no puede haber nada más).
El problema es que por aquel entonces, no funcionaba tan maravillosamente, ya que el TSO comía más de media máquina en MFT o MVT (luego los explico), sin contar con el hecho que una vez al día por lo menos, cascaba estrepitosamente.
CP67: Este SO virtualizaba en todos los aspectos la máquina real, dando la sensación que el usuario tenía toda una máquina S/360 para el solito, pero al final todo es un programa, como el de Parada. Se llama Control Program.
Por consiguiente, podías instalar un SO dentro de esa máquina, ya sea MVT, MFT, DOS o lo que quisieras, al igual que lo hace un VMware de los de hoy en día. Al final, este SO se rebautizó como VM/370 con la llegada del System/370. Y ha seguido una evolución tecnológica de acuerdo a la tecnología existente, pasando de ser VM/370 a VM/370-XA, VM/ESA, y ahora, z/VM.
OS/360: El estandarte de los sistemas operativos de la época y el que mas recursos humanos en todo el mundo ha tenido –antes de la llegada de GNU/Linux-. Robusto de narices, es EL SO mas seguro del mundo. El nombre de OS/360 viene a que ese iba a ser el SO que iba a soportar toda la gama de máquinas, pero al principio se desarrollaron varias fases:
OS/360-PCP: Primary Control Program: Era una parte muy muy simple del OS/360, y como el DOS, solo podía ejecutar un programa a la vez. Pero claro, OS/360-PCP necesitaba de un maquinón para su ejecución, así que la gente que se decantaba por una máquina pequeña y un sistema operativo similar, se iba de cabeza al DOS. Así que este SO se quedo en los laboratorios de IBM para desarrollar software para otros SO.
OS/360-MFT: Multiprogramming with Fixed number of Tasks: Meses mas tarde, salió a la luz y fue el primer SO multitarea de la historia. La memoria la dividías en regiones y cada región podía ejecutar un programa distinto. Pero la pega es que debías conocer al dedillo los jobs o programas que ibas a lanzar, ya que si un job ocupaba más que la región seleccionada, no cabía y por lo tanto, no podía ser ejecutado.
Y si tenias que cambiar la configuración de las regiones de memoria, tenías que apagar todo y volver a configurar, por lo que era un modelo chungo de trabajo, aunque si te lo montabas bien, podrías ejecutar cientos de tareas simultáneas.
OS/360-MVT: Multiprogramming with Variable number of Tasks: Este SO podía crear y borrar regiones de memoria a placer, de tal forma que para ejecutar un job, el SO miraba la memoria disponible y consultaba la cola de jobs por si alguna le entraba en ese espacio libre y si lo encontraba, creaba la región que iba a consumir el job y luego lo cargaba para su ejecución.
La ventaja es evidente, ya que el sistema se reconfigura automáticamente de acuerdo a las necesidades de tu job, pero esto traía una desventaja con los jobs que consumían poca memoria pero que requerían de mucho tiempo de CPU para finalizar, y era que al de un rato de tener la máquina funcionando, estos jobs se situaban en una zona central de la memoria, y que el espacio libre de memoria de alrededor no se podía aprovechar porque los otros jobs que están esperando en la cola no entraban en esas partes libres, así que no podrían entrar hasta que estos pequeños jobs terminaran y se liberase dicha memoria, creando cuellos de botella y paradas de exclusiones mútuas si un job en ejecución necesitara que otro job se ejecutara para terminar.
Por lo tanto, se desarrolló un producto llamado HASP que no era mas que un planificador de trabajos, que ordenaba la cola de jobs de acuerdo a sus consumos de memoria y demás parámetros, y saliendo en un orden predefinido mediante unas hebras o “slots” predefinidos. Esta ejecución se parece mas a MFT, pero con la ventaja de la reordenación de la memoria que realiza el HASP (que con el paso de los años se rebautizaría como JES –Job Entry Subsystem-).
Cuando el hardware de memoria virtual estuvo disponible en los modelos posteriores, los diversos SOs se rebautizaron. Al OS/360-MFT se llamó OS/VS1 y al OS/360-MVT se le llamó OS/VS2. Además se re-escribieron ya que con la memoria virtual, dejaba de ser necesario que el programa adquiriera la memoria contigua, con lo que el problema del MVT sin el HASP desaparecía (aunque se siguió utilizando el HASP –JES2- igualmente). Sucesivas ampliaciones del OS/VS2 y con el hardware que admitía múltiples espacios de direcciones virtuales, lo rebautizaron como MVS (Multiple Virtual Storage).
Con la llegada de la arquitectura 370 se le llamó MVS/370, luego con la XA se le llamo MVS/XA, luego MVS/ESA, y ya con el cambio de nombre de la arquitectura a S/390, se volvió a utilizar el OS/360 para llamarlo OS/390. Y en el 2000, con el z/Series, z/OS. Pero vamos, en la practica el z/OS se basa en los mismos fundamentos que el OS/360 pero con las mejoras tecnológicas. Existe el concepto de submitir jobs, el JES2, el TSO, etc.
A partir de aquí, hay toda una gama de productos para el buen desempeño de la máquina: El SDSF (Spool Display and Search Facility) que administra el JES2 y todos los trabajos, colas, etc. El RMF (Resource Measuremente Facility) que monitoriza usando los registros del SMF (System Management Facility) el estado de la máquina, productos como DFSMS (Data Facility Storage Management System) que ordena los datos en disco según ciertas políticas, el DFSMS-hsm (Hierachical Storage Manager) que migra datos poco usados a cintas, etc.
Y luego productos como DB2 para bases de datos, CICS para el transaccional, herramientas de programación y desarrollo en Cobol, C, Java, así como herramientas de orientación a la web tipo Lotus Domino+Notes, Websphere, así como OMVS (Openedition MVS, un UNIX embebido dentro del SO), etc. Y eso sin contar con los monitores de rendimiento de cada producto que instales, por ejemplo el TMON o el OmegaMon del CICS, y demás utilidades de Boole& Babagge de monitorización, a no ser que te guste mas el Tivoli Netview.
Y eso es todo amigos. Si queréis alguna información adicional, Internet es el camino, sobre todo los ABC’s Of System Programming z/OS que IBM publica en PDF con descarga directa desde mi web.
No obstante, se podría montar un buen foro de opinión sobre esto, ya que ya he recibido mensajes de los que apoyan esta arquitectura y los que la rechazan. Y creedme, es muy interesante conocer opiniones de todos los ámbitos
Hardware y Sistemas Operativos de Mainframe
Para explicar un poco el tema, antes hay que comentar también el tipo de Hardware que había en esa época para entender mejor ciertas decisiones de diseño que se tomaron.
Como dije en ocasiones anteriores, hasta Abril de 1964 cada computador era de un padre y una madre distintos. Esto hacia que estas computadoras “bastardas” requiriesen un nivel de especialización importante, y tanto sus programas como datos tenían obligatoriamente que estar adaptados a esas maquinas. Pero a partir de esa fecha, IBM creo el S/360 (360 hace referencia a los 360 grados de una circunferencia, dando a entender que podría adaptarse a todo el rango de opciones habidas y por haber). Esta máquina constaba de varios modelos, desde el modelo 20 que tenía 64 raquíticos KBs de RAM (pero en aquella época era como tener 4 GB en tu PC), hasta el modelo 91, que era el ordenador mas potente de la gama que se instaló en el sistema de defensa de misiles nucleares de los EEUU, en plena guerra fría. A pesar de sus diferencias en potencia, tenían el mismo juego de instrucciones, solo que en el modelo pequeño muchas instrucciones las tenía en microcódigo mas que en hardware propiamente dicho (por ejemplo, mientras que en el modelo 91 la multiplicación estaba implementada por hardware, en el modelo 20 era una macroinstrucción que sumaba n veces).
Se desarrollaron una serie de sistemas operativos, de acuerdo a la potencia de cada maquina. Mientras que las mas cutres y salchicheras no tenían SO y que lo único que hacían era leer de tarjetas perforadas y generar nuevos datos en tarjetas o impresoras, las máquinas de gama media con una cierta potencia, se instalaban con una versión de DOS (se lo que pensáis y no oiga, que no, de MS-DOS nada J ) y las de gama alta, con un sistema operativo llamado OS/360. DOS era un sistema operativo que solo podia ejecutar una tarea a la vez (que no, coño, que no es MS-DOS), y mientras esa tarea se ejecutaba, solo cabía esperar a que la finalizara. En cambio, OS/360 era… bueno, de esto hablaremos largo y tendido…
Pero al tema: En Abril de 1964 se hizo pública la noticia del desarrollo del IBM S/360, pero no fue hasta un año mas tarde cuando se comercializó el modelo de mas baja gama. Al modelo 20 le siguieron modelos 40, etc, hasta que en junio de 1966 salió el modelo 67, el primero que tenía soporte hardware para la memoria virtual. Tenia un DAT (Dynamic Address Translation) y una lógica de paginación de memoria, por lo que a partir de ese momento, podrías ejecutar cualquier programa del espacio de direcciones dado a pesar de no tener la suficiente memoria real. IBM planeo el perfecto Sistema Operativo que explotara todas las capacidades de esta máquina, llamado TSS/360, pero lamentablemente no lo hicieron funcionar lo suficientemente bien como para comercializarlo con la cabeza bien alta ya que se petaba cada dos por tres (es decir, que tuvieron mas vergüenza que Microsoft y su Windows con pantallas azules). Luego lo explicaré mas detalladamente…
No obstante, IBM también desarrollo otro sistema operativo para ese modelo, llamado CP-67, que permitía la virtualización de varias máquinas en una sola, dando la sensación a cada usuario que tenia toda la máquina para el solito. Además, podía emular otro tipo de máquinas, por lo que este SO vino de perlas para desarrolladores de software de esta y otras plataformas distintas.
Como dije en ocasiones anteriores, hasta Abril de 1964 cada computador era de un padre y una madre distintos. Esto hacia que estas computadoras “bastardas” requiriesen un nivel de especialización importante, y tanto sus programas como datos tenían obligatoriamente que estar adaptados a esas maquinas. Pero a partir de esa fecha, IBM creo el S/360 (360 hace referencia a los 360 grados de una circunferencia, dando a entender que podría adaptarse a todo el rango de opciones habidas y por haber). Esta máquina constaba de varios modelos, desde el modelo 20 que tenía 64 raquíticos KBs de RAM (pero en aquella época era como tener 4 GB en tu PC), hasta el modelo 91, que era el ordenador mas potente de la gama que se instaló en el sistema de defensa de misiles nucleares de los EEUU, en plena guerra fría. A pesar de sus diferencias en potencia, tenían el mismo juego de instrucciones, solo que en el modelo pequeño muchas instrucciones las tenía en microcódigo mas que en hardware propiamente dicho (por ejemplo, mientras que en el modelo 91 la multiplicación estaba implementada por hardware, en el modelo 20 era una macroinstrucción que sumaba n veces).
Se desarrollaron una serie de sistemas operativos, de acuerdo a la potencia de cada maquina. Mientras que las mas cutres y salchicheras no tenían SO y que lo único que hacían era leer de tarjetas perforadas y generar nuevos datos en tarjetas o impresoras, las máquinas de gama media con una cierta potencia, se instalaban con una versión de DOS (se lo que pensáis y no oiga, que no, de MS-DOS nada J ) y las de gama alta, con un sistema operativo llamado OS/360. DOS era un sistema operativo que solo podia ejecutar una tarea a la vez (que no, coño, que no es MS-DOS), y mientras esa tarea se ejecutaba, solo cabía esperar a que la finalizara. En cambio, OS/360 era… bueno, de esto hablaremos largo y tendido…
Pero al tema: En Abril de 1964 se hizo pública la noticia del desarrollo del IBM S/360, pero no fue hasta un año mas tarde cuando se comercializó el modelo de mas baja gama. Al modelo 20 le siguieron modelos 40, etc, hasta que en junio de 1966 salió el modelo 67, el primero que tenía soporte hardware para la memoria virtual. Tenia un DAT (Dynamic Address Translation) y una lógica de paginación de memoria, por lo que a partir de ese momento, podrías ejecutar cualquier programa del espacio de direcciones dado a pesar de no tener la suficiente memoria real. IBM planeo el perfecto Sistema Operativo que explotara todas las capacidades de esta máquina, llamado TSS/360, pero lamentablemente no lo hicieron funcionar lo suficientemente bien como para comercializarlo con la cabeza bien alta ya que se petaba cada dos por tres (es decir, que tuvieron mas vergüenza que Microsoft y su Windows con pantallas azules). Luego lo explicaré mas detalladamente…
No obstante, IBM también desarrollo otro sistema operativo para ese modelo, llamado CP-67, que permitía la virtualización de varias máquinas en una sola, dando la sensación a cada usuario que tenia toda la máquina para el solito. Además, podía emular otro tipo de máquinas, por lo que este SO vino de perlas para desarrolladores de software de esta y otras plataformas distintas.
novedad de Acer:
Ahora les presentaremos la novedad de Acer: es un netbook que pertenece a la línea Aspire Timeline y la principal característica es el cambio de procesador, antes usaban el procesador Intel CULV, ahora lo han cambiado por un potente Intel Core i5.
El Acer Aspire Timeline 1810T fue presentado el año pasado,ahora esta nueva referencia entra en la batalla con otras marcas que ya han mejorado sus netbooks tanto en procesador, como en otras partes de su hardware. Otras de las características de este computador portátil son:
Pantalla de 11.6 pulgadas con resolución de 1366 × 768 píxeles.
Procesador Intel Core i5-520UM a 1.06GHz con la posibilidad de llegar a 1.86GHz en la opción Turbo Boost.
3 Puertos USB, uno HDMI, S/PDIF, y Ethernet Gigabit.
Conectividad WiFi 802.11 b/g/n y en opción Bluetooth 2.1 + EDR.
Batería de 6 celdas que rinde 8 horas de autonomía.
Algunos modelos vendrán con tecnología 3G, dependiendo a el país.
Esperemos que Acer próximamente dará a conocer las fechas de venta, los precios y demás especificaciones físicas.
Queridos lectores este articulo es una copia de este: Lo nuevo de Acer: Acer Aspire Timeline 1830T
Pertenece a: BlogsCol
El Acer Aspire Timeline 1810T fue presentado el año pasado,ahora esta nueva referencia entra en la batalla con otras marcas que ya han mejorado sus netbooks tanto en procesador, como en otras partes de su hardware. Otras de las características de este computador portátil son:
Pantalla de 11.6 pulgadas con resolución de 1366 × 768 píxeles.
Procesador Intel Core i5-520UM a 1.06GHz con la posibilidad de llegar a 1.86GHz en la opción Turbo Boost.
3 Puertos USB, uno HDMI, S/PDIF, y Ethernet Gigabit.
Conectividad WiFi 802.11 b/g/n y en opción Bluetooth 2.1 + EDR.
Batería de 6 celdas que rinde 8 horas de autonomía.
Algunos modelos vendrán con tecnología 3G, dependiendo a el país.
Esperemos que Acer próximamente dará a conocer las fechas de venta, los precios y demás especificaciones físicas.
Queridos lectores este articulo es una copia de este: Lo nuevo de Acer: Acer Aspire Timeline 1830T
Pertenece a: BlogsCol
Suscribirse a:
Entradas (Atom)