PRIMERA GENERACION.
Comprende desde 1946 hasta 1958, tomando en consideración dentro de la primera generación las computadoras construidas en 1944, 1946 y 1947 las cuales estaban construidas con las siguientes características:
1).- Estaban construidas por tubos al vacío (18,000 bulbos) que al producir bastante calor empezaban a emitir errores.
2).- Estaban compuestas aproximadamente por 200,000 piezas mecánicas y 800,000 metros de cable, lo cual provocaba que su estado físico fuera muy grande.
3).- El estado del aire acondicionado era de estricta calidad el cual variaba entre los 17 y los 22 grados centígrados, de esta forma se evitaban los errores. 4).- La programación era externa, por medio de módulos y la memoria por tambores magnéticos.
5).- Su peso era aproximadamente entre 70 y 80 toneladas.
6).- Su longitud era entre 18 a 20 metros.
7).- En software (Lenguaje Maquina ) Tambor magnético. El tambor magnético era de aluminio y estaba cubierto de un material llamado MAYDEN, sobre el se grababa la información por medio de puntos magnéticos.
SEGUNDA GENERACION.
Desde 1958 a 1965, dentro de esta generación la evolución de las computadoras es bastante marcada, es decir, es notable la diferencia, por lo que también tiene sus características. Este sistema no era muy eficaz ya que constantemente se perdía la información porque el tambor magnético no tenia capa protectora
1).- Los bulbos son sustituidos por transistores.
2).- Disminuye el tamaño físico de las computadoras aproximadamente en un 50%.
3).- También disminuye el control de calidad del aire acondicionado.
4).- La programación es interna y se puede soportar todos los programas de proceso.
5).- La velocidad de operación es de microsegundos.
6).- En software (Los Lenguajes de alto Nivel )
TERCERA GENERACION.
Comprende desde 1965 hasta 1970, dentro de esta generación el tamaño físico de la computadora se reduce a lo máximo y tiene las siguientes características: 1).- El transistor es sustituido por el micro transistor.
2).- Disminuye de un 60 a un 70% el tamaño físico de las computadoras.
3).- El control de calidad del aire acondicionado también disminuye.
4).- La memoria sigue interna por medio de núcleos magnéticos.
5).- La velocidad de proceso sigue siendo de microsegundos.
6).- En software (Sistema Operativo)
CUARTA GENERACION.
Comprende de 1971 hasta 1980, dentro de esta generación el tamaño físico de las computadoras se reduce de un 80 a un 90% y tienen las siguientes características:
1).- El micro transistor es sustituido por circuitos integrados los cuales tienen la función de 64 micro transistores.
2).- El control de calidad del aire acondicionado es nulo o casi nulo.
3).- La velocidad de proceso es de nano-segundos 1X10-9. 4).- Se trabaja la multiprogramación y el teleproceso local y remoto.
5).- En software (LISP, PROLOG)
QUINTA GENERACION.
Aunque no sea totalmente correcto decir que las computadoras actuales son de la cuarta generación, ya se habla de la siguiente, es decir de la quinta. Comprende de ( 1981 - 200? ). En 1981, los principales países productores de nuevas tecnologías (fundamentalmente Estados Unidos y Japón) anunciaron una nueva generación, esta nueva generación de computadoras tendrá las siguientes características estructurales:
1) Estarán hechas con microcircuitos de muy alta integración, que funcionaran con un alto grado de paralelismo y emulando algunas características de las redes neurales con las que funciona el cerebro humano.
2) Computadoras con Inteligencia Artificial
3) Interconexión entre todo tipo de computadoras, dispositivos y redes ( redes integradas )
4) Integración de datos, imágenes y voz (entorno multimedia)
5) Utilización del lenguaje natural (lenguaje de quinta generación) Estos conceptos merecen una somera explicación, debido a que si representan avances cualitativos con respecto a las generaciones anteriores. La mayoría de las computadoras actuales ejecutan las instrucciones del lenguaje de maquina en forma secuencial, es decir, efectúan una sola operación a la vez. Sin embargo, en principio también es posible que una computadora disponga de varios procesadores centrales, y que entre ellos realicen en forma paralela varias operaciones, siempre y cuando estas sean independientes entre si.
2. El circuito integrado, chips o microchip es llamado el precursor de la computación, investiga acerca de su composición, tipos y algunos de los más usados, como por ejemplo el microprocesador, entonces describe sus principales fabricantes y sus últimos modelos-
El elemento esencial es el procesador del cual se lita su evolución a través del tiempo
Los Circuitos Integrados
Un circuito integrado o ( ci ) es aquel en el cual todos los componentes, incluyendo transistores, diodos, resistencias, condensadores y alambres de conexión, se fabrican e interconectan completamente sobre un chip o pastilla semiconductor de silicio.
Una vez procesado, el chip se encierra en una cápsula plástica o de cerámica que contiene los pines de conexión a los circuitos externos.
Los chips digitales más pequeños contienen varios componentes sencillos como compuertas, inversores y flip-tops. los más grandes contienen circuitos y sistemas completos como contadores, memorias, microprocesadores, etc. La mayoría de los circuitos integrados digitales vienen en presentación tipo dip (dual in-line package ) o de doble hilera. Los ci más comunes tipo dip son los de 8,14,16,24, 40 y 64 pines.
En la cápsula trae impresa la información respecto al fabricante, la referencia del dispositivo y la fecha de fabricación.
Además del tipo dip, existen otras presentaciones comunes de los circuitos integrados digitales como la cápsula metálica, la plana y la " chip carrier". Existen circuitos integrados que utilizan cápsulas smt o de montaje superficial , smt son casi 4 veces más pequeños que los dip .
La tecnología smt (surface-mount technology ) es la que ha permitido obtener calculadoras del tamaño de una tarjeta de crédito.
PETIUM I
VENTAJAS
Las distintas unidades funcionales con las que cuenta el procesador Pentium son entre otras cosas dos caches denominadas data cache y code cache, el prefetcher, unidad de paginación, etc. Proporciona una pestaciones más elevada gracias a una artitectura mucho más optimizada.
DESVENTAJA
El 386 y el 486, su rango de direcciones es de 4 goctetos de memoria.
PETIUM II
DESVENTAJA Y DESVENTAJAS
Proporciona un notable rendimiento para el software avanzado de comunicados y multimedia, incluidas potentes funciones de tratamiento de imágenes y gráficos realistas, videoconferencias y la posibilidad de ejecutar vídeo de pleno movimiento y a toda pantalla.
La última incorporación a esta familia de procesadores fue el procesador Pentium II 450 MHz que funciona con un bus de sistema de 100 MHz, y la familia de procesadores de sobremesa Pentium II estaba compuesta por los siguientes productos:
• Procesador Pentium II 450 MHz
• Procesador Pentium II 400 MHz
• Procesador Pentium II 350 MHz
• Procesador Pentium II 333 MHz
El procesador Pentium II es totalmente compatible con toda una biblioteca de software para PC basado en sistemas operativos tales como MS-DOS*, Windows* 3.1, Windows para Trabajo en Grupo* 3.11, Windows* 98, Windows* 95, OS/2*, UnixWare*, SCO UNIX*, Windows* NT, OPENSTEP*, y Sun Solaris*. Entre las características de arquitectura del procesador Pentium II se incluyen:
PETIUM III
Presenta varias funciones nuevas para un rendimiento, productividad y capacidad de gestión máximos. Para los usuarios que interactúan con Internet o que trabajan con aplicaciones.
El procesador Intel Pentium III ofrece excelentes prestaciones para todo el software para PC y es totalmente compatible con el software existente basado en la arquitectura Intel. El procesador Pentium III a 500 y 450 MHz amplía aún más la potencia de proceso al dejar margen para una mayor exigencia de rendimiento para funciones de Internet, comunicaciones y medios comerciales.
Hasta este momento, la familia del procesador Intel Pentium III incluye los siguientes productos:
• Procesador Pentium III 500 MHz
• Procesador Pentium III 450 MHz
AMD
Los procesadores AMD dan vida a la siguiente generación de soluciones para PCs de escritorio. Ya sea para juegos, cloud computing o edición de videos caseros, vive una mejor experiencia con los procesadores AMD de núcleos múltiples.Al igual que ocurre con Intel, AMD también fabrica diferentes gamas de microprocesadores: los Sempron, al nivel que los Celeron son los de peor calidad, pero que sin embargo si el uso del ordenador es básico (como ya dijimos antes, ofimática, navegar por internet y poco más) un Sempron nos ayudará a ésta tarea a la perfección. Sino, podemos ascender de calidad y comprar los otros modelos superiores, los Athlon64 (con 64 bits, como dice el nombre) o los Athlon 64 X2, que son los de doble core de AMD.
Algo importante en AMD es su denominación de velocidad teórica, marcada con un XXXX+ que no representa su velocidad en GHz. Por ejemplo, un Athlon64 3200+ con 512 kB de caché, va realmente a 2 GHz. Eso no implica que sean lentos, todo lo contrario, se supone que ese 2 GHz equivale a un Pentium4 a 3,2 GHz (de ahí el 3200+). Normalmente suele ser un poco pretencioso, y equivale realmente a un Pentium 4 28 ó 3 GHz. Por ello el valor acabado en el sigmo + sirve para comparar los Athlon entre sí, pero no demasiado válido para compararlos con los Pentium 4.
CELERON
DESVENTAJA Y DESVENTAJAS
Los procesadores Celeron pueden realizar las mismas funciones básicas que otros, pero su rendimiento es inferior. Por ejemplo, los Celeron usualmente tienen menos memoria caché o algunas funcionalidades avanzadas desactivadas. Estas diferencias impactan variablemente en el rendimiento general del procesador. Aunque muchos Celeron pueden trabajar prácticamente al mismo nivel de otros procesadores, algunas aplicaciones avanzadas (juegos, edición de video, programas de ingeniería, etc.) tal vez no funcionen igual en un Celeron. Se vende desde agosto de 1998, y estaba basado en el Pentium II. Posteriormente, salieron nuevos modelos basados en las tecnologías Pentium III, Pentium IV e Intel Core 2 Duo. El más reciente esta basado en el Core 2 Duo (Allendale).
En el momento en el que se introdujo el Celeron, preocupaba a Intel la ya mencionada pérdida de cuota de mercado en los sectores de bajo poder adquisitivo (low-end). Para evitar competencia, dejaron de lado el estandarizado Socket 7* y lo reemplazaron por el Slot 1*. Las demás marcas (AMD, Cyrix) tuvieron dificultades de índole técnica y legal para fabricar microprocesadores compatibles.
Se dividen en tres categorías, las cuales se dividen a su vez en varias subclases:
• P6*: Basada en los procesadores Pentium II y Pentium III
• Netburst*: Basada en los procesadores Pentium 4
• Intel Core* Basados en los procesadores Intel Core 2 Duo
SERPROM
VENTAJAS Y DESVENTAJAS
Las versiones iniciales de este procesador estaban basadas en el núcleo Thoroughbred/Thorton del Athlon XP, con una caché de segundo nivel de 256 KB y un bus de 333 MHz (FSB 166 MHz). Su índice de prestaciones relativas (PR) se situaba entre 2400+ y 2800+ dependiendo del modelo, aunque el índice no es calculado de la misma forma que para los Athlon XP, siendo los Sempron algo más lentos a mismo índice de prestaciones relativas.
Posteriormente el Sempron se basó en el núcleo Barton del Athlon XP. Esta versión tenía un índice de prestaciones relativas de 3000+ y poseía una caché de segundo nivel de 512 KB. Las versiones del Sempron basadas en el Athlon XP se puede emplear en placas base con zócalo de procesador Socket A.
En el transcurso de tiempo en que se agotaron las versiones basadas en los núcleos Barton y Thoroughbred/Thorton, estas fueron reemplazadas con una variante del núcleo del Athlon 64 llamada Paris, que no implementa el conjunto de instrucciones AMD64, pero sí el controlador de memoria, con una caché de segundo nivel de 256 KB. Estas versiones del Sempron se puede emplear en placas base con zócalo de procesador Socket 754.
Desde hace algunos años todos los procesadores Sempron que se comercializan lo hacen con el conjunto de instrucciones AMD64 activado, basadas en el núcleo Palermo, que incorpora soporte parcial para instrucciones SSE3, y puede venir con una caché de segundo nivel de 128 o 256 KB, dependiendo de sus prestaciones relativas, que tienen tope en el modelo 3800+ dentro del nuevo zócalo AM2.
CENTRIOLO
VENTAJAS Y DESVENTAJAS.
La tecnología de procesamiento Intel® Centrino® 2 permite un excelente rendimiento, una mayor duración de la batería y un rango hasta dos veces mayor y hasta cinco veces mejor de desempeño inalámbrico³, lo que le permite disfrutar de aplicaciones multimedia intensivas de alta definición, juegos y mucho másLos equipos portátiles que cuentan con la tecnología Intel® Centrino® 2 con vPro™ ofrecen un excelente desempeño para la empresa, capacidades de mantenimiento y de administración mejoradas, así como seguridad proactiva en una LAN abierta, inclusive fuera del firewall corporativo.
COREL
VENTAJAS Y DESVENTAJAS
CorelDRAW sirve para editar gráficos basados en vectores. Este tipo de gráficos se comportan como imagenes, es decir que a diferencia de los gráficos en forma de píxeles, utiliza líneas o curvas para plasmar las figuras gráficas que representan. De esta forma, por ejemplo, la figura de un cuadrado puede ser representada por cuatro líneas y no por una sucesión de píxeles en un arreglo de dimensión estática. Como ejemplo, pueden ser dibujados — utilizando herramientas vectoriales — una invitación, logotipos, ilustraciones, folletos, calendarios, tarjetas, afiches, volantes, letreros, etc.Y ultimamente diseño de botones y otros graficos para el Adobe Flash Catalyst permitiendo diseñar facilmente botones, scrolls y otras cosas para la sitios web.No sirven para ser representados paisajes, fotografías, cuadros, retratos, etc.
XEON
VENTAJAS Y DESVENTAJAS
En 2002 Intel añade a la familia Xeon el procesador Xeon MP que combinaba la tecnología Hyper-Threading con NetBurst. Sus chipsets utilizan el socket 603 y tiene versiones GC-LE (2 procesadores, 16 Gb de memoria direccionable) y GC-HE (4 procesadores o más, 64 Gb direccionables), todos usando un bus de 400 megaherzios.
Como la familia x86/IA-32 estándar de Intel de procesadores PC de escritorio, la línea de procesadores Xeon era de 32 bits, surgiendo luego versiones basadas en tecnología AMD 64 de 64 bits como es el Xeon Nocona. Y posteriormente la versión de procesadores de escritorio con esta tecnología, los EM64T.
El 9 de mayo de 2004, Intel anunció que los futuros procesadores Xeon estarían basados en la arquitectura Pentium M de la compañía. Curiosamente, el Pentium M está basado en gran parte en la arquitectura del Pentium III, por lo que el "nuevo" Xeon puede ser más parecido al Pentium III Xeon que a los Xeon basados en NetBurst.
El 26 de junio de 2006, Intel anunció la nueva generación: Xeon Dual Core Xeon con tecnología de doble núcleo. Intel afirma que este nuevo procesador brinda un 80% más de rendimiento por vatio y 60% más rápido que la competencia.{{citarequerida} Además la nueva generación ofrece más del doble de rendimiento que la generación anterior de servidores basados en el procesador Intel Xeon; capaz de ejecutar aplicaciones de 32 y 64 bits.
CYRIX
VENTAJAS Y DESVENTAJAS
Estos procesadores fueron ampliamente criticados en los análisis especializados por no ofrecer el rendimiento que sugerían sus nombres y por la confusión que causaba el uso de nomenclaturas parecidas a la línea de procesadores SL de Intel y al SLC de IBM, ninguno de los cuales estaba relacionado con el SLC de Cyrix. Los procesadores fueron usados principalmente en PC clónicos y laptops de bajo coste. Más tarde Cyrix lanzaría los procesadores 486SRX2 y 486DRX2, que eran esencialmente versiones del SLC y el DLC al doble de frecuencia de reloj y fueron comercializados exclusivamente para clientes finales como actualizaciones 386 a 486.
Finalmente Cyrix fue capaz de lanzar un 486 que era compatible a nivel de pines con sus equivalentes de Intel. Aun así, este procesador llegó al mercado más tarde que los 486 de AMD y tenían un rendimiento ligeramente inferior que sus competidores AMD e Intel, lo que los relegó al mercado de actualizaciones y equipos de gama baja. Mientras AMD logró vender algunos de sus 486 a grandes OEMs, notablemente Acer y Compaq, Cyrix no consiguió entrar en este mercado. Los procesadores Cyrix consiguieron algunos adeptos entre los pequeños integradores y usuarios, debido en parte a que sus procesadores 486 a 50, 66 y 80 Mhz corrían a 5 voltios, frente a los 3,3 voltios usados por AMD, pudiendo ser usados como actualizaciones para las primeras placas base 486.
ATHLOM
VENTAJAS Y DESVENTAJAS
El Athlon original, Athlon Classic, fue el primer procesador x86 de séptima generación y en un principio mantuvo su liderazgo de rendimiento sobre los microprocesadores de Intel. AMD ha continuado usando el nombre Athlon para sus procesadores de octava generación Athlon 64.
ATOM
VENTAJAS Y DESVENTAJAS
• Intel Atom, un microprocesador de reducido tamaño;
• el formato de redifusión Atom, alternativa a RSS;
• el computador casero Acorn Atom.
MAC
VENTAJAS Y DESVENTAJAS
3.Investiga acerca de supercomputadoras, escoge una y describe su nombre, función que realiza y por su puesto su descripción técnica.
Mirando de cerca a la supercomputadora Fujitsu K
En febrero de este año se informó que IBM planeaba tener lista para el 2012 una supercomputadora con una potencia de 10 PetaFLOPS, o el equivalente a 10 mil millones de millones (10,000,000,000,000,000) de cálculos cada segundo.
Pues parece que la empresa japonesa Fujitsu decidió no esperar a IBM y acaba de hacer oficial que su Supercomputadora "K" es la primera en el mundo en sobrepasar la cifra de 10PF de potencia...
Como explican en la fuente, este coloso requirió de 864 gabinetes, uniendo 88,128 procesadores, cada uno con 16GB de memoria para un total de 1,377 TeraBytes de memoria RAM. De paso la K consume 9.89 MegaVatios de energía (lo que consumen unos 10,000 hogares promedios) y mantenerla funcionando cuesta 10 Millones de dólares al año.
Una supercomputadora japonesa superó por su capacidad de procesamiento a la supercomputadora china tianhe-1a, que desde noviembre de 2010 lideraba el listado Top500 de las 500 computadoras más rápidas del mundo.
La máquina japonesa K Computer alcanza los 8,16 petaflops (10 elevado a las 15 operaciones de punto flotante por segundo), mientras que la computadora china muestra un resultado de 'tan solo' 2,6 petaflops.
Las cinco supercomputadoras más potentes junto a la K Computer y la 'destronada' Tianhe-1a son la Jaguar estadounidense (1,75 petaflops), la Nebulae de China (1,27 petaflops) y la Tsubame 2.0 de Japón (1,19 petaflops). En total, diez sistemas superaron el umbral de 1 petaflops.
La más poderosa supercomputadora rusa, la "Lomonósov", instalada en la Universidad de Moscú, ocupó en la nueva edición del rankin mundial la 13ª posición con una velocidad de 674 teraflops. El Top500 lo también integraron tres otras computadoras rusas.
Según los datos de Top500, el país que posee el máximo número de supercomputadoras (256) es Estados Unidos. China, con sus 62 supercomputadoras, ocupa el segundo puesto, Alemania con 30 máquinas potentes está en el tercer puesto y Reino Unido con 27 supercomputadoras es el cuarto. La lista la concluye Japón, que tiene 26 supercomputadoras.
El nuevo líder del ranking, K Computer, desarrollado por la compañía Fujitsu, está ensamblado en el Instituto RIKEN de Ciencias de la Computación de la ciudad japonesa de Kobe. La supercomputadora, que se completará en junio de 2012, combina 68544 microprocesadores SPARC64 VIIIfx, cada uno de los cuales contiene ocho núcleos. Cuando esté listo, el equipo podrá operar a una velocidad de 10 petaflops.
Desarrolladores de K Computer, citados por el sitio web Physorg, confían en que su equipo tendrá "un impacto radical en diversos ámbitos, en particular, el estudio del clima global, meteorología, prevención de desastres y medicina, contribuyendo de esta manera a la creación de una sociedad próspera y segura".
Conceptos básicos de tecnologías de información
Amin el 09-03-2012, 19:10 (UTC)
:*:ACTIVIDAD 1.1- Definiciones de “técnica” y “tecnología” :*:
1.- TÉCNICA
Una técnica (del griego, τέχνη (téchne) 'arte, técnica, oficio') es un procedimiento o conjunto de reglas, normas o protocolos, que tienen como objetivo obtener un resultado determinado, ya sea en el campo de la ciencia, de la tecnología, del arte, del deporte, de la educación o en cualquier otra actividad.
La tecnología es un concepto amplio que abarca un conjunto de técnicas, conocimientos y procesos, que sirven para el diseño y construcción de objetos para satisfacer necesidades humanas.
En la sociedad, la tecnología es consecuencia de la ciencia y la ingeniería, aunque muchos avances tencológicos sean posteriores a estos dos conceptos.
La palabra tecnología proviene del griego tekne (técnica, oficio) y logos (ciencia, conocimiento).
DIFERENCIA ENTRE TÈCNICA Y TEGNOLOGIA
A veces no se distingue entre técnica y tecnología, pero sí pueden diferenciarse:
* La tecnología se basa en aportes científicos, en cambio la técnica por experiencia social;
* La actividad tecnológica suele ser hecha por máquinas (aunque no necesariamente) y la técnica es preferentemente manual;
* La tecnología se suele poder explicar a través de textos o gráficos científicos, en cambio la técnica es más empírica.
2.- LAS TRES GENERACIONES DE IPAD
La nueva generación de iPad ya es una realidad después de que Apple haya presentado una nueva versión de su 'tablet'. La compañía ha apostado por mantener el diseño de las versiones anteriores e introducir mejoras en la pantalla y en el rendimiento. El nuevo iPad, como ya le pasó al iPhone 4S, parece que cuenta con pocos cambios, pero no es así.
Desde el departamento de Visual Thinking de la agencia madrileña Neo Labels han confeccionado una infografía con las novedades del nuevo iPad y con datos comparativos respecto a las versiones anteriores. La infografía permite comprobar que el dispositivo sí tiene importantes diferencias que elevan su nivel respecto al resto.
La primera diferencia del nuevo iPad está en su pantalla. Apple ha utilizado su tecnología Retina Display, la misma que ya había mostrado en el iPhone 4 y el 4S. La pantalla del nuevo iPad tiene una resolución de 2048 por 1536 pixeles, superior a la de los modelos anteriores (1024 por 768).
La tecnología Retina Display ha sido un orgullo para Apple que se ha ganado el reconocimiento de la industria y de los usuarios por ella. La compañía ha querido que su nuevo iPad destaque en gran medida por esta tecnología, que se ha convertido en uno de los anuncios más esperados y comentados.
En cuanto a las dimensiones, el nuevo iPad llega con novedades respecto al iPad 2 y al primer modelo. El último 'tablet' de Apple respeta las dimensiones de 18,57 centímetros por 24,12 que los anteriores modelos tenían, con una pantalla de 9,7 pulgadas. La diferencia radica en el grosor del terminal, que en esta última versión es de 0,94 centímetros, superior a los 0,88 centímetros del iPad 2 pero inferior a los 1,27 centímetros del modelo pionero.
LA POTENCIA CRECE
Otro aspecto en el que Apple ha innovado con su último dispositivo es en el campo de la potencia. Durante la presentación del nuevo iPad, Apple presumía de haber conseguido dotar de una potencia sin precedentes a su dispositivo y aseguraba que podría superar la calidad gráfica de varias consolas de sobremesa. Esta política de mejora de potencia es una constante en Apple y se puede apreciar en el análisis de sus terminales.
El primer iPad tenía un procesador ARM Cortex A8, que tenía una velocidad de 800 MHz y 256 MB de RAM. Estas especificaciones, incluso habiendo pasado dos años, todavía son respetables y presentan un primer modelo potente y con posibilidad. Sin embargo, Apple quería más y el 2 de marzo, cuando presentó el iPad 2, anunció un nuevo procesador.
La segunda generación del 'tablet' de Apple llegó con el A5 doble núcleo, un procesador que supera con mucho el potencial del anterior modelo gracias a 1 GHz. En cuanto a su memoria RAM, Apple decidió doblarla con una de 512 MB DDR2, que completa las posibilidades del nuevo procesador. Esta potencia supuso un salto importante en las prestaciones del iPad, pero ya es historia.
Cuando Apple presentó la tercera generación del iPad, la compañía, una vez más, volvió a anunciar un nuevo procesador. Se trata del A5 X, que olvida los dos núcleos de su antecesor y apuesta por la última generación de cuatro núcleos.
En este caso, el dato exacto de la potencia del procesador no se conoce, pero parece que podría ser de 1 GHz. En esta línea, Apple tampoco ha revelado la memoria RAM de este dispositivo, pero todo parece indicar que también ha aumentado sus posibilidades y se especula con que podría ser de 1 GB.
CADA VEZ MÁS FOTOS
Un aspecto que no ha cambiado entre los modelos ha sido las opciones de capacidad. Desde el iPad de primera generación, Apple ha apostado por una versión de 16 GB, otra de 32 GB y la más grande con 64 GB. Lo cierto es que dado el volumen de contenidos y el tamaño de los mismos, cabría haber esperado que la compañía lanzase nuevos modelos, pero no ha sido así. El motivo es que Apple ha apostado por iCloud, almacenamiento en nube, para completar las posibilidades de estos dispositivos.
Pero lo que sí ha cambiado son las posibilidades fotográficas del dispositivo. En el primer modelo eran nulas, no contaba con cámara de fotos. Visto el interés de los usuarios por la fotografía en otros terminales, Apple decidió incluir esa posibilidad en el iPad 2, que llegó con cámaras en la parte delantera y en la posterior. Se trataba de cámaras VGA con posibilidades de grabación de vídeo a 720p.
Con el iPhone 4S Apple demostró aún más su apoyo por la fotografía, dotando al 'smartphone' con una de las cámaras más potentes del mercado. Con el nuevo iPad ha hecho algo parecido y ha sustituido la cámara VGA del primer iPad por una nueva con 5 megapíxeles iSight. Esta cámara cuenta con un sensor de iluminación posterior, varios sistemas de enfoque y detección facial y permite grabación de vídeo a 1080p.
Además, Apple ha adaptado la aplicación iPhoto, que permite el retoque de imágenes en otra prueba de la estrategia de la compañía. Todos estos elementos, junto a la definición de la pantalla Retina Display convierten al nuevo iPad en un equipo muy completo para que los usuarios den rienda suelta a su creatividad y capturen todos los momentos que quieran.
BATERÍA Y CONECTIVIDAD
También cabe destacar la evolución, o aparente falta de evolución, de la batería. En este caso, los datos parecen indicar que es un parámetro que no cambia, pero no es cierto. En los tres modelos aparece una autonomía de 10 horas, tiempo igual o superior al de los modelos de la competencia. Aunque puede parecer que Apple no ha cambiado este aspecto no es así.
La compañía ha sabido mantener la duración de la batería aunque ha ido aumentando las posibilidad, y por lo tanto, el consumo. En el nuevo iPad Apple ha trabajado para que procesador y pantalla, pese a aumentar la potencia, respeten un consumo mínimo, de forma que el tiempo de autonomía siga siendo el mismo. Se trata de un paso importante, sobre todo porque los usuarios no quieren renunciar a incrementos en la potencia ni a tiempo de duración de la batería.
La conectividad del iPad también ha cambiado con el último modelo. Hasta ahora, los dos primeros 'tablets' estaban disponibles en versiones Wi-Fi y otra con 3G. Apple se ha adaptado a la última tecnología de conexión de países como Estados Unidos y ha adaptado el nuevo iPad para permitir la conexión LTE o 4G.
En cuanto a los precios, actualmente solo se comercializarán los dos últimos modelos. La intención de la compañía es hacer frente al alto número de 'tablets' Android manteniendo dos modelos en el mercado. Por un lado el iPad 2 pasa a estar disponible desde 399 dólares (301,3 euros). Por otro, el nuevo iPad sale al mercado por 499 dólares (376,8 euros) la versión más económica, el mismo precio de la versión más económica del iPad 2.
3.- DEFINICIONES DE “INFORMACIÓN” , "ANALÓGICO" Y "DIGITAL"
INFORMACION
La información es un conjunto organizado de datos, que constituye un mensaje sobre un cierto fenómeno o ente. La información permite resolver problemas y tomar decisiones, ya que su uso racional es la base del conocimiento.
Por lo tanto, otra perspectiva nos indica que la información es un fenómeno que aporta significado o sentido a las cosas, ya que mediante códigos y conjuntos de datos, forma los modelos de pensamiento humano.
ANALOGICO
Se refiere a las magnitudes o valores que varían con el tiempo en forma continua (distancia, temperatura, velocidad, voltaje, frecuencia, amplitud, etc.) y pueden representarse en forma de ondas.
DIGITAL
Digital es aquello relativo a los dedos (las extremidades de las manos y los pies del ser humano). El concepto, de todas formas, está estrechamente vinculado en la actualidad a la tecnología y la informática para hacer referencia a la representación de información de modo binario (en dos estados).
Los sistemas digitales (como las computadoras) utilizan una lógica de dos estados que se representan por dos niveles de tensión eléctrica: alto (high o H) y bajo (low o L). A modo de abstracción, dichos estados se reemplazan por unos y ceros, facilitando la aplicación lógica y la aritmética.
ALMACENAMIENTO ANALÓGICO Y DIGITAL.
El almacenamiento analógico es una forma de almacenar información; dicha información se almacena en forma de señal cuya magnitud se representa mediante variables continuas. Por ejemplo, los casetes de audio, de video o de backups, almacenan la información en forma analógica. También los antiguos discos de pasta o vinilo.
En general, dicha información puede ser leída e interpretada inmediatamente desde la cinta o disco (u otro medio que se emplee).
En cambio en el almacenamiento digital, sólo se almacenan dos tipos de valores: unos y ceros. Los medios típicos de almacenamiento digital son los discos duros, las memorias flash, los discos ópticos (CDs, DVDs, etc).
4.- ALMACENAMIENTO ANALÓGICO Y DIGITAL.
El almacenamiento analógico es una forma de almacenar información; dicha información se almacena en forma de señal cuya magnitud se representa mediante variables continuas. Por ejemplo, los casetes de audio, de video o de backups, almacenan la información en forma analógica. También los antiguos discos de pasta o vinilo.
En general, dicha información puede ser leída e interpretada inmediatamente desde la cinta o disco (u otro medio que se emplee).
En cambio en el almacenamiento digital, sólo se almacenan dos tipos de valores: unos y ceros. Los medios típicos de almacenamiento digital son los discos duros, las memorias flash, los discos ópticos (CDs, DVDs, etc).
5.- TECNOLOGÍAS DIGITALES
Las tecnologías digitales consisten en la conversión de información a señales codificadas con base en series de dígitos (ceros y unos), los cuales son interpretados por procesadores electrónicos y almacenados en soportes electromagnéticos (discos duros y disquetes) o soportes ópticos basados en la tecnología láser: Disco óptico numérico (DON), videodiscos, discos compactos (CD-A, CD-ROM), y DVD.
Las principales ventajas de estas tecnologías son la posibilidad de almacenar, gestionar y distribuir gran cantidad de información de naturaleza mixta (texto, sonido, imágenes fijas, video) en muy poco espacio, lo cual implica la recuperación precisa y rápida de esa información, el acceso en línea y la fácil y poco costosa reproducción.
Si se comparan las posibilidades y capacidades del soporte en papel con el CD-ROM se encuentran las siguientes características:
• En cuanto al peso del soporte para la misma cantidad de información, mientras un CD-ROM pesa 19,8 gr., en papel significa unas 4 toneladas.
• Un CD-ROM almacena 650 megabytes de información, equivalentes a unas 500.000 páginas de texto impresas.
• El tamaño del papel es variable en tanto que el del CD-ROM es normalizado, 12 cms. de diámetro.
• Respecto al precio, el papel es cada vez más caro y su producción acarrea problemas ecológicos, mientras que la tecnología del CD es cada vez más barata.
• La duración del papel es variable, entre 50 y 100 años según la calidad, el CD-ROM puede durar más de cien años según los fabricantes, pero algunos estudios técnicos sólo auguran un promedio de 20 años.
• La recuperación de la información en el soporte impreso se realiza de manera secuencial y lenta, en tanto el CD permite una recuperación directa y rápida.
• Los requerimientos personales para acceder al CD son tener conocimientos del manejo del computador y del lenguaje de interrogación de las bases de datos; para acceder al soporte de papel sólo se requiere saber leer.
Como desventajas de estas tecnologías se han mencionado la fragilidad, inestabilidad y vulnerabilidad de la información digital, la exigencia de ambientes especiales para la producción y la conservación de los soportes, la incompatibilidad de los equipos tecnológicos, el almacenamiento inadecuado sin clasificación ni ordenación previos y sin sistemas de recuperación, y la obsolescencia tecnológica.
El equipo básico para la digitalización de la información se compone de: un computador, un escáner, el software de reconocimiento óptico de caracteres, de proceso y recuperación de datos, reproductora láser, juke-box o unidades lectoras de discos ópticos, e impresora láser.
El proceso de digitalización y grabación sobre un soporte óptico consta básicamente de tres etapas:
1. Digitalización de la información mediante un escáner que recoge la información: una ráfaga de luz ilumina el soporte impreso (Texto, fotografía, etc.) y los sensores foto-eléctricos traducen las intensidades reflejadas.
2. Una vez que el texto o la imagen está digitalizada en un formato digital (ASCII, PDF, DOC, BMP, GIF, JPG) pasa al manipulador de datos del sistema.
3. Almacenamiento de los archivos en un disco óptico por medio de un grabador de discos.
El OCR (Reconocimiento óptico de caracteres) es una herramienta de software que convierte los caracteres alfanuméricos capturados por medio del escáner en códigos ASCII, con el fin de posibilitar el proceso de indexado de lo que se almacena en el disco óptico. Rojas Panesso advierte que "si se guardan los documentos en bruto, la búsqueda de los documentos sería imposible y causaría mayor daño, como si el documento se extraviara". El reconocimiento óptico de caracteres permite la búsqueda y recuperación del texto digitalizado.
Los tipos de información presentada en los CD-ROM van desde texto completo, información numérica, bibliografías, directorios, catálogos de productos, imágenes, audio, multimedia, software, etc.
Estas tecnologías del disco compacto, integradas a las aplicaciones de procesamiento y recuperación de la información posibilitan la gestión electrónica de documentos, ofreciendo grandes ventajas para las organizaciones, tales como el ahorro de espacio, la velocidad y precisión en la recuperación de la información, seguridad en su preservación y facilidad de reproducción. Algunos estudios indican que mediante los sistemas de gestión integrada de los documentos, las organizaciones han logrado ser más competitivas.
Las principales funciones que pueden abarcar los sistemas de gestión integrada de la documentación son:
• La gestión de imágenes mediante el escáner.
• Tecnologías de almacenamiento óptico, que se plantea cada vez más como la solución que acompaña a los sistemas de gestión documental.
• Tecnologías de reconocimiento óptico de caracteres (OCR) y reconocimiento inteligente de caracteres (ICR).
• Software de gestión de documentos: programas de bases de datos que permitan la construcción de índices para la recuperación de la información.
• Software de gestión de los flujos de trabajo: ayudan al personal de una organización a trabajar en conjunto, a compartir información, a hacer más rápido los procesos y a mejorar su productividad.
• Software para trabajo en grupo: Edición y gestión compartida de documentos, correo electrónico, videoconferencias, etc.
Tres dispositivos de tres tipos de tecnologías diferentes, la presentación debe tener algunos de los siguientes puntos para cada tecnología :
Admin el 09-03-2012, 17:59 (UTC)
:*:LAS TIC Y SUS APORTACIONES A LA SOCIEDAD. :*:
Unico
TELEFONIA MOVIL
Los primeros dispositivos móviles disponían simplemente de las funcionalidades básicas de telefonía y mensajes SMS. Poco a poco se han ido añadiendo pantallas de colores, cámaras de fotos... En 2004 llegaron los primeros terminales UMTS y la posibilidad de videoconferéncias. En el año 2005, los teléfonos fueron capaces de reproducir MP3, también, sistemas operativos y conexión a internet, destacando los Blackberry de la empresa Research in Motion (RIM). De esta manera, los usuarios empezaron a entender el móvil como una prolongación de sus Pcs en movimiento, cosa que ha hecho desembocar a una doble evolución: unos móviles más centrados en el entretenimiento que tienen como principal característica la capacidad multimedia, y móviles más centrados en la productividad que destacan por tener teclado qwerty y están optimizados para la utilización [e-mail].
De todos los terminales, el teléfono móvil es uno de los más dinámicos por lo que a su evolución se refiere. La gran competencia entre los fabricantes por un mercado en continuo crecimiento ha comportado el lanzamiento de un gran número de novedades anualmente, y sobre todo a una reducción de los ciclos de vida con el consiguiente riesgo para las compañías que en algunas ocasiones, justo amortizan sus inversiones.
Televisor y otros dispositivos
El televisor es el dispositivo que tiene el grado de penetración más alto en todos los países, un 96% de los hogares tienen como mínimo un televisor.
La renovación del parque de televisores está cambiando drásticamente el tipo de estos terminales en los hogares. Las nuevas tecnologías, como el plasma, el TFT o el OLED han desplazado completamente a los televisores de tubo de rayos catódicos, que han quedado como residuales en las gamas más bajas y de pequeñas dimensiones, esta popularidad de los televisores avanzados tiene como consecuencia una bajada continua de los precios.
Estos terminales empiezan a incluir otras funcionalidades como el sintonizador de TDT que ya supera con amplitud a los televisores que no lo incluyen, disco duro o puerto de USB, o en los casos más avanzados conexión sin hilo, Bluetooth y Wi-fi.
REPRODUCTORES PORTATILES
El mercado de los reproductores portátiles se encuentra en un proceso de renovación hacia aquellos dispositivos que son capaces de reproducir MP3 y MP4. Todas las otras formas de audio, como los dispositivos analógicos (radios), y dispositivos digitales (lectores de CD en todos los formatos), se encuentran en claro retroceso. El proceso de renovación se encuentra con la convergencia de diversas funciones en un mismo aparato, como por ejemplo el teléfono móvil que muchas veces incorpora funciones de audio como reproductor de MP3 o radio.
1. La tecnología de información (fotos, diagramas, dibujos)
2. Precio y disponibilidad en el mercado
3. Características físicas (tamaño, medidas, forma, manera de usarlo)
4. Requerimientos (energía, desempeño, garantías, otros dispositivos)
:*:Palabras de Aliento:*:
Admin el 03-02-2012, 15:19 (UTC)
:*:Palabras de Aliento:*:
Unico
El Sufrimiento Como Punto De Partida Para Una Vida Próspera
Como las pruebas nos hacen ser conscientes de una realidad más grande que nos permite ver el dolor con esperanza.
En un antiguo libro escrito por el predicador escocés George Matheson, quien estaba ciego, por cierto, encontramos unas palabras muy alentadoras. He aquí algunos extractos:
"Hay un porvenir cuando lo que ahora constituye tu dolor será tu gloria. Nada más triste para Jacob que la tierra sobre la que dormía con una piedra por almohada. Era la hora de su pobreza. Era su noche oscura. Era el momento de ausencia de su Dios. El Señor estaba allí y él no lo sabía. Despierto de su sueño, descubrió que el día de su prueba era la aurora de su triunfo.
Pregúntale a los grandes del pasado cuándo empezó su prosperidad y te dirán: Comenzó en el frío suelo donde dormí.
Pregúntale a Abraham y te indicará hacia el monte Moria.
Pregúntale a José y te orientarás hacia su calabozo.
Pregúntale a Moisés y te mostrará el cesto flotando sobre el Nilo.
Pregúntale a Rut y te darán deseos de hacerle un monumento en los campos donde trabajó con tanto afán.
Pregúntale a David y te dirá que sus cantos salieron de la noche.
Pregúntale a Job y te dirá que Dios le respondió desde un torbellino.
Pregúntale a Pedro y enaltecerá su sumersión en el mar.
Pregúntale a Juan y te mostrará el camino de Patmos.
Pregúntale a Pablo y atribuirá su inspiración a la luz que lo dejó ciego.
Pregúntale a uno más solamente, al Hijo de Dios. Pregúntale cuándo comenzó a reinar sobre el mundo y te responderá: 'Cuando estaba sobre el frío suelo en Gestsemaní; allí recibí mi cetro.' ¡Tú también, alma mía, puedes ser laureada en Getsemaní.! La copa que quisieras pasará de ti, será la que te corone en el dulce porvenir.
La hora de soledad te coronará. El día de depresión te festejará. Tu desierto romperá a cantar. Los árboles de tu selva silenciosa son los que aplaudirán. Las cosas postreras serán primeras en el dulce porvenir. Las espinas serán rosas. Los valles serán montes. Lo curvo será línea recta. Los surcos serán tierra plana. Las sombras serán resplandor. Las pérdidas serán ganancias. Las lágrimas serán peldaños de oro. La voz de Dios en tu noche te dirá: Tu tesoro está escondido en el terreno donde estás acostado."
10 razones para usar Software Libre
Admin el 03-02-2012, 15:15 (UTC)
10 razones para usar Software Libre
Usa Software Libre
1. Porque es sólido como una roca
Debian, al igual que algunas otras distribuciones de linux, busca la estabilidad por encima de todo. Para los más ansiosos, también tiene otras versiones inestables en las que se puede probar lo último de lo último del Software Libre
2. Porque tiene una larga tradición
El proyecto GNU es el primer movimiento visible para difundir el Software Libre. Muchas de las herramientas más utilizadas en el mundo del SL fueron desarrolladas por gente de GNU, y de hecho son ellos quienes mantienen el pilar principal del SL: el compilador GNU gcc
3. Porque no le afectan virus ni troyanos
No existe programa al 100% seguro contra virus, pero hoy en día los sistemas basados en GNU/Linux son más estables y menos propensos a ataques de virus y troyanos que Windows. ¿Qué nos deparará el futuro? ¿Quién lo sabe? El presente es de Linux.
4. Porque tiene exactamente lo que necesitas
El SL no se mueve por ventas ni márketing. No hay versiones nuevas cada año, sino cuando son necesarias. Por eso, programas como OpenOffice.org te ofrecen las funciones que necesitas, ni más ni menos.
5. Porque permite hacer virguerías
¿Quién dijo que el Software Libre era simple e inútil? Existen programas como Blender, ampliamente extendidos entre los desarrolladores 3D, que demuestra que hay programas muy complejos y especializados, pero sin embargo son Software Libre
6. Porque te da libertades, no te las quita
Aunque la mayor parte del SL es gratuito, este no es su gran poder. La libertad de distribución y modificación de los programas son los que hacen grande al SL. Un conjunto de programadores de todo el mundo colaboran entre ellos para mejorar los programas de acuerdo con las necesidades reales de los usuarios.
7. Porque tiene una amplia comunidad que te apoya
Si tienes un problema con Windows, ¿qué haces? Reinstalas el sistema. ¿Por qué? ¿Crees que la informática realmente está tan atrasada como para no poder solucionar tus problemas?. Cada una de las distribuciones de linux tiene una amplia comunidad de usuarios que colaboran compartiendo información, ayudando a los novatos, aconsejando a los programadores.
8. Porque, si quieres, puedes aprender con él
Al estar disponible el código del programa y tener la libertad para modificarlo, cualquiera que quiera aprender informática puede examinar este código. Y lo que es mejor, si sabes programar puedes aprovechar partes de este código para tus proyectos de software. Sin embargo, no es necesario examinar este código para trabajar con él.
9. Porque es transparente y no te engaña
Otra de las ventajas de tener el código es que puedes examinar lo que hace realmente. Y si tú no sabes, tranquilo, otro lo hará por tí. ¿Sabes realmente lo que hace tu sistema operativo cuando escribes tu número de cuenta corriente en tu ordenador? Yo sí.
10. Porque posiblemente ya lo estés usando, ¡sin saberlo!
Emule es el mejor ejemplo de SL para la gente que no es experta en informática. Está totalmente extendido, funciona de maravilla, y ¡tiene mil y una modificaciones en la red!. ¿A que no te lo imaginabas?
El Desarrollo y las Ideas de Progreso, Civilización, Cultura y Cambio Social.
Admin el 02-02-2012, 22:46 (UTC)
El desarrollo y las ideas de progreso, civilización, cultura y cambio social.
Desarrollo de las ideas
La idea de desarrollo es consustancial a la evolución de la humanidad, por eso ella en diversos diccionarios es explicada a través de “sinónimos” muy diversos desde el punto de vista del rigor científico. En muchas ocasiones es vinculado al crecimiento económico, pero tradicionalmente se asoció a la idea de progreso.
Progreso proviene del latín progressus, participio de progredi, ir hacia delante. En general se entiende como avance o cambio hacia «adelante», «hacia mejor», hacia una situación comparativamente mejor que la presente. Normalmente, el término se usa en sentido histórico y con él se describe la característica que posee la historia de ser un proceso “lineal”, que, avanzando desde el pasado hasta el presente y hacia el futuro, produce, cuando va dirigido por la razón, el conocimiento y la ciencia, un aumento de bienestar general y civilización.
Como categoría historiográfica, esto es, como concepto clave y esencial de la historia, surge de los escritos de autores de la Ilustración, en especial Voltaire, Turgot y Condorcet, cuyas filosofías de la historia se basan justamente en esta idea. Sus precedentes hay que buscarlos en la idea baconiana de la «Gran Restauración», fundada en el dominio de la naturaleza por el conocimiento y la reforma de las ciencias, que se difunde durante s. XVII.
Todos los ilustrados suponen que el progreso de las ciencias y de la técnica implica también desarrollo social, bienestar y triunfo de la tolerancia. Para una mente ilustrada, el progreso es posible y corre a la par con la historia, espacio de tiempo en que tienen lugar los avances científicos.
La Ilustración alemana desarrolla ideas parecidas relacionando razón, historia y progreso, y poco después el idealismo considerará la historia como el tiempo en que ha de construirse la libertad objetiva del hombre, pero Kant vincula al progreso, de forma más acentuada que los ilustrados franceses, una necesaria tarea moral, y, pese a considerar la historia como el tiempo durante el cual la libertad se convierte en derecho, en ocasiones se muestra realista y reduce el progreso posible simplemente a la eliminación de la guerra.
En la filosofía contemporánea, desde la escuela de Francfort, se ha puesto en entredicho la vinculación de la idea de progreso, no ya con la historia, sino con el concepto mismo de racionalidad tal como se ha desarrollado a partir de la lustración. Según los autores de la teoría crítica, este modelo de «racionalidad instrumental», que se funda meramente en la adecuación entre medios y fines, y que dicha teoría considera en el fondo «irracional», nace de la tendencia de dominio del hombre y no es adecuado para comprender las formas ideológicas de dominio presentes en la sociedad y llevar a cabo su crítica.
Junto a la idea de un progreso posible en la historia por el desarrollo de la ciencia y la técnica, han surgido también ideas de progreso necesario. Así sucede en los sistemas de Comte, Hegel y Marx, que conciben la historia como teleológicamente predeterminada.
Para Marx la base económica de una sociedad viene dada por la concreta articulación de las fuerzas productivas (capacidad de producción y trabajo de los hombres, así como los medios para ella) con las relaciones de producción (relaciones que se establecen entre los trabajadores y los propietarios de los medios de producción), y la forma específica de organización del trabajo propia de cada época histórica.
Dicha base articulada de las fuerzas productivas y las relaciones de producción engendra la superestructura ideológica y política de una sociedad. Dicha superestructura está, pues, en relación de dependencia con la mencionada base, aunque puede mantener cierta autonomía propia.
De esta manera, en cuanto que la superestructura supone el conjunto del ordenamiento jurídico, las formas de pensar, el arte, la religión, las concepciones del mundo y la filosofía propios de un modo de producción que los determina, los cambios sociales no se efectúan cambiando dichos elementos superestructurales, como creían ingenuamente los ilustrados, sino cambiando la raíz, es decir, el modo de producción.
El mundo material no depende de ninguna fuerza trascendente, ni de la ideología, sino que está ordenado por el modo de producción de la vida material humana en unas determinadas relaciones de producción, y la historia es la sucesión de los diversos modos de producción. No es la conciencia de los hombres la que determina su vida, sino a la inversa, es la vida real (la base económica) la que determina su conciencia.
En el devenir histórico la articulación entre fuerzas productivas y relaciones de producción entra en conflicto, pues llega un momento en que las relaciones de producción pertenecientes y desarrolladas en un modo de producción anterior se convierten en trabas al desarrollo de nuevas fuerzas productivas.
De esta forma, para Marx el desarrollo no es lineal y aunque lo condiciona a una relación de fines y medios, esta es una relación conflictiva y no consensuada. Marx rompe con la concepción Darwiniana en la que desarrollo y evolución pasan a ser sinónimos, pues no concibe que el cambio es siempre para perfeccionar al ser y distingue entre tipos de cambio social.