jueves, 16 de mayo de 2019

Computadora

La computadora12​ (del ingléscomputer y este del latíncomputare,3​ ‘calcular’), también denominada computador41​ u ordenador56​ (del francésordinateur; y este del latín: ordinator), es una máquina digital que lee y realiza operaciones para convertirlos en datos convenientes y útiles que posteriormente se envían a las unidades de salida. Un ordenador está formado físicamente por numerosos circuitos integrados y muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa (software).
Dos partes esenciales la constituyen, el hardware, que es su estructura física (circuitos electrónicos, cables, gabinete, teclado, etc), y el software, que es su parte intangible (programas, datos, información, señales digitales para uso interno, etc.).
Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones aritmético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa.
El hecho de que sea programable le posibilita realizar una gran diversidad de tareas, esto la convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es calcular limitadamente). Es así que, sobre la base de datos de entrada, puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su intervención.
Básicamente, la capacidad de una computadora depende de sus componentes hardware, en tanto que la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga instalado.
Si bien esta máquina puede ser de dos tipos, computadora analógica o sistema digital, el primer tipo es usado para pocos y muy específicos propósitos; la más difundida, utilizada y conocida es la computadora digital (de propósitos generales); de tal modo que en términos generales (incluso populares), cuando se habla de «la computadora» se está refiriendo a computadora digital. Las hay de arquitectura mixta, llamadas computadoras híbridas, siendo también estas de propósitos especiales.
En la Segunda Guerra Mundial se utilizaron computadoras analógicas mecánicas, orientadas a aplicaciones militares, y durante la misma se desarrolló la primera computadora digital, que se llamó ENIAC; ella ocupaba un enorme espacio y consumía grandes cantidades de energía, que equivalen al consumo de cientos de computadores actuales (PC).7​ Los computadores modernos están basados en circuitos integrados, miles de millones de veces más veloces que las primeras máquinas, y ocupan una pequeña fracción de su espacio. 8
Computadoras simples son lo suficientemente pequeñas para residir en los dispositivos móviles. Las computadoras portátiles, tales como tabletasnetbooksnotebooksultrabooks, pueden ser alimentadas por pequeñas baterías. Las computadoras personales en sus diversas formas son iconos de la llamada era de la información y son lo que la mayoría de la gente considera como «ordenador». Sin embargo, los ordenadores integrados se encuentran en muchos dispositivos actuales, tales como reproductores MP4teléfonos celularesaviones de combate y desde juguetes hasta robot industriales.

Historia

Lejos de ser un invento de alguien en particular, el computador es el resultado evolutivo de ideas de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación.

Cronología

A continuación, se presentan resumidamente los principales hitos en la historia de los ordenadores, desde las primeras herramientas manuales para hacer cálculos hasta las modernas computadoras de bolsillo.
  • 2700 a. C.: se utiliza el ábaco en antiguas civilizaciones como la china o la sumeria, la primera herramienta para realizar sumas y restas.
  • Hacia 830: el matemático e ingeniero persa Musa al-Juarismi inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.
  • XVII: italiano Tito Livio Burattini creado una máquina calculadora, que donó al Gran Duque Fernando II de Médici; la calculadora está formada por una máquina de Blaise Pascal y un ábaco neperiano.
  • 1614: el escocés John Napier inventa el logaritmo neperiano, que consiguió simplificar el cálculo de multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.
  • 1620: el inglés Edmund Gunter inventa la regla de cálculo, instrumento manual utilizado desde entonces hasta la aparición de la calculadora electrónica para hacer operaciones aritméticas.
  • 1623: el alemán Wilhelm Schickard inventa la primera máquina de calcular, cuyo prototipo desapareció poco después.
  • 1642: el científico y filósofo francés Blaise Pascal inventa una máquina de sumar (la pascalina), que utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares originales.
  • 1671: el filósofo y matemático alemán Gottfried Wilhelm Leibniz inventa una máquina capaz de multiplicar y dividir.
  • 1801: el francés Joseph Jacquard inventa para su máquina de tejer brocados una tarjeta perforada que controla el patrón de funcionamiento de la máquina, una idea que sería empleada más adelante por los primeros ordenadores.
  • 1833: el matemático e inventor británico Charles Babbage diseña e intenta construir la primera computadora, de funcionamiento mecánico, a la que llamó la "máquina analítica". Sin embargo, la tecnología de su época no estaba lo suficientemente avanzada para hacer realidad su idea.
  • 1841 : la matemática Ada Lovelace comienza a trabajar junto a Babbage en lo que sería el primer algoritmo destinado a ser procesado por una máquina, por lo que se la considera como la primera programadora de computadores.
  • 1890: el norteamericano Herman Hollerith inventa una máquina tabuladora aprovechando algunas de las ideas de Babbage, que se utilizó para elaborar el censo de Estados Unidos. Hollerith fundó posteriormente la compañía que después se convertiría en IBM.
  • 1893: el científico suizo Otto Steiger desarrolla la primera calculadora automática que se fabricó y empleó a escala industrial, conocida como la Millonaria.
  • 1936: el matemático y computólogo inglés Alan Turing formaliza los conceptos de algoritmo y de máquina de Turing, que serían claves en el desarrollo de la computación moderna.
  • 1938: El ingeniero alemán Konrad Zuse completa la Z1, la primera computadora que se puede considerar como tal. De funcionamiento electromecánico y utilizando relés, era programable (mediante cinta perforada) y usaba sistema binario y lógica boleana. A ella le seguirían los modelos mejorados Z2, Z3 y Z4.
  • 1944: En Estados Unidos la empresa IBM construye la computadora electromecánica Harvard Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Fue la primera computadora creada en Estados Unidos.
  • 1944: En Inglaterra se construyen los ordenadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes durante la Segunda Guerra Mundial.
  • 1947: En la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator And Calculator), que funcionaba a válvulas y fue la primera computadora electrónica de propósito general.
  • 1947: en los Laboratorios Bell, John BardeenWalter H. Brattain y William Shockley inventan el transistor.
  • 1951: comienza a operar la EDVAC, concebida por John von Neumann, que a diferencia de la ENIAC no era decimal, sino binaria, y tuvo el primer programa diseñado para ser almacenado.
  • 1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras. Los ordenadores con transistores reemplazan a los de válvulas, marcando el comienzo de la segunda generación de computadoras.
  • 1957: Jack S. Kilby construye el primer circuito integrado.
  • 1964: La aparición del IBM 360 marca el comienzo de la tercera generación de computadoras, en la que las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
  • 1971: Nicolette Instruments Corp. lanza al mercado la Nicolette 1080, una computadora de uso científico basada en registros de 20 bits, cuya versatilidad para el cálculo de la Transformada Rápida de Fourier le brinda gran aceptación en el campo de la Resonancia magnética nuclear.
  • 1971: Intel presenta el primer procesador comercial, el primer chip: el microprocesador Intel 4004.
  • 1975: Bill Gates y Paul Allen fundan Microsoft.
  • 1976: Steve JobsSteve WozniakMike Markkula fundan Apple.
  • 1977: Apple presenta el primer computador personal que se vende a gran escala, el Apple II, desarrollado por Steve Jobs y Steve Wozniak.
  • 1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
  • 1982: Microsoft presenta su sistema operativo MS-DOS, por encargo de IBM.
  • 1983: ARPANET se separa de la red militar que la originó, pasando a un uso civil y convirtiéndose así en el origen de Internet.
  • 1983: Richard Stallman anuncia públicamente el proyecto GNU.
  • 1985: Microsoft presenta el sistema operativo Windows 1.0.
  • 1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www), una nueva manera de interactuar con Internet.
  • 1991: Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
  • 2000: aparecen a comienzos del siglo XXI los ordenadores de bolsillo, primeras PDAs
  • 2007: Presentación del primer iPhone, por la empresa Apple, un teléfono inteligente o smartphone.

Componentes

Modelo básico de la arquitectura de von Neumann, en la que se basan todos los ordenadores modernos.
Las tecnologías utilizadas en computadoras digitales han evolucionado mucho desde la aparición de los primeros modelos en los años 1940, aunque la mayoría todavía utiliza la Arquitectura de von Neumann, publicada por John von Neumann a principios de esa década, que otros autores atribuyen a John Presper Eckert y John William Mauchly.
La arquitectura de Von Neumann describe una computadora con cuatro (4) secciones principales: la unidad aritmético lógica, la unidad de control, la memoria primaria, principal o central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses.

Unidad central de procesamiento

La unidad central de procesamiento (CPU, por sus siglas del inglés: Central Processing Unit) consta de manera básica de los siguientes tres elementos:
Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada de la unidad de control; D es un estado de la salida.
  • La unidad aritmético lógica (ALU, por sus siglas del inglés: Arithmetic-Logic Unit) es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.
  • La unidad de control (UC) sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).
  • Los registros: de datos, de memoria, registros constantes, de coma flotante, de propósito general, de propósito específico.
Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades adicionales como la unidad de coma flotante.

Memoria primaria

La memoria principal (MP), conocida como memoria de acceso aleatorio (RAM, por sus siglas del inglés: Random-Access Memory), es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo que se desea con el computador. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip se subdividen en memoria estática (SRAM) con seis transistores por bit y la mucho más utilizada memoria dinámica (DRAM) un transistor y un condensador por bit. En general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece más a una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.
Inteligencia artificial

La inteligencia artificial (IA), es la inteligencia llevado a cabo por máquinas. En ciencias de la computación, una máquina «inteligente» ideal es un agente flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea.1​ Coloquialmente, el término inteligencia artificial se aplica cuando una máquina imita las funciones «cognitivas» que los humanos asocian con otras mentes humanas, como por ejemplo: «percibir», «razonar», «aprender» y «resolver problemas».2​ Andreas Kaplan y Michael Haenlein definen la inteligencia artificial como "la capacidad de un sistema para interpretar correctamente datos externos, para aprender de dichos datos y emplear esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible".3​ A medida que las máquinas se vuelven cada vez más capaces, tecnología que alguna vez se pensó que requería de inteligencia se elimina de la definición. Por ejemplo, el reconocimiento óptico de caracteres ya no se percibe como un ejemplo de la «inteligencia artificial» habiéndose convertido en una tecnología común.4​ Avances tecnológicos todavía clasificados como inteligencia artificial son los sistemas de conducción autónomos o los capaces de jugar al ajedrez o al Go.5
Según Takeyas (2007) la IA es una rama de las ciencias computacionales encargada de estudiar modelos de cómputo capaces de realizar actividades propias de los seres humanos en base a dos de sus características primordiales: el razonamiento y la conducta.6
En 1956, John McCarthy acuñó la expresión «inteligencia artificial», y la definió como «la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes».7
También existen distintos tipos de percepciones y acciones, que pueden ser obtenidas y producidas, respectivamente, por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemasplanificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escriturareconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economíamedicinaingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia, como ajedrez de computador, y otros videojuegos.
TOPIO 2.0.jpg

Categorías de la inteligencia artificial[editar]

Búsqueda heurística. Podemos definir una heurística como un truco o estrategia que limita grandiosamente la búsqueda de soluciones ante grandes espacios de problemas. Por lo tanto, ante un problema, nos ayuda a seleccionar las bifurcaciones dentro de un árbol con más posibilidades; con ello se restringe la búsqueda, aunque no siempre se garantiza una solución adecuada. Todo lo que se debe tener en cuenta para que una heurística sea adecuada es que nos proporcione soluciones que sean lo suficientemente buenas. Además, con la utilización de la búsqueda heurística, no será necesario replantear un problema cada vez que se afronte, ya que si ya ha sido planteado anteriormente, ésta sugerirá la forma en que se ha de proceder para resolverlo.
Representación del conocimiento. La representación es una cuestión clave a la hora de encontrar soluciones adecuadas a los problemas planteados. Si analizamos más detenidamente el término encontramos varias definiciones: según Barr y Feigenbaum, la representación del conocimiento es una combinación de estructuras de datos y procedimientos de interpretación que, si son utilizados correctamente por un programa, éste podrá exhibir una conducta inteligente; según Fariñas y Verdejo, la Inteligencia Artificial tiene como objetivo construir modelos computacionales que al ejecutarse resuelvan tareas con resultados similares a los obtenidos por una persona, por lo que el tema central de esta disciplina es el estudio del conocimiento y su manejo; y según Buchanan y Shortliffe, la Representación del Conocimiento en un programa de Inteligencia Artificial significa elegir una serie de convenciones para describir objetos, relaciones, y procesos en el mundo. Gran parte del esfuerzo realizado en la consecución de ordenadores inteligentes, según Rahael, ha sido caracterizado por el intento continuo de conseguir más y mejores estructuras de representación del conocimiento, junto con técnicas adecuadas para su manipulación, que permitiesen la resolución inteligente de algunos de los problemas ya planteados. Otra característica importante es la inclusión en los programas de Inteligencia artificial, aunque por separado, de los conocimientos y la unidad que controla y dirige la búsqueda de soluciones. Dada esta disposición, en estos programas la modificación, ampliación y actualización de los mismos es sencilla.
El razonamiento que puede tener cualquier persona, ha demostrado ser una de los aspectos más difíciles de modelar «dentro» de un ordenador. El sentido común a menudo nos ayuda a prever multitud de hechos y fenómenos corrientes, pero, como ya hemos dicho, es muy complicado representarlos en un ordenador, dado que los razonamientos son casi siempre inexactos y que sus conclusiones y reglas en las que se basan solamente son aproximadamente verdaderas.
Lenguajes, entornos y herramientas de Inteligencia Artificial. En la Inteligencia Artificial, se han desarrollado diferentes lenguajes específicos para los diferentes campos de aplicación. Estos lenguajes en su mayoría cuentan con una serie de características comunes que podemos resumir de la siguiente forma: Este tipo de software ofrece una gran modularidad. Poseen gran capacidad de tomar decisiones de programación hasta el último momento, es decir cuando el programa ya está ejecutándose. Ofrecen grandes facilidades en el manejo de listas, y esto es importante, ya que las listas son la estructura más habitual usada para la representación del conocimiento en la Inteligencia Artificial. Facilitan la realización de ciertos tipos de deducción automática permitiendo también la creación de una base de hechos (lugar donde se recogen los datos iniciales del problema a resolver y los resultados intermedios una vez obtenidos). Permite el uso simultáneo de estructuras que incorporan conocimiento declarativo y conocimiento procedimental. Tienen una marcada orientación gráfica. Además, las herramientas de Inteligencia Artificial permiten hacer un seguimiento de todos los cambios realizados a lo largo de toda la sesión. Disponen herramientas capaces de desarrollar programas que son capaces de comprender otros programas y también de realizar modificaciones sobre ellos.
Stuart Russell y Peter Norvig diferencian estos tipos de la inteligencia artificial:8
  • Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la toma de decisionesresolución de problemas y aprendizaje.9
  • Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor.10
  • Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibirrazonar y actuar.11
  • Sistemas que actúan racionalmente (idealmente).– Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes inteligentes. Está relacionado con conductas inteligentes en artefactos.​

Escuelas de pensamiento

La IA se divide en dos escuelas de pensamiento:

Inteligencia artificial convencional

Se conoce también como IA simbólico-deductiva. Está basada en el análisis formal y estadístico del comportamiento humano ante diferentes problemas:
  • Razonamiento basado en casos: Ayuda a tomar decisiones mientras se resuelven ciertos problemas concretos y, aparte de que son muy importantes, requieren de un buen funcionamiento.
  • Sistemas expertos: Infieren una solución a través del conocimiento previo del contexto en que se aplica y ocupa de ciertas reglas o relaciones.
  • Redes bayesianas: Propone soluciones mediante inferencia probabilística.
  • Inteligencia artificial basada en comportamientos: Esta inteligencia contiene autonomía y puede auto-regularse y controlarse para mejorar.
  • Smart process management: Facilita la toma de decisiones complejas, proponiendo una solución a un determinado problema al igual que lo haría un especialista en dicha actividad.

Inteligencia artificial computacional

Artículo principal: Inteligencia computacional
La Inteligencia Computacional (también conocida como IA subsimbólica-inductiva) implica desarrollo o aprendizaje interactivo (por ejemplo, modificaciones interactivas de los parámetros en sistemas de conexiones). El aprendizaje se realiza basándose en datos empíricos.

Historia

Artículo principal: Historia de la inteligencia artificial
  • El término «inteligencia artificial» fue acuñado formalmente en 1956 durante la conferencia de Dartmouth, pero para entonces ya se había estado trabajando en ello durante cinco años en los cuales se había propuesto muchas definiciones distintas que en ningún caso habían logrado ser aceptadas totalmente por la comunidad investigadora. La IA es una de las disciplinas más nuevas junto con la genética moderna.
  • Las ideas más básicas se remontan a los griegos, antes de Cristo. Aristóteles (384-322 a. C.) fue el primero en describir un conjunto de reglas que describen una parte del funcionamiento de la mente para obtener conclusiones racionales, y Ctesibio de Alejandría (250 a. C.) construyó la primera máquina autocontrolada, un regulador del flujo de agua (racional pero sin razonamiento).
  • En 1315 Ramon Llull en su libro Ars magna tuvo la idea de que el razonamiento podía ser efectuado de manera artificial.
  • En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido.
  • En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aun cuando todavía no existía el término. Los primeros avances importantes comenzaron a principios del año 1950 con el trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones.
  • En 1955 Herbert SimonAllen Newell y J. C. Shaw, desarrollan el primer lenguaje de programación orientado a la resolución de problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.
  • En 1956 fue inventado el término inteligencia artificial por John McCarthyMarvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.
  • En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problem Solver (GPS). GPS era un sistema orientado a la resolución de problemas.
  • En 1958 John McCarthy desarrolla en el Instituto de Tecnología de Massachusetts (MIT) el LISP. Su nombre se deriva de LISt Processor. LISP fue el primer lenguaje para procesamiento simbólico.
  • En 1959 Rosenblatt introduce el Perceptrón.
  • A finales de la década de 1950 y comienzos de la de 1960 Robert K. Lindsay desarrolla «Sad Sam», un programa para la lectura de oraciones en inglés y la inferencia de conclusiones a partir de su interpretación.
  • En 1963 Quillian desarrolla las redes semánticas como modelo de representación del conocimiento.
  • En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de inferir conocimiento basado en información que se le suministra. Bobrow desarrolla STUDENT.
  • A mediados de los años 60, aparecen los sistemas expertos, que predicen la probabilidad de una solución bajo un set de condiciones. Por ejemplo DENDRAL, iniciado en 1965 por Buchanan, Feigenbaum y Lederberg, el primer Sistema Experto, que asistía a químicos en estructuras químicas complejas, MACSYMA, que asistía a ingenieros y científicos en la solución de ecuaciones matemáticas complejas.
  • Posteriormente entre los años 1968-1970 Terry Winograd desarrolló el sistema SHRDLU, que permitía interrogar y dar órdenes a un robot que se movía dentro de un mundo de bloques.
  • En 1968 Marvin Minsky publica Semantic Information Processing.
  • En 1968 Seymour Papert, Danny Bobrow y Wally Feurzeig desarrollan el lenguaje de programación LOGO.
  • En 1969 Alan Kay desarrolla el lenguaje Smalltalk en Xerox PARC y se publica en 1980.
  • En 1973 Alain Colmenauer y su equipo de investigación en la Universidad de Aix-Marseille crean PROLOG (del francés PROgrammation en LOGique) un lenguaje de programación ampliamente utilizado en IA.
  • En 1973 Shank y Abelson desarrollan los guiones, o scripts, pilares de muchas técnicas actuales en Inteligencia Artificial y la informática en general.
  • En 1974 Edward Shortliffe escribe su tesis con MYCIN, uno de los Sistemas Expertos más conocidos, que asistió a médicos en el diagnóstico y tratamiento de infecciones en la sangre.
  • En las décadas de 1970 y 1980, creció el uso de sistemas expertos, como MYCIN: R1/XCON, ABRL, PIP, PUFF, CASNET, INTERNIST/CADUCEUS, etc. Algunos permanecen hasta hoy (Shells) como EMYCIN, EXPERT, OPSS.
  • En 1981 Kazuhiro Fuchi anuncia el proyecto japonés de la quinta generación de computadoras.
  • En 1986 McClelland y Rumelhart publican Parallel Distributed Processing (Redes Neuronales).
  • En 1988 se establecen los lenguajes Orientados a Objetos.
  • En 1997 Gari Kaspárov, campeón mundial de ajedrez, pierde ante la computadora autónoma Deep Blue.
  • En 2006 se celebró el aniversario con el Congreso en español 50 años de Inteligencia Artificial - Campus Multidisciplinar en Percepción e Inteligencia 2006.
  • En el año 2009 ya hay en desarrollo sistemas inteligentes terapéuticos que permiten detectar emociones para poder interactuar con niños autistas.
  • En el año 2011 IBM desarrolló una supercomputadora llamada Watson, la cual ganó una ronda de tres juegos seguidos de Jeopardy!, venciendo a sus dos máximos campeones, y ganando un premio de 1 millón de dólares que IBM luego donó a obras de caridad.13
  • En 2016, un programa informático ganó cinco a cero al triple campeón de Europa de Go.14
  • Existen personas que al dialogar sin saberlo con un chatbot no se percatan de hablar con un programa, de modo tal que se cumple la prueba de Turing como cuando se formuló: «Existirá Inteligencia Artificial cuando no seamos capaces de distinguir entre un ser humano y un programa de computadora en una conversación a ciegas».
  • Como anécdota, muchos de los investigadores sobre IA sostienen que «la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro».
  • En 2018, se lanza el primer televisor con Inteligencia Artificial por parte de LG Electronics con una plataforma denominada ThinQ.
  • En 2019Google presentó su Doodle en que, con ayuda de la Inteligencia Artificial, hace un homenaje a Johann Sebastian Bach, en el que, añadiendo una simple melodía de dos compases la IA crea el resto.

La inteligencia artificial, la conciencia y los sentimientos

El concepto de IA es aún demasiado difuso. Contextualizando, y teniendo en cuenta un punto de vista científico, podríamos definir esta ciencia como la encargada de imitar el cerebro, que no el cuerpo, de una persona en todas sus funciones. Estas pueden ser las ya existentes en el humano o bien otras novedosas e incorporadas en el desarrollo de una máquina inteligente.
En relación a la conciencia y las emociones, y aunque por el momento la mayoría de los investigadores en el ámbito de la Inteligencia Artificial se centran sólo en el aspecto racional, hay expertos que consideran seriamente la posibilidad de incorporar componentes «emotivos» como indicadores de estado, a fin de aumentar la eficacia de los sistemas inteligentes en determinadas situaciones.
Particularmente, en el caso de los robots móviles, es necesario que estos cuenten con algo similar a las emociones con el objeto de saber –en cada instante y como mínimo– qué hacer a continuación [Pinker, 2001, p. 481].
Al tener «sentimientos» y, al menos potencialmente, «motivaciones», podrán actuar de acuerdo con sus «intenciones» [Mazlish, 1995, p. 318]. Así, se podría equipar a un robot con dispositivos que controlen su medio interno; por ejemplo, que «sientan hambre» al detectar que su nivel de energía está descendiendo o que «sientan miedo» cuando este esté demasiado bajo.
Esta señal podría interrumpir los procesos de alto nivel y obligar al robot a conseguir el preciado elemento [Johnson-Laird, 1993, p. 359]. Incluso se podría introducir el «dolor» o el «sufrimiento físico», a fin de evitar las torpezas de funcionamiento como, por ejemplo, introducir la mano dentro de una cadena de engranajes o saltar desde una cierta altura, lo cual le provocaría daños irreparables.
Esto significa que los sistemas inteligentes deben ser dotados con mecanismos de retroalimentación que les permitan tener conocimiento de estados internos, igual que sucede con los humanos que disponen de propiocepcióninterocepciónnocicepción, etcétera. Esto es fundamental tanto para tomar decisiones como para conservar su propia integridad y seguridad. La retroalimentación en sistemas está particularmente desarrollada en cibernética: por ejemplo, en el cambio de dirección y velocidad autónomo de un misil, utilizando como parámetro la posición en cada instante en relación al objetivo que debe alcanzar. Esto debe ser diferenciado del conocimiento que un sistema o programa computacional puede tener de sus estados internos, por ejemplo la cantidad de ciclos cumplidos en un loop o bucle en sentencias tipo do... for, o la cantidad de memoria disponible para una operación determinada.
A los sistemas inteligentes el no tener en cuenta elementos emocionales les permite no olvidar la meta que deben alcanzar. En los humanos el olvido de la meta o el abandonar las metas por perturbaciones emocionales es un problema que en algunos casos llega a ser incapacitante. Los sistemas inteligentes, al combinar una memoria durable, una asignación de metas o motivación, junto a la toma de decisiones y asignación de prioridades con base en estados actuales y estados meta, logran un comportamiento en extremo eficiente, especialmente ante problemas complejos y peligrosos.
En síntesis, lo racional y lo emocional están de tal manera interrelacionados entre sí, que se podría decir que no sólo no son aspectos contradictorios sino que son –hasta cierto punto– complementarios.
 https://www.youtube.com/watch?v=XgDfv5cI2VI


https://www.youtube.com/watch?v=hZTO0jQOYEs

https://www.youtube.com/watch?v=KaKnuNT1g8M

                                               Tecnología

La tecnología es la ciencia aplicada a la resolución de problemas concretos. Constituye un conjunto de conocimientos científicamenteordenados, que permiten diseñar y crear bienes o servicios que facilitan la adaptación al medio ambiente y la satisfacción de las necesidades esenciales y los deseos de la humanidad. Es una palabra de origen griego, τεχνολογία, formada por téchnē (τέχνη, arte, técnica u oficio, que puede ser traducido como destreza) y logía (λογία, el estudio de algo).
Aunque hay muchas tecnologías muy diferentes entre sí, es frecuente usar el término tecnología en singular para referirse al conjunto de todas, o también a una de ellas. La palabra tecnología también se puede referir a la disciplina teórica que estudia los saberes comunes a todas las tecnologías, y en algunos contextos, a la educación tecnológica, la disciplina escolar abocada a la familiarización con las tecnologías más importantes.
La actividad tecnológica influye en el progreso social y económico, pero si su aplicación es meramente comercial, puede orientarse a satisfacer los deseos de los más prósperos (consumismo) y no a resolver las necesidades esenciales de los más necesitados. Este enfoque puede incentivar un uso no sostenible del medio ambiente. Ciertas tecnologías humanas, por su uso intensivo, directo o indirecto, de la biosfera, son causa principal del creciente agotamiento y degradación de los recursos naturales del planeta.
Sin embargo, la tecnología también puede ser usada para proteger el medio ambiente, buscando soluciones innovadoras y eficientes para resolver de forma sostenible las crecientes necesidades de la sociedad, sin provocar un agotamiento o degradación de los recursos materiales y energéticos del planeta o aumentar las desigualdades sociales. Ciertas tecnologías humanas han llevado a un avance descomunal en los estándares y calidad de vida de miles de millones de personas en el planeta, logrando simultáneamente una mejor conservación del medio ambiente.
La tecnología engloba a todo conjunto de acciones sistemáticas cuyo destino es la transformación de las cosas, es decir, su finalidad es saber hacer y saber por qué se hace.1
Actualmente hay una era tecnológica, etapa histórica dominada por la producción de bienes y por su comercialización, en la que el factor energía tiene un papel primordial.1​ Toda la actividad científico-técnica gravita permanentemente sobre el bienestar humano, sobre el progreso social y económico de los pueblos y sobre el medio ambiente donde se manifiesta la actividad industrial.

Funciones de la tecnología

Artículo principal: Funciones de la tecnología
En la prehistoria, las tecnologías han sido usadas para satisfacer necesidades esenciales (alimentación, vestimenta, vivienda, protección personal, relación social, comprensión del mundo natural y social), y en la historia también para obtener placeres corporales y estéticos (deportes, música, hedonismo en todas sus formas) y como medios para satisfacer deseos (simbolización de estatus, fabricación de armas y toda la gama de medios artificiales usados para persuadir y dominar a las personas).

Importancia de la tecnología en nuestros tiempos

La tecnología aporta grandes beneficios a la humanidad, su papel principal es crear mejores herramientas útiles para simplificar el ahorro de tiempo y esfuerzo de trabajo. La tecnología juega un papel principal en nuestro entorno social ya que gracias a ella podemos comunicarnos de forma inmediata gracias a la telefonía celular.

Funciones no técnicas de los productos tecnológicos

Después de un tiempo, las características novedosas de los productos tecnológicos son copiadas por otras marcas y dejan de ser un buen argumento de venta. Toman entonces gran importancia las creencias del consumidor sobre otras características independientes de su función principal, como las estéticas y simbólicas.

Función estética de los objetos tecnológicos

Más allá de la indispensable adecuación entre forma y función técnica, se busca la belleza a través de las formas, colores y texturas. Entre dos productos de iguales prestaciones técnicas y precios, cualquier usuario elegirá seguramente al que encuentre más bello. A veces, caso de las prendas de vestir, la belleza puede primar sobre las consideraciones prácticas. Frecuentemente compramos ropa bonita aunque sepamos que sus ocultos detalles de confección no son óptimos, o que su duración será breve debido a los materiales usados. Las ropas son el rubro tecnológico de máxima venta en el planeta porque son la cara que mostramos a las demás personas y condicionan la manera en que nos relacionamos con ellas.

Función simbólica de los objetos tecnológicos

Cuando la función principal de los objetos tecnológicos es la simbólica, no satisfacen las necesidades básicas de las personas y se convierten en medios para establecer estatus social y relaciones de poder.2
Las joyas hechas de metales y piedras preciosas no impactan tanto por su belleza (muchas veces comparable al de una imitación barata) como por ser claros indicadores de la riqueza de sus dueños. Las ropas costosas de primera marca han sido tradicionalmente indicadores del estatus social de sus portadores. En la América colonial, por ejemplo, se castigaba con azotes al esclavo o liberto africano que usaba ropas españolas por pretender ser lo que no es.
El caso más destacado y frecuente de objetos tecnológicos fabricados por su función simbólica es el de los grandes edificios: catedralespalaciosrascacielos gigantes. Están diseñados para empequeñecer a los que están en su interior (caso de los amplios atrios y altísimos techos de las catedrales), deslumbrar con exhibiciones de lujo (caso de los palacios), infundir asombro y humildad (caso de los grandes rascacielos). No es casual que los terroristas del 11 de septiembre de 2001 eligieran como blanco principal de sus ataques a las Torres Gemelas de Nueva York, sede de la Organización Mundial del Comercio y símbolo del principal centro del poderío económico estadounidense.
El Programa Apolo fue lanzado por el Presidente John F. Kennedy en el clímax de la Guerra Fría, cuando Estados Unidos estaba aparentemente perdiendo la carrera espacialfrente a los rusos, para demostrar al mundo la inteligencia, riqueza, poderío y capacidad tecnológica de los Estados Unidos. Con las pirámides de Egipto, es el más costoso ejemplo del uso simbólico de las tecnologías.

Métodos de las tecnologías

Las tecnologías usan, en general, métodos diferentes del científico, aunque la experimentación es también usado por las ciencias. Los métodos difieren según se trate de tecnologías de producción artesanal o industrial de artefactos, de prestación de servicios, de realización u organización de tareas de cualquier tipo.
Un método común a todas las tecnologías de fabricación es el uso de herramientas e instrumentos para la construcción de artefactos. Las tecnologías de prestación de servicios, como el sistema de suministro eléctrico hacen uso de instalaciones complejas a cargo de personal especializado.

Herramientas e instrumentos

Los principales medios para la fabricación de artefactos son la energía y la información. La energía permite dar a los materiales la forma, ubicación y composición que están descritas por la información. Las primeras herramientas, como los martillos de piedra y las agujas de hueso, sólo facilitaban y dirigían la aplicación de la fuerza, por parte de las personas, usando los principios de las máquinas simples.3​ El uso del fuego, que modifica la composición de los alimentos haciéndolos más fácilmente digeribles, proporciona iluminación haciendo posible la sociabilidad más allá de los horarios diurnos, brinda calefacción y mantiene a raya a alimañas y animales feroces, modificó tanto la apariencia como los hábitos humanos.
Las herramientas más elaboradas incorporan información en su funcionamiento, como las pinzas pelacables que permiten cortar la vaina a la profundidad apropiada para arrancarla con facilidad sin dañar el alma metálica. El término «instrumento», en cambio, está más directamente asociado a las tareas de precisión, como en instrumental quirúrgico, y de recolección de información, como en instrumentación electrónica y en instrumentos de mediciónde navegación náutica y de navegación aérea.
Las máquinas herramientas son combinaciones complejas de varias herramientas gobernadas (actualmente, muchas mediante computadoras) por información obtenida desde instrumentos, también incorporados en ellas.

Invención de artefactos

Aunque con grandes variantes de detalle según el objeto, su principio de funcionamiento y los materiales usados en su construcción, las siguientes son las etapas comunes en la invención de un artefacto novedoso:
  • Identificación del problema práctico a resolver: Durante ésta, deben quedar bien acotados tanto las características intrínsecas del problema, como los factores externos que lo determinan o condicionan. El resultado debe expresarse como una función cuya expresión mínima es la transición, llevada a cabo por el artefacto, de un estado inicial a un estado final. Por ejemplo, en la tecnología de desalinización del agua, el estado inicial es agua salada, en su estado natural, el final es esa misma agua pero ya potabilizada, y el artefacto es un desalinizador. Una de las características críticas es la concentración de sal del agua, muy diferente, por ejemplo, en el agua oceánica de mares abiertos que en mares interiores como el mar Muerto. Los factores externos son, por ejemplo, las temperaturas máxima y mínima del agua en las diferentes estaciones y las fuentes de energíadisponibles para la operación del desalinizador.
  • Especificación de los requisitos que debe cumplir el artefacto: Materiales admisibles; cantidad y calidad de mano de obra necesaria y su disponibilidad; costos máximos de fabricación, operación y mantenimiento; duración mínima requerida del artefacto (tiempo útil), etc.
  • Principio de funcionamiento: Frecuentemente hay varias maneras diferentes de resolver un mismo problema, más o menos apropiados al entorno natural o social. En el caso de la desalinización, el procedimiento de congelación es especialmente apto para las regiones árticas, mientras que el de ósmosis inversa lo es para ciudades de regiones tropicales con amplia disponibilidad de energía eléctrica. La invención de un nuevo principio de funcionamiento es una de las características cruciales de la innovación tecnológica. La elección del principio de funcionamiento, sea ya conocido o específicamente inventado, es el requisito indispensable para la siguiente etapa, el diseño, que precede a la construcción.
  • Diseño del artefacto: Mientras que en la fabricación artesanal lo usual es omitir esta etapa y pasar directamente a la etapa siguiente de construcción de un prototipo (método de ensayo y error), pero el diseño es una fase obligatoria en todos los procesos de fabricación industrial. El diseño se efectúa típicamente usando saberes formalizados como los de alguna rama de la ingeniería, efectuando cálculos matemáticos, trazando planos de diversos tipos, utilizando diagramación, eligiendo materiales de propiedades apropiadas o haciendo ensayos cuando se las desconoce, compatibilizando la forma de los materiales con la función a cumplir, descomponiendo el artefacto en partes que faciliten tanto el cumplimiento de la función como la fabricación y ensamblado, etc.
  • Simulación o construcción de un prototipo: Si el costo de fabricación de un prototipo no es excesivamente alto (donde el tope sea probablemente el caso de un nuevo modelo de automóvil), su fabricación permite detectar y resolver problemas no previstos en la etapa de diseño. Cuando el costo es prohibitivo, caso ejemplo, el desarrollo de un nuevo tipo de avión, se usan complejos programas de simulación y modelado numérico por computadora o modelización matemática, donde un caso simple es la determinación de las características aerodinámicas usando un modelo a escala en un túnel de viento.
Según el divulgador científico Asimov:4
Inventar exigía trabajar duro y pensar firme. Edison sacaba inventos por encargo y enseñó a la gente que no eran cuestión de fortuna ni de conciliábulo de cerebros. Porque –aunque es cierto que hoy disfrutamos del fonógrafo, del cine, de la luz eléctrica, del teléfono y de mil cosas más que él hizo posibles o a las que dio un valor práctico– hay que admitir que, de no haberlas inventado él, otro lo hubiera hecho tarde o temprano: eran cosas que «flotaban en el aire». Quizás no sean los inventos en sí lo que hay que destacar entre los aportes de Edison a nuestras vidas. La gente creía antes que los inventos eran golpes de suerte. El genio, decía Edison, es un uno por ciento de inspiración y un noventa y nueve por ciento de transpiración. No, Edison hizo algo más que inventar, y fue dar al proceso de invención un carácter de producción en masa.
Guilford, destacado estudioso de la psicología de la inteligencia,5​ identifica como las principales destrezas de un inventor las incluidas en lo que denomina aptitudes de producción divergente. La creatividad, facultad intelectual asociada a todas las producciones originales, ha sido discutida por de Bono, quien la denomina pensamiento lateral.6​ Aunque más orientado a las producciones intelectuales, el más profundo estudio sobre la resolución de problemas cognitivos es hecho por Newell y Simon, en el celebérrimo libro Human problem solving.7​Véase también: Creatividad

Tipos de tecnologías

Tecnologías duras y blandas

Muchas veces la palabra tecnología se aplica a la informática, la micro-eléctrica, el láser o a las actividades especiales, que son duras. Sin embargo, la mayoría de las definiciones que hemos visto también permiten e incluyen a otras, a las que se suele denominar blandas.
Las tecnologías blandas –en las que su producto no es un objeto tangible– pretenden mejorar el funcionamiento de las instituciones u organizaciones para el cumplimiento de sus objetivos. Dichas organizaciones pueden ser empresas industriales, comerciales o de servicio institucional, como o sin fines de lucro, etc. Entre las ramas de la tecnología llamadas blandas se destacan la educación (en lo que respecta al proceso de enseñanza), la organización, la administración, la contabilidad y las operaciones, la logística de producción, el marketing y la estadística, la psicología de las relaciones humanas y del trabajo, y el desarrollo de software.
Se suele llamar duras aquellas tecnologías que se basan en conocimiento de las ciencias duras, como la física o la química. Mientras que las otras se fundamentan en ciencias blandas, como la sociología, la economía, o la administración.

Tecnologías apropiadas

Artículo principal: Tecnología adecuada
Se considera que una tecnología es apropiada cuando tiene efectos beneficiosos sobre las personas y el medio ambiente. Aunque el tema es hoy (y probablemente seguirá siéndolo por mucho tiempo) objeto de intenso debate, hay acuerdo bastante amplio sobre las principales características que una tecnología debe tener para ser social y ambientalmente apropiada:8
  • No causar daño previsible a las personas ni daño innecesario a las restantes formas de vida (animales y plantas).
  • No comprometer de modo irrecuperable el patrimonio natural de las futuras generaciones.
  • Mejorar las condiciones básicas de vida de todas las personas, independientemente de su poder adquisitivo.
  • No ser coercitiva y respetar los derechos y posibilidades de elección de sus usuarios voluntarios y de sus sujetos involuntarios.
  • No tener efectos generalizados irreversibles, aunque estos parezcan a primera vista ser beneficiosos o neutros.
  • La inversión de los gobiernos en tecnologías apropiadas debe priorizar de modo absoluto la satisfacción de las necesidades humanas básicas de alimentación, vestimenta, vivienda, salud, educación, seguridad personal, participación social, trabajo y transporte.
Los conceptos tecnologías apropiadas y tecnologías de punta son completamente diferentes. Las tecnologías de punta, término publicitario que enfatiza la innovación, son usualmente tecnologías complejas que hacen uso de muchas otras tecnologías más simples. Las tecnologías apropiadas frecuentemente, aunque no siempre, usan saberes propios de la cultura (generalmente artesanales) y materias primas fácilmente obtenibles en el ambiente natural donde se aplican.9​ Algunos autores acuñaron el término tecnologías intermedias para designar a las tecnologías que comparten características de las apropiadas y de las industriales.

Ejemplos de tecnologías apropiadas

  • La bioconstrucción o construcción de viviendas con materiales locales, como el adobe, con diseños sencillos pero que garanticen la estabilidad de la construcción, la higiene de las instalaciones, la protección contra las variaciones normales del clima y un bajo costo de mantenimiento, actividad tecnológica frecuentemente descuidada.10
  • La letrina abonera seca es una manera higiénica de disponer de los excrementos humanos y transformarlos en abono sin uso de agua. Es una tecnología apropiada para ambientes donde el agua es escasa o no se puede depurar su carga orgánica con facilidad y seguridad.11

Nuevas tecnologías

Las nuevas tecnologías son nuevas porque, en lo sustancial, han aparecido –y, sobre todo, se han perfeccionado, difundido y asimilado– después de la Segunda Guerra Mundial. Desde entonces su desarrollo se ha caracterizado por una fuerte aceleración; sus consecuencias son de una magnitud y trascendencia que no tenían antecedentes.
Si recorremos listas de nuevas tecnologías (NT) preparadas en Singapur, México, Tokio, Boston o Buenos Aires,podemos sorprendernos de que algunas no tengan más de tres líneas, mientras que otras cubren varias páginas. Pero, si estudiamos estos listados, veremos que –más allá del detalle o de sus diferentes objetivos– la mayoría coincide en destacar tres NT: las biotecnologías (BT), las de los nuevos materiales (NM) y las tecnologías de la información (TI).
Esta síntesis deja de lado otras NT –como algunas ambientales, las energéticas o las espaciales– pero agrupa a las de mayor difusión y en las que se manifiestan con mayor claridad los efectos que más nos importan.
Las NT se alimenta de producción científica más avanzada, a la que se suele definir como la que constituye la frontera del conocimiento. Por eso también se habla de tecnologías de punta o, en inglés, hot technologies (tecnologías calientes).
En algunos países se destaca la importancia estratégica de estas tecnologías: se sostiene que si no se las domina será imposible, en el medio y largo plazo, dominar las manufacturas de producto que se aseguren una posición relevante en la competencia económica y comercial internacional. Por eso, se las suele denominar tecnologías estratégicas.
https://www.youtube.com/watch?v=Hh48w_CWK_M
https://www.youtube.com/watch?v=tWjIfcspqHo
https://www.youtube.com/watch?v=4IeeOICmVq4