Los ambientes virtuales inmersivos son espacios tridimensionales, reales o imaginarios, generados por computadora, con los que el usuario puede interactuar y que le producen la sensación de estar dentro de un ambiente o lugar. La sensación de presencia se genera cuando se integran varios elementos, como son una rápida generación de varias imágenes de alta calidad por segundo, desplegadas en un área que cubra un amplio grado de campo de visión del usuario, y que resultan cuando el usuario interactúa al moverse o modificar el espacio y sonido espacial relacionado con el ambiente al que se da vida. Para que la interacción en estos ambientes sea de la forma mas natural posible, se recurre al uso de dispositivos especiales que nos permiten una manipulación natural con el ambiente, como pueden ser el uso de guantes, sistemas de rastreo de movimiento, o interfaces de entrada muy específicos, estrechamente vinculados con el ambiente en que se trabaja. Por ejemplo, en simuladores de manejo se utilizan volantes y palancas de velocidades, o en el caso de simulación para cirugía se utilizan simuladores de los instrumentos, según la cirugía en cuestión.
Una de las ventajas de poder utilizar ambientes virtuales inmersivos es accesar a espacios inaccesibles o con riesgo, y poder modificar los eventos que ahí ocurren. Por ejemplo: recorrer libremente ambientes arquitectónicos ya desaparecidos; diseñar edificios, casas , autos u otros objetos, teniendo una proyección en escala real y realizar modificaciones antes de pasar a la construcción real. Recrear ambientes para entrenamiento que serían muy costosos o no son posibles, por ejemplo, para el adiestramiento en casos de siniestros, en los ambientes virtuales se pueden generar diversas situaciones de riesgo y el usuario puede interactuar con respecto a el, permitiendo tener fallas, lo que en una simulación real podría ser peligroso o de alto costo.
Diferencias con ambientes virtuales no inmersivos
Existen varios sistemas tridimensionales interactivos como son los creados con VRML (Virtual Reality Modeling Language), con alto grado de interactividad y fácil acceso desde páginas web. Estos mundos virtuales se les conoce como no inmersivos, ya que carecen de la sensación de presencia, la cual se logra con el uso de hardware especial de despliegue, dispositivos, audio espacial y la generación de espacios tridimensionales con escala 1 a 1 con el mundo real.
Ventajas de los ambientes inmersivos sobre los no inmersivos
Las ventajas se producen al tener capacidades con las que no se cuentan en los sistemas no inmersivos. La libertad y amplitud de movimiento en la escena generada, las sensaciones que se producen con el sonido espacial y la retroalimentación táctil, los mayores detalles al visualizar y la escala a la que se proyectan los ambientes. Por ejemplo, en los casos de manufactura y arquitectura, el poder analizar los objetos en escala real, permite tomar decisiones, realizar y observar las modificaciones en el espacio del objeto. En aplicaciones como las de psicología o entrenamiento tener un despliegue que cubre la mayor parte de campo de visión del usuario, crea la sensación de estar dentro, generando mayor impacto en las sensaciones generadas, que son importantes en esta clase de aplicaciones. En el área de visualización de datos, el análisis de estructuras complejas se amplía cuano el usuario puede moverse entre los datos que está visualizando, lo que permite analizar y relacionar resultados desde otros puntos de vista.
Tomado de: http://www.oei.es/noticias/spip.php?article823
La Realidad Aumentada es una técnica mediante la cual los usuarios pueden percibir la realidad superponiendo a los objetos reales modelos virtuales enriquecidos.
El observador puede trabajar y examinar objetos 3D reales mientras recibe información adicional sobre estos objetos o sobre la tarea que se está realizando. De este modo, la RA permite al usuario permanecer en contacto con su entorno de trabajo, mientras su foco de atención no está en el ordenador, sino en el mundo real. El papel que juega el ordenador es el de asistir y mejorar las relaciones e interacciones entre las personas y el mundo real.
En los sistemas de RV el usuario está completamente inmerso en un mundo artificial y no hay manera de interactuar con objetos del mundo real. En contraposición, en la realidad aumentada los usuarios pueden interactuar mezclando el mundo real y virtual de una forma natural.
Así, la diferencia entre RV y RA está en el tratamiento que hacen del mundo real. La RV sumerge al usuario dentro de un mundo virtual que reemplaza completamente al mundo real exterior, mientras que la RA deja ver al usuario el mundo real a su alrededor y aumenta la visión que éste tiene de su entorno mediante la superposición o composición de los objetos 3D virtuales. Idealmente, esto daría al usuario la ilusión que los objetos de los mundos real y virtual coexisten.
En definitiva, se podría decir que los sistemas de RA llevan el ordenador al entorno de trabajo real del usuario, mientras que los sistemas de RV intentan llevar el mundo real al interior del ordenador.
La Realidad Aumentada es utilizable en múltiples aplicaciones.
Pueden organizarse reuniones en las cuales los asistentes vayan equipados con gafas especiales conectadas al ordenador, de forma que todos visualicen un mismo mundo virtual y al mismo tiempo puedan verse entre ellos.
El cirujano puede recibir información en sus gafas mientras manipula al paciente.
Este tipo de sistemas lo hemos podido apreciar en películas de ciencia ficción. ¿Recuerdas los pilotos que a través de sus gafas ven la realidad y superpuesta a ella información acerca de distancia, altura...?
La Inteligencia Artificial comenzó como el resultado de la investigación en psicología cognitiva y lógica matemática. Se ha enfocado sobre la explicación del trabajo mental y construcción de algoritmos de solución a problemas de propósito general. Punto de vista que favorece la abstracción y la generalidad.
La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden "pensar".
La idea de construir una máquina que pueda ejecutar tareas percibidas como requerimientos de inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica, suministro de asesoría experta en diversos temas.
Es así como los sistemas de administración de base de datos cada vez más sofisticados, la estructura de datos y el desarrollo de algoritmos de inserción, borrado y locación de datos, así como el intento de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.
Trabajos teóricos fundamentales fueron el desarrollo de algoritmos matemáticos por Warren McCullock y Walter Pitts, en 1943, necesarios para posibilitar el trabajo de clasificación, o funcionamiento en sentido general, de una red neuronal. En 1949 Donald Hebb desarrolló un algoritmo deaprendizaje para dichas redes neuronales creando, en conjunto con los trabajos de McCullock y Pitts, la escuela creacionista. Esta escuela se considera hoy como el origen de la Inteligencia Artificial, sin embargo se trató poco por muchos años, dando paso al razonamiento simbólico basado en reglas deproducción, lo que se conoce como sistemas expertos.
I. Nociones y Antecedentes Históricos de Inteligencia Artificial.
Definiciones sobre Inteligencia Artificial:
· Disciplina científico-técnica que trata de crear sistemas artificiales capaces de comportamientos que, de ser realizados por seres humanos, se diría que requieren inteligencia.
· Estudio de los mecanismos de la inteligencia y las tecnologías que lo sustentan. (Newell, 91)
· Intento de reproducir (modelar) la manera en que las personas identifican, estructuran y resuelven problemas difíciles (Pople, 84)
· Son ciertas herramientas de programación, entendiendo por herramientas:
·
o Lenguajes: LISP, PROLOG
o Entornos de desarrollo: shells
o Arquitecturas de alto nivel: nodo y arco, sistemas de producciones
Desde sus comienzos hasta la actualidad, la Inteligencia Artificial ha tenido que hacer frente a una serie de problemas:
· Los computadores no pueden manejar (no contienen) verdaderos significados.
· Los computadores no tienen autoconciencia (emociones, sociabilidad, etc.).
· Un computador sólo puede hacer aquello para lo que está programado.
· Las máquinas no pueden pensar realmente.
En 1843, Lady Ada Augusta Byron, patrocinadora de Charles Babbage planteó el asunto de si la máquina de Babbage podía "pensar".
Los primeros problemas que se trató de resolver fueron puzzles, juegos de ajedrez, traducción de textos a otro idioma.
Durante la II Guerra Mundial Norbert Wiener y John Von Neumann establecieron los principios de la cibernética en relación con la realización de decisiones complejas y control de funciones en máquinas.
La teoría de la retroalimentación en mecanismos, como por ejemplo un termostato que regula la temperatura en una casa, tuvo mucha influencia. Esto aún no era propiamente Inteligencia Artificial. Se hizo mucho en traducciones (Andrew Booth y Warren Weaver), lo que sembró la semilla hacia el entendimiento del lenguaje natural.
En el año 1955 Herbert Simon, el físico Allen Newell y J.C. Shaw, programador de la RAND Corp. y compañero de Newell, desarrolla el primer lenguaje de programación orientado a la resolución de problemas de la Inteligencia Artificial, el IPL-11. Un año más tarde estos tres científicos desarrollan el primer programa de Inteligencia Artificial al que llamaron Logic Theorist, el cual era capaz de demostrar teoremas matemáticos, representando cada problema como un modelo de árbol, en el que se seguían ramas en busca de la solución correcta, que resultó crucial. Este programa demostró 38 de los 52 teoremas del segundo capítulo de Principia Mathematica de Russel y Whitehead.
En 1956, con la ahora famosa conferencia de Dartmouth, organizada por John McCarthy y en la cual se utilizó el nombre de inteligencia artificial para este nuevo campo, se separó la Inteligencia Artificial de la ciencia del computador, como tal. Se estableció como conclusión fundamental la posibilidad de simular inteligencia humana en una máquina.
En 1957 Newell y Simon continúan su trabajo con el desarrollo del General Problems Solver (GPS). GPS era un sistema orientado a la resolución de problemas; a diferencia del Logic Theorist, el cual se orientó a la demostración de teoremas matemáticos, GPS no estaba programado para resolver problemas de un determinado tipo, razón a la cual debe su nombre. Resuelve una gran cantidad de problemas de sentido común, como una extensión del principio de retroalimentación de Wiener.
Diversos centros de investigación se establecieron, entre los más relevantes están, la Universidad Carnegie Mellon, el Massachusetts Institute of Technologie (MIT), encabezado por Marvin Minsky, la Universidad de Standford e IBM. Los temas fundamentales eran el desarrollo de heurísticas y el aprendizaje de máquinas.
En 1957 McCarthy desarrolló el lenguaje LISP. La IBM contrató un equipo para la investigación en esa área y el gobierno de USA aportó dinero al MIT también para investigación en 1963.
A finales de los años 50 y comienzos de la década del 60 se desarrolla un programa orientado a la lectura de oraciones en inglés y la extracción de conclusiones a partir de su interpretación, al cual su autor, Robert K. Lindsay, denomina "Sad Sam". Este podía leer oraciones del tipo "Jim es hermano de John" y "La madre de Jim es Mary", a partir de ella el sistema concluía que Mary debía ser también la madre de John. Este sistema representó un enorme paso de avance en la simulación de inteligencia humana por una máquina, pues era capaz de tomar una pieza de información, interpretarla, relacionarla con información anteriormente almacenada, analizarla y sacar conclusiones lógicas.
En el mismo período de tiempo hay trabajos importantes de Herbert Gelernter, de IBM, quien desarrolla un "Demostrador Automático de Teoremas de la Geometría", Alex Bernstein desarrolla un programa para el juego de ajedrez que se considera el antecedente para "Deep Blue".
En 1961 se desarrolla SAINT (Simbolic Automatic INTegrator) por James Slagle el cual se orienta a la demostración simbólica en el área del álgebra.
En 1964 Bertrand Raphael construye el sistema SIR (Semantic Information Retrieval) el cual era capaz de comprender oraciones en inglés.
Características de la Inteligencia Artificial.
1. Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.
Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su afinidad con la Inteligencia Artificial.
2. El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).
3. El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.
4. Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.
La Inteligencia Artificial incluye varios campos de desarrollo tales como: la robótica, usada principalmente en el campo industrial; comprensión de lenguajes y traducción; visión en máquinas que distinguen formas y que se usan en líneas de ensamblaje; reconocimiento de palabras y aprendizaje de máquinas; sistemas computacionales expertos.
Los sistemas expertos, que reproducen el comportamiento humano en un estrecho ámbito del conocimiento, son programas tan variados como los que diagnostican infecciones en la sangre e indican un tratamiento, los que interpretan datos sismológicos en exploración geológica y los que configuran complejos equipos de alta tecnología.
Tales tareas reducen costos, reducen riesgos en la manipulación humana en áreas peligrosas, mejoran el desempeño del personal inexperto, y mejoran el control de calidad sobre todo en el ámbito comercial.
Tomado de: http://www.monografias.com/trabajos12/inteartf/inteartf2.shtml#caract
Tomado de: http://www.santiagokoval.com/tag/inteligencia-artificial/
Tomado de: http://www.youtube.com/watch?v=Q5bMm-19iNQ
Tomado de: http://www.youtube.com/watch?v=hUk7VhJC-xw