Ciencias Exactas y Ciencias de la Salud
Permanent URI for this collectionhttps://hdl.handle.net/11285/551039
Pertenecen a esta colección Tesis y Trabajos de grado de las Maestrías correspondientes a las Escuelas de Ingeniería y Ciencias así como a Medicina y Ciencias de la Salud.
Browse
Search Results
- Sistema de seguimiento visual para la rehabilitación(Instituto Tecnológico y de Estudios Superiores de Monterrey, 2007-12-01) Azcárate Hernández, Gildardo; Sucar Succar, Luis Enríque; Frausto Solís, Juan; ; tolmquevedo; ITESM-Campus CuernavacaAvances en el campo de visión computacional están generando cambios novedosos y radicales en la forma de interactuar con la computadora. Recientemente el seguimiento visual del movimiento humano ha incrementado la atención por parte de los investigadores. El interés en este campo es motivado por su amplia gama de aplicaciones, incluyendo el análisis del rendimiento atlético y clínico, interfaces humano-computadora, sistemas de vigilancia, captura del movimiento humano para juegos virtuales y animación. Dentro del análisis clínico, ha surgido la inquietud de desarrollar sistemas que detecten el progreso de rehabilitación en pacientes con atrofias cerebrales. Tradicionalmente, las personas que han sobrevivido a un derrame cerebral toman fisioterapia con la ayuda de un fisioterapeuta que diagnostica si se está llevando la rehabilitación apropiadamente. Sin embargo, debido a los altos costos de las terapias y a los periodos prolongados de los ejercicios de rehabilitación, los pacientes no reciben suficiente tratamiento. En esta tesis, se propone un sistema de seguimiento visual para apoyar el programa de rehabilitación para pacientes que han sufrido un derrame cerebral. El sistema de seguimiento se probó en dos escenarios diferentes: a) Interfaz visual para la terapia utilizando simulación, y b) Análisis del movimiento para evaluar el avance en la rehabilitación. En el primer escenario se realiza el seguimiento tridimensional de la mano de un individuo para interacuar con el software T-WREX, el cual permite interactuar con un ambiente virtual moviendo su brazo dañado, llevando a cabo diferentes tareas diseñadas para imitar situaciones de la vida real orientadas a la rehabilitación. En el segundo escenario, el sistema sigue el movimiento del brazo del paciente utilizando cintas de color adheridas al hombro, codo y muñeca, como marcas distintivas. Las marcas son capturadas por dos cámaras de video, y se estima la posición 3D de cada una de ellas para poder reconstruir el brazo en una estructura de alambre 3D. Se analiza el movimiento del brazo por medio de la extracción de características de movimiento relevantes, como los ángulos entre el brazo y el antebrazo. Para medir el grado de avance del movimiento del brazo en el proceso de rehabilitación, la información de movimiento se parametriza en un modelo probabilista, empleando los Modelos Ocultos de Markov, y se compara con el movimiento del brazo de una persona sana, previamente almacenado. La distancia (semejanza) entre ambas trayectorias se puede medir utilizando una modificación de la distancia de Kullback - Leibler. El sistema fue probado en pacientes reales, y el análisis del movimiento del brazo fue satisfactorio.
- Administrador de Políticas de Seguridad Organizacionales(Instituto Tecnológico y de Estudios Superiores de Monterrey, 01/12/2005) García Gamboa, Karen A.; Dr. RaÚl Monroy Borja; Dr. José de JesÚs Vázquez GómezLa información es el principal recurso de una organización, preservar su integridad se ha convertido en una tarea fundamental necesaria para lograr los objetivos de la empresa que normalmente van enfocados a su crecimiento tanto económico como social. La seguridad y en especial, las políticas de seguridad están tomando mayor importancia en la empresa ya que representan un mecanismo de protección de sus recursos principalmente de la información. Las políticas de seguridad en general se definen como normás o lineamientos (de carácter obligatorio) necesarios en la protección de recursos. No existen estándares que deban seguirse para la descripción de una política, sin embargo es importante que éstas sean fáciles de entender y aplicables. Hablando específicamente de las políticas de seguridad de información, éstas apoyan la protección, control y dirección de los recursos de información de la organización (TI). Escribir políticas de seguridad no es una tarea sencilla debido a que debe garantizarse el correcto funcionamiento de un sitio que está expuesto a una serie de amenazas, eso trae como consecuencias que muchas empresas aÚn no cuenten con un documento de políticas de seguridad. Por otro lado, solo algunas de las organizaciones que han diseñado sus políticas de seguridad, llevan a cabo una adecuada administración de éstas, mientras que el resto de ellas no aseguran su validez y beneficio dentro de la empresa. De ahí surge la necesidad de evaluar cada una de las políticas escritas evitando contradicciones entre ellas mismás, ya que este hecho representaría vulnerabilidades latentes expuestas a diversas amenazas. En la actualidad no existen herramientas que ayuden o faciliten la captura de políticas de seguridad organizacionales. Sin embargo, esta investigación incluye un capítulo en el que se estudian algunos lenguajes utilizados para especificar políticas de seguridad en aplicaciones, y sobre los que se extrajeron algunas ideas para diseñar un prototipo capaz de administrar políticas de seguridad. El trabajo principal de esta tesis consiste en el diseño de una herramienta administradora de políticas de seguridad, las principales características de esta herramienta incluyen: 1) una interfaz gráfica utilizada para capturar políticas de seguridad mediante el uso de ventanas que surgen conforme se va construyendo una política, 2) un traductor de políticas que formaliza éstas en lógica de primer orden con sintaxis de Otter (demostrador automático de teoremás de primer orden), y 3) abre una consola gráfica de Otter para manipular su uso ya que éste trabaja mediante comandos del sistema operativo. El prototipo fue desarrollado en lenguaje java para no limitar la herramienta a una plataforma en especial. Las secciones 4, 5 y 6 explican el trabajo realizado en la construcción del prototipo administrador de políticas de seguridad. El prototipo administrador de seguridad que se presenta en este documento pretende Únicamente capturar y validar políticas de seguridad, no concretar la aplicación de las mismás en una organización (implementación de las políticas capturadas).
- Diseño y Validación de un Protocolo de Autenticación en un Sistema de Manufactura(Instituto Tecnológico y de Estudios Superiores de Monterrey, 01/10/2004) Meza Carmona, Eduardo; Dr. Oscar Hernández Pérez; Dr. Luis ángel Trejo Rodríguez; Dr. Raúl Monroy BorjaDesde la antigüedad, las personas han desarrollado diversas técnicas para comunicarse a grandes distancias. Las primeras civilizaciones se establecían en lugares cercanos, por ejemplo varias tribus en el mismo valle, donde las comunicaciones escritas y verbales eran transmitidas rápidamente. Cuando las tribus empezaron a establecerse en zonas más amplias fue necesario crear otros métodos para establecer la comunicación con tribus en lugares más distantes. Como ejemplos de estos métodos se pueden citar las señales de humo y palomás mensajeras [29].Cuando Samuel Morse inventó el telégrafo en 1838 [30], se inició una nueva era en la comunicaciones, se inició la era de las comunicaciones eléctricas. En los años siguientes, el desarrollo de los sistemás de comunicación que empleaban señales eléctricas se hicieron más sofisticados lo que originó la invención de otros sistemás de comunicación como el teléfono, la radio, la televisión, el radar y los enlaces de microondas.Casi un siglo después de la invención del telégrafo se empiezan a utilizar las primeras computadoras, en la década de los 50´s. éstos eran sistemás aislados que ocupaban cuartos enteros en donde solo personal muy especializado las podía utilizar. No existía una comunicación interactiva entre los usuarios y las computadoras, todo el trabajo tenía que ser capturado en tarjetas perforadas y de esta manera se introducían a los sistemás de cómputo para realizar el trabajo por lotes, en donde el resultado era obtenido a través de una impresora [30].A pesar de las dificultades que tenía el manejo de las primeras computadoras éstas eran muy Útiles, ya que permitían realizar operaciones complejas (matemáticas en la mayoría de los casos) y/o operaciones repetitivas de manera más rápida y libre de errores.En la década de los años 60´s, con los avances en los sistemás de transmisión de datos así como en las máquinas para escribir información, se desarrollaron terminales tontas 1. Estas terminales eran utilizadas para comunicarse con el sistema de procesamiento central, en donde los usuarios escribían los comandos, éstos eran enviados al sistema de procesamiento y se mostraban los resultados en la pantalla de la terminal. Por este motivo surge la necesidad de crear las primeras 1 Computadora que no tenía procesador ni memoria, sino solamente un monitor y teclado así como un dispositivo de comunicación que servía como enlace con el sistema de procesamiento y recursos. 8 redes para conectar varias terminales tontas a un sistema de cómputo que se encargaba de procesar las instrucciones [30].En los años 80´s, con la aparición de los circuitos integrados, la tecnología mejoró los circuitos que se encargaban del procesamiento de la información y de las instrucciones lo que permitió que las computadoras empezaran a reducir su tamaño y se pudieran desarrollar las primeras computadoras personales. Las primeras organizaciones en tener una computadora personal fueron las escuelas y, de manera especial, los investigadores que trabajaban en las escuelas. Debido a la necesidad que tenían los investigadores de intercambiar información y resultados que se obtenían de los proyectos en los que trabajaban para que otros investigadores analizaran estos resultados, surge la necesidad de realizar una interconexión de los sistemás de cómputo entre organizaciones.Las instituciones comerciales también empezaron a hacer uso de las computadoras a finales de los años 70´s ya que les permitió realizar operaciones repetitivas de manera más rápida. Como ejemplo se cita el área de contabilidad, donde se puede sistematizar los cálculos de una nómina de manera más rápida y eficiente sin los errores que ocurrían cuando no se utilizaba la computadora. Otra ejemplo de los sistemás de cómputo dentro de las empresas es en el manejo de información de inventarios, donde con la ayuda de las computadoras se pueden generar los reportes de existencias sin necesidad de contar cada uno de los artículos existentes en el almacén.Uno de los aportes principales al desarrollo de las redes fue realizada por la agencia gubernamental de investigación de Estados Unidos ARPA (Advanced Research Project Agency) a principios de la década de los 60´s. El objetivo principal de esta agencia era desarrollar un sistema militar de comunicaciones en red que permitiera conectar varias computadoras de manera descentralizada de forma que siguiera funcionando aÚn en el caso de que una o varias de las computadoras fueran destruidas durante un ataque enemigo. Uno de los responsables del proyecto, el Dr. J. C. R. Licklider [28], fue también uno de los principales promotores para lograr que la tecnología de comunicaciones fuera utilizada para conectar a las universidades dentro de los EUA, por lo que a principios de los años 70´s ya se habían interconectado varias universidades.Con la difusión y utilización de las redes de computadoras dentro del entorno de una institución o entre instituciones, se hizo necesario proteger los recursos que se almacenaban en los sistemás computacionales de la institución. Para este fin, se desarrollaron procedimientos de autenticación de usuarios para asegurar que sólo los usuarios válidos utilizarán los recursos informáticos dentro de la institución.Como un ejemplo donde se ve claramente lo que es la autenticación de un usuario para proteger la confidencial de los recursos es en el correo electrónico (donde sus recursos son los mensajes que están almacenados en el servidor de correo electrónico). En este ejemplo el usuario que tiene una conexión, mediante una red institucional o Internet, con el servidor de correo electrónico que le pide un nombre de usuario y una palabra clave necesarios para comprobar la autenticidad del usuario permitiéndole o denegándole el acceso a los mensajes almacenados. 9 En el ejemplo del correo electrónico se puede apreciar la forma de realizar intercambio de información para validar que el usuario es el correcto. Los elementos de seguridad utilizados son débiles debido a que en el correo electrónico no se maneja el cifrado de la cuenta ni de la palabra clave que se transmiten entre el servidor del correo y el usuario. Adicionalmente, las contraseñas son escogidas por los mismos usuarios y éstos tienden a utilizar palabras sencillas de recordar (como puede ser el nombre de una persona, un cumpleaños o información sencilla de recordar), lo que las hace fácil de adivinar. Lo ideal sería escoger una contraseña con un mínimo de 8 caracteres de longitud, que mezcle las letras mayÚsculas, minÚsculas y nÚmeros lo que las hace prácticamente imposibles de adivinar.El principal entorno en donde es utilizada la autenticación de usuarios es en las organizaciones ya que son las más interesadas en que la información que almacenan en sus servidores se mantenga confidencial a las personas que no pertenecen a la organización. Incluso dentro de la misma organización pueden existir niveles jerárquicos para establecer qué nivel tiene derecho a qué información, segÚn las políticas establecidas dentro de la empresa. Es en este entorno interno de la organización donde es necesario establecer protocolos de seguridad robustos que incluyan elementos seguros para realizar el intercambio de la información de autenticación y la validación del usuario, tanto para identificar a las personas que trabajan dentro de ello como, en especial, para las personas que por motivos de trabajo necesitan hacer uso de la información desde un sitio remoto que se encuentre fuera de la seguridad física de la empresa.Para realizar la autenticación de los usuarios existen varios métodos que van desde la tupla hasta procedimientos más sofisticados de seguridad que incluyen criptografía o pruebas biométricas.
- Heurísticas en la Optimización de Máquinas de Soporte Vectorial(Instituto Tecnológico y de Estudios Superiores de Monterrey, 01/09/2004) García Gamboa, Angel L.; Dr. Neil Hernández Gress; Dr. Jaime Mora Vargas; Dr. Miguel González MendozaGracias a los avances tecnológicos presentes en la actualidad se ha impulsado el estudio de aplicaciones y técnicas de clasificación de datos. El problema de clasificación de datos surge a partir de la necesidad de categorizar información presente en la vida real como caras, texto, enfermedades, mÚsica, etc. Actualmente existen diversas comunidades de investigación que trabajan en el desarrollo de aplicaciones que requieren clasificación de datos convirtiéndose en una de las principales áreas de estudio para la inteligencia artificial.
- Generación de árboles Filogenéticos por Medio de Algoritmos Genéticos de Función Objetivo Híbrido(Instituto Tecnológico y de Estudios Superiores de Monterrey, 2002-01-09) Watanabe Sakurazawa, Ryosuke L. A.; Ramos, Fernando; Vallejo Clemente, Edgar; Cueva, Víctor de la; ITESMEste documento propone un nuevo método para el estudio filogenético. Este método propuesto utiliza algoritmos genéticos con una fusión objetivo híbrida para la evaluación y generación de árboles filogenéticos. Para la generación de los árboles filogenéticos, el algoritmo genético, crea una población de árboles aleatoria cuyas hojas o nodos son diferentes. Cada elemento (árbol) se evalÚa mediante una función objetivo híbrida, la cual combina dos criterios normalizados: máxima parsimonia y matriz de distancia (DMM) que darán su valor de aptitud a cada elemento, posteriormente se realizan las operaciones básicas del algoritmo genético como son la selección, cruza y mutación. La hipótesis en la que se fundamenta este trabajo de investigación es que las formas de evaluación existentes para generar árboles filogenéticos no siempre son el mejor modelo para generar el árbol. y que la evaluación híbrida es una forma de aprovechar las fortalezas y las minimizar debilidades de ambos métodos. Para validar su desempeño, se realizaron pruebas con cadenas ADN de HIV (virus del SIDA) y con cadenas de proteínas de E-Coli (Escherichia Coli). Estos árboles se comprobaron con los obtenidos con los métodos de Matriz de Distancia y Máxima Parsimonia. También los resultados se interpretaron y evaluaron por expertos de (UNAM) IBT (Instituto de Biotecnología de la Universidad Autónoma Nacional de México). Los resultados experimentales obtenidos indican que el método propuesto es capaz de inducir relaciones filogenéticas significativas dentro de una misma especie.
- Planificación de tareas flexibles para sistemas de tiempo real(Instituto Tecnológico y de Estudios Superiores de Monterrey, 1998-08-01) Aparicio Mayorga, Jorge Eduardo; Valdivia Beutelspacher, Roberto; Sucar Succar, Luis Enríque; tolmquevedo; Tecnológico de Monterrey, Campus MorelosEn la práctica, los sistemas de tiempo real están compuestos por una mezcla de tareas periódicas, aperiódicas y esporádicas cuyos plazos de respuesta son muy importantes, ya que no cumplirlos podría ser causa de resultados catastróficos, tales como grandes perjuicios económicos o la pérdida de vidas humanas. En una sobrecarga, es decir, cuando el tiempo disponible para la ejecución de las tareas del sistema no es suficiente para cumplir los plazos de respuesta de todas las tareas, algunas de ellas invariablemente perderán estos plazos. La computación flexible es una manera de mantener la estabilidad de un sistema durante una sobrecarga. En general, la computación flexible se refiere a aquellos procedimientos de solución de problemas que permiten un compromiso paulatino entre la calidad de los resultados y la asignación de recursos, tales como tiempo, memoria e información. Para aquellas aplicaciones que toleran el uso de resultados aproximados, utilizando este enfoque se puede construir un sistema de tiempo real como un conjunto de tareas flexibles. Éstas se definen como aquellas tareas que pueden ser interrumpidas antes de ser terminadas totalmente produciendo resultados aproximados, pero útiles, cuya calidad (medida a través de funciones de error) depende del tiempo que hayan permanecido en ejecución. En esta tesis se desarrolla un método de Planificación de Tareas periódicas, aperiódicas y esporádicas Flexibles para un sistema de un solo procesador que permite mantener la estabilidad del sistema en situaciones de sobrecarga, el cual se denominó método PTF. Este método es producto de la integración y adaptación de las ideas de dos algoritmos de planificación de tareas flexibles existentes: LAT y NORA. El método PTF fue evaluado de manera empírica, mediante un ambiente de simulación construido exprofeso. La simulación permitió observar el comportamiento del método PTF en diferentes circunstancias y comparar los planes producidos por él contra otros cuatro algoritmos de planificación, para los cuales también se construyeron ambientes de simulación. Los resultados de la simulación indican que el método PTF es un algoritmo de planificación de tareas flexibles que, en presencia de sobrecargas, produce niveles de error menores en la ejecución de las tareas flexibles que los algoritmos contra los que fue comparado.
- Simulación de un Conmutador ATM(Instituto Tecnológico y de Estudios Superiores de Monterrey, 01/05/1998) Mena Angelito, Pedro; Dr. Rogerio Enríquez Caldera; M.C. Carlos Felipe García Hernández; M.C. Francisco González Huerta; Dr. Roberto Valdivia Beutelspacher; ITESMSe presenta al Modo de Transferencia Asincrono (ATM, Asynchronous Transfer Mode) como un estándar de comunicación en desarrollo importante a finales de siglo, con el objetivo de proveer el transporte de datos digitales (audio, video y texto) multimedios a altas velocidades. Se analizan algunos de los problemas más importantes aÚn no resueltos para el estándar, especialmente aquellos relativos al control de la congestión y multicasting. Se examina la técnica SONET/SDH como medio de transporte que utilizará ATM en el modelo de referencia de la red digital de servicios integrados de banda amplia (B-ISDN, Broadband Integrated Services Digital Network). Se describe el modelo de referencia B-ISDN y la integración de ATM dentro del modelo como la tecnología de conmutación y transmisión elegida para los servicios ofrecidos por B-ISDN. Debido a la libertad que aÚn concede el estándar incompleto de ATM en cuanto a la especificación de la implementación de redes de este tipo, cuestiones tales como detalles de estrategias de almacenamiento temporal (buffering) utilizadas para tratar la contención de celdas que experimenta un conmutador y políticas de admisión de llamadas, que caracterizan a un conmutador ATM, no tienen una representación a través de valores simples o símbolos con un significado universal. En esta tesis se diseña un modelo de un conmutador ATM basado en el modelo de un conmutador con buffers asociados a los puertos de entrada, con una velocidad de conmutación mayor que la velocidad del enlace, detallando el proceso y describiendo sus consideraciones fundamentales. Se realiza una simulación de dicho modelo mediante un lenguaje de especificación de protocolos denominado SMURPH. Se presentan y analizan los resultados obtenidos de dicha simulación, los cuales, comparados con los obtenidos para el modelo de conmutador con buffers asociados a los puertos de salida, muestran que el modelo sujeto de esta tesis es una buena alternativa para su implementación en hardware.
- Redes Neuronales. Una Aplicación para la Predicción de Ozono(Instituto Tecnológico y de Estudios Superiores de Monterrey, 1994-01-05) Smith Pérez, Raúl; Ruiz Suárez, Carlos; Ruiz Ascencio, José; Morales Manzanares, Eduardo; ITESMEste trabajo presenta una investigación y un análisis sobre las capacidades y limitaciones prácticas de dos modelos neuronales convencionales: el modelo de retropropagación y la memoria asociativa bidireccional (BAM). El fundamento teórico para cada modelo antecede a una aplicación general sobre contaminación ambiental para el pronóstico del nivel de ozono en la ciudad de México. Se realizaron pruebas sobre cada uno de estos modelos, especialmente sobre la BAM. La información necesaria provino de las cinco principales estaciones del sistema RAMA (red automática de monitoreo ambiental). Las comparaciones y los resultados de estas pruebas son presentados, además de las conclusiones sobre cada uno de los modelos