Imprimir
Visto: 21301

 

    1. Desarrollo del software de abordo del satélite universitario UPMSat2

      Tutores: Juan A. de la Puente, Alejandro Alonso

      (Propuesta de seis TFG)

      El proyecto UPMSat-2 tiene por objetivo desarrollar un micro-satélite utilizable como plataforma de demostración tecnológica en órbita. Su lanzamiento está previsto provisionalmente para el cuarto trimestre de 2015. El proyecto esté dirigido por el Instituto "Ignacio da Riva" (IDR) de la UPM, con la participación de otros grupos universitarios y de algunas personas y empresas del sector aerospacial español. El trabajo del grupo STRAST (http://www.dit.upm.es/str) se centra en el desarrollo del software de los segmentos de vuelo y tierra de la misión.

       

      Actualmente, se está desarrollando el software embarcado del satélite. En esta línea de trabajo, se proponen trabajos fin de grado para el desarrollo de los subsistemas del satélite:

      • Supervisión de la plataforma
      • Gestión de telecomandos y telemetrías (comunicación con tierra)
      • Control de actitud
      • Gestión de experimentos.
      • Automatización de pruebas
      • Estación de tierra
    2. Desarrollo de un sistema de reconocimiento óptico de dígitos escritos a mano mediante redes neuronales

      Tutor: Juan Carlos Dueñas

      Objetivo: Desarrollar un prototipo de OCR (reconocimiento óptico de caracteres), para el reconocimiento de dígitos escritos a mano para usos académicos.

      Técnicas relacionadas: programación en Java, bibliotecas de redes neuronales, reconocimiento de caracteres.

      Procedimiento: búsqueda y selección de bibliotecas de redes neuronales en Java; construcción de prototipo evolutivo; entrenamiento y validación mediante pruebas con documentos académicos.

    3. Título: Análisis de agregadores de flujos de datos

      Juan Carlos Dueñas

      Objetivo: Desarrollar un componente Java capaz de inferir automáticamente la estructura sintáctica de líneas de texto y aplicarlo al análisis de entradas de datos de varias fuentes como redes sociales, servicios web, datos de monitorización, etc.

      Técnicas relacionadas: programación en Java, expresiones regulares, inferencia de estructura, análisis de datos.

      Procedimiento: estudio de expresiones regulares; estudio de sistemas de código abierto para inferencia de estructura, transformación y agregación de datos textuales; desarrollo de prototipo; validación mediante pruebas con datos de varios dominios de aplicación.

    4. Título: Análisis de técnicas de inyección de errores en sistemas distribuidos

      Juan Carlos Dueñas

      Objetivo: Identificar, describir y analizar las técnicas empleadas para la inyección de errores en sistemas en funcionamiento.

      Procedimiento: búsqueda bibliográfica sobre sistemas de inyección de errores; estudio y selección de software de código abierto para inyección de errores; análisis de funcionamiento mediante pruebas sobre sistemas virtualizados.

    5. Análisis de algoritmos de análisis visual y aprendizaje automático sobre datos masivos

      Tutor: Juan Carlos Dueñas

      Objetivo: Las técnicas de análisis visual y aprendizaje automático se utilizan cada vez más para identificar patrones de comportamiento o funcionamiento de sistemas complejos (como son las redes sociales, la infraestructura de funcionamiento de un centro de proceso de datos, etc) cuando el volumen de datos es grande y no es factible hacer el análisis de forma manual. Hay algunos sistemas de código abierto aplicables a bigData, que pueden utilizarse para tomar decisiones. El objetivo del TFG es aplicar los algoritmos de estos sistemas en varios casos de estudio y analizar cuáles son mejores dependiendo del dominio concreto de trabajo.

      Técnicas relacionadas: programación en Java/R/Python, redes neuronales, analítica visual, aprendizaje automático, JSON.

      Procedimiento: estudio de sistemas de análisis visual y aprendizaje automático de código abierto; identificación y elaboración de casos de estudio; desarrollo de prototipos de aplicación; validación y análisis de resultados.

    6. Desarrollo de un sistema de lanzamiento rápido de pruebas sobre entornos virtualizados

      Tutor: Juan Carlos Dueñas

      Objetivo: Cuando hay que probar un servicio sobre la Web y no se puede hacer sobre el sistema final funcionando, es necesario armar una maqueta virtualizada del sistema en un servidor interno de la organización o en la nube, arrancar el servicio con los datos adecuados, pasarle una batería de pruebas y recoger los resultados. Hacer estas operaciones a mano es costoso y proclive a errores. El objetivo del TFG es desarrollar un sistema software capaz de desplegar automáticamente un sistema distribuido sobre un entorno virtualizado y de ejecutar baterías de pruebas. 

      Técnicas relacionadas: hipervisores y sistemas de virtualización, sistemas de nubes, despliegue automático (puppet/chef/ansible), sistemas de pruebas e integración continua.

      Procedimiento: estudio de sistemas de gestión de imágenes virtuales; estudio de sistemas de despliegue automático; estudio de sistemas de pruebas e integración continua; desarrollo de un prototipo de integración de herramientas.

    7. Desarrollo de un configurador automático de software

      Tutor: Juan Carlos Dueñas

      Objetivo: Configurar un sistema web distribuido suele ser una tarea compleja que incluye calcular los parámetros de configuración de la máquina virtual, el servidor y las aplicaciones. El objetivo del TFG es construir un prototipo de un sistema de configuración automática de software para resolver este problema, lo que incluye: calcular los parámetros de configuración, identificar el componente software al que se aplican cada uno, definir el orden en el que se aplicarán los parámetros, realizar los cambios y comprobar los resultados.

      Técnicas relacionadas: maven, programación en Java, configuración de software, despliegue, puppet/chef/ansible.

    8. Aplicaciones de pago en movilidad persona-a-persona

      Tutor: Juan Carlos Yelmo

      El pago entre personas o persona-a-persona es la transferencia o pago de dinero (en cantidad limitada) entre personas sin la intervención de terceras partes. En el ámbito de las aplicaciones de Internet móvil se trata de las aplicaciones para Smartphone que permiten la transferencia de dinero segura entre usuarios sin la intervención de sitios web de terceros (en particular bancos o intermediarios de pagos). En este TFG, se realizará un análisis de alternativas técnicas y de negocio para el pago entre personas y se propondrán nuevos enfoques centrados en la innovación en la experiencia de usuario.

    9. Análisis de datos en redes sociales

      Tutor: Juan Carlos Yelmo

      Los usuarios de redes sociales y otros servicios en la red proporcionan de forma intencionada o inadvertida gran cantidad de información de carácter personal que puede utilizarse de manera individual para determinar hábitos sociales o de consumo, datos de localización y contacto, perfil de solvencia financiera, etc. Los datos también  pueden agregarse para determinar correlaciones que permiten deducir tendencias de negocio, impacto social de programas de televisión, difusión de epidemias, etc. A las potenciales ventajas de estas técnicas de investigación hay que contraponer los derechos de los ciudadanos en relación con la protección y control del uso de sus datos personales. En este trabajo se analizarán técnicas y herramientas de análisis de datos en redes sociales para determinar riesgos y oportunidades personales y de negocio.

    10. Modelos de usuario en redes sociales

      Tutor: Juan Carlos Yelmo

      El modelado de usuario es una disciplina que permite construir un modelo de datos de usuario a partir de información explícitamente aportada por el usuario y otros tipos de información derivados o inferidos de su interacción con sistemas, servicios y otros usuarios y que puede servir para predecir su comportamiento, deducir sus preferencias y adaptar automáticamente el modo de interacción con sistemas y servicios. Estos modelos se pueden usar de forma agregada para obtener información de interés social o económico. En este trabajo se analizarán los distintos modelos de usuario utilizados por las redes sociales más extendidas y su generalización para su compatibilidad, tratamiento conjunto e intercambio.

    11. Desktop en la nube para trabajadores en movilidad

      Tutor: Juan Carlos Yelmo

      A día de hoy disponemos de teléfonos inteligentes con gran potencia de procesamiento y redes de datos de amplia cobertura y velocidad de transmisión. Esto permite contemplar la posibilidad de utilizar smartphones y tablets como potentes entornos de trabajo para profesionales en movilidad gracias a técnicas como la virtualización y los servicios en nube.  De esta forma los trabajadores en movilidad pueden utilizar un único dispositivo para sus tareas profesionales y personales o utilizar varios terminales con sincronización de tareas y un mismo aspecto y modelo de interacción. En este trabajo se analizarán tecnologías de virtualización, de servicios en la nube y de adaptación de servicios y contenidos para proponer un enfoque de diseño de desktops profesionales para terminales personales móviles.

    12. Análisis de riesgo dinámico de redes ante intrusiones de seguridad

      Estado del arte de herramientas y algoritmos de análisis de riesgo dinámico en sistemas de la información. Evaluación de la usabilidad de la tecnología de análisis de riesgos en distintas arquitecturas de seguridad como sistemas proactivos y sistemas de respuestas a intrusiones. Instalación de un escenario virtual para la evaluación de resultados y rendimiento de los distintos sistemas mediante el uso de la herramienta de generación de ataques Kali Linux.

    13. Detección en tiempo real de conexión de dispositivos en red.

      Tutora: Verónica Mateos. Ponente: Víctor Villagrá

      Desarrollo de una sonda para la detección automática en tiempo real de los dispositivos que se conectan a una red de una organización. El mecanismo de detección debe de tener en cuenta el tipo de conexión que se ha llevado a cabo, en que subred de la organización se ha realizado y  el análisis del tipo de activo si es posible. La información recogida de los nuevos dispositivos encontrados en la red se actualizará una base de datos de forma dinámica.

    14. Análisis de la seguridad en dispositivos móviles.

      Tutora: Pilar Holgado. Ponente: Víctor Villagrá.

      Análisis del estado del arte de la seguridad en dispositivos móviles, incluyendo un catálogo de vulnerabilidades, ataques a los que está expuesto y posibles respuestas. Posibilidad de realización de pruebas reales utilizando la herramienta Kali Linux de generación de ataques en entornos móviles, poniendo en práctica el catálogo realizado.

    15. Biomimética aplicada a sistemas de detección, prevención y respuesta a intrusiones automático.

      Tutora: Pilar Holgado. Ponente: Víctor Villagrá.

      Análisis del estado del arte de diversos algoritmos de biomimética aplicada a AIRS (sistemas de respuestas a intrusiones automático). Aplicabilidad de los algoritmos a sistemas de auto-aprendizaje en respuestas a intrusiones y a la realización detección temprana de intrusiones para respuestas proactivas. Posibilidad de realización de pruebas en una maqueta de un AIRS dentro de un escenario virtualizado, lanzando ataques mediante la herramienta Kali Linux.

    16. Sistemas de Visualización Analítica de Eventos de Seguridad en Red

      Tutor: Víctor Villagrá

      Prospección tecnológica sobre las propuestas, desarrollos y soluciones existentes en el área general de Visual Analytics y, específicamente, en su aplicación a la visualización de incidentes de seguridad y ciberataques recibidos en Redes y Sistemas de comunicaciones propios. Identificación de Sistemas disponibles de código abierto y configuración y despliegue de un prototipo de herramienta de visualización.

    17. Modelado de tráfico en redes de comunicaciones basado en comportamiento de usuarios

      Tutor: Mario Cao Cueto. Ponente: Enrique Vázquez Gallo

      Hoy en día, existen muchas áreas de aplicación en las que se considera de gran interés disponer de herramientas de generación de tráfico que modelen de la manera más fidedigna posible el comportamiento real de los usuarios de una red de comunicaciones. Este tipo de herramientas puede servir, por ejemplo, para evaluar las prestaciones de un nuevo equipo  o una nueva red que se va a desplegar, estimar el impacto de un incremento de usuarios, la introducción de un cierto servicio, o de una nueva estrategia de tarificación, etc. El objetivo del proyecto es plantear la arquitectura  general de un sistema que permita el modelado de redes de comunicación y la simulación sobre ellos de flujos de tráfico que emulen el comportamiento de usuarios reales (tipos de aplicaciones utilizados, perfil de uso de las mismas, patrones de tráfico típicos de dichas aplicaciones, etc). Así mismo, se propone el uso de herramientas de software libre para la realización de una prueba de concepto del sistema.

    18. Analítica de datos en redes de comunicaciones

      Tutor: Mario Cao Cueto. Ponente: Enrique Vázquez Gallo

      El análisis de tráfico en las redes de comunicaciones (redes de telefonía móvil, Internet, redes sociales, etc.) puede proporcionar una información valiosísima no sólo para los propios operadores, sino también a empresas, organismos de la Administración, gestores de servicios públicos, etc. A modo de ejemplo, esta información se puede utilizar para la elección del emplazamiento más adecuado de un local comercial, optimizar la gestión del tráfico rodado en una ciudad, la planificación de sistemas de transporte, , etc. En este trabajo fin de grado se pretende explorar cuáles son las principales actividades y líneas de investigación que se están llevando a cabo actualmente en este área, así como la realización de un estudio práctico basado en trazas de red reales.

    19. Nuevas tecnologías para despliegue de servicios Smart-City innovadores

      Tutor: Joaquín Navarro Salmerón. Ponente: Manuel Alvarez-Campana

      En los últimos años, ha despertado gran interés el modelo Smart City basado en la utilización intensiva de las tecnologías de la información y comunicaciones para mejorar la gestión de los servicios públicos, así como facilitar nuevos servicios basados en una mayor interacción con el ciudadano.

      El objetivo del trabajo fin de grado es realizar un análisis del estado del arte sobre la aplicación de nuevas  tecnologías (comunicaciones móviles, tecnologías inalámbricas, redes de sensores, internet de las cosas, comunicaciones M2M, analítica de datos Big Data, etc) para el desarrollo de servicios Smart-City avanzados. Como caso práctico, se plantea el diseño de una plataforma experimental de servicios Smart City en la Ciudad Universitaria.

    20. Plataforma de orquestación de servicios en espacios inteligentes

      Tutor: Joaquín Navarro Salmerón. Ponente: Manuel Alvarez-Campana

      Se prevé que, gracias a la introducción de la Internet de las Cosas, en los próximos años se desarrollen nuevos modelos de interacción entre personas y objetos  que faciliten la creación de espacios inteligentes (la casa del futuro, la tienda del futuro, la oficina del futuro, el campus del futuro, la ciudad del futuro, …). Para que estos espacios sean realmente inteligentes y proporcionen a las personas experiencias interactivas útiles, no basta con dotar a los objetos de capacidades de comunicación. Es necesario disponer de mecanismos que permitan analizar y comprender los tipos de interacciones que se producen y su secuenciamento espacio-temporal, de modo que dicha información se pueda utilizar para el desarrollo de servicios o aplicaciones inteligentes. En este trabajo se propone el diseño de una plataforma software que facilite el desarrollo de servicios avanzados en entornos inteligentes. El núcleo central de la plataforma será un software de procesado y distribución de eventos asociados a interacciones persona objeto en el contexto de un espacio inteligente. Como caso de estudio, se propone su aplicación a un local comercial.

    21. Estrategias y políticas de ciberdefensa

      Tutor: Julio Berrocal Colmenarejo

      El trabajo analizará las iniciativas de diversos países y organizaciones internacionales sobre políticas y estrategias de ciberdefensa. Se trata de resumir cómo se está abordando, desde las instancias políticas, la protección del Territorio, las Infraestructuras Críticas y los Ciudadanos en materia de ciberseguridad, prestando especial atención a las nuevas organizaciones que se están desarrollando, así como a los recursos humanos y económicos asociados a la ciberdefensa.

    22. Distribución de vídeo en Internet sobre HTTP: protocolo DASH

      Tutora: Encarna Pastor

      Se trata de realizar experimentos con una nueva técnica de streaming adaptativo que permite a diferentes clientes reproducir vídeo de alta calidad en Internet. Se analizará el protocolo DASH (Dynamic Adaptive Streaming over HTTP) y se evaluarán herramientas de generación de contenidos asociadas con su funcionamiento, tanto en la parte cliente como servidor. Se llevarán a cabo pruebas y medidas de prestaciones en maquetas de laboratorio trabajando sobre Linux.

    23. Acceso a recursos multilingües desde Android

      Tutora: Encarna Pastor

      Se trata de crear aplicaciones para dispositivos Android que permitan compartir información multilingüe en el entorno de redes sociales diseñadas para el aprendizaje de idiomas.

    24. Desarrollo de un interfaz grafico para la herramienta Virtual Networks over Linux (VNX)

      Tutor: David Fernández Cambronero

      El trabajo consistirá en el desarrollo de un interfaz gráfico (GUI) para el manejo de escenarios virtuales basados en la herramienta de software libre VNX (vnx.dit.upm.es), que permite el despliegue de escenarios de red virtuales utilizados para pruebas de protocolos y aplicaciones y en prácticas de laboratorio de asignaturas como RDOR, CDPS o SEGU. La aplicación a desarrollar permitirá crear y gestionar gráficamente los escenarios de red, permitiendo definirlos, arrancarlos, abrir las consolas de las máquinas virtuales, ejecutar comandos sobre las mismas, etc. Para la realización de la aplicación no se partirá de cero; se reutilizará una versión incompleta de aplicación desarrollada en trabajos anteriores.

    25. Desarrollo de escenarios virtuales para prácticas de laboratorio sobre Software Defined Networks (SDN)

      Tutor: David Fernández Cambronero

      El trabajo consistirá en el diseño, desarrollo y prueba de escenarios basados en máquinas virtuales que permitan evaluar las nuevas arquitecturas de red basadas en software (Software Defined Networks o SDN). Se estudiarán los componentes básicos utilizados en las SDN: protocolo Openflow, conmutadores con soporte Openflow como OpenvSwitch, controladores de red como POX o Pyretic, etc., y se crearán escenarios virtuales que combinen esos componentes y permitan al alumno profundizar en el conocimiento de las SDNs. 

    26. Desarrollo de escenarios virtuales para prácticas de laboratorio sobre arquitecturas de servicios en la nube
      Tutor: David Fernández Cambronero
      Descripción: El trabajo consistirá en el diseño, desarrollo y prueba de escenarios basados en máquinas virtuales que implementen servicios en la nube como los descritos en la asignatura Centros de Datos y Provisión de Servicios (CDPS). Los escenarios harán énfasis en la configuración y prueba de soluciones actuales para dotar de fiabilidad y escalabilidad a las aplicaciones en la nube, así como la prueba de plataformas IaaS como OpenStack.

    27. Sistema de Diagnóstico basado en Redes Bayesianas para Fallos en Redes Definidas por Software

      Tutor: Álvaro Carrera / Carlos A. IglesiasDescripción
      El TFG tiene como objetivo desarrollar un escenario de Redes definidas por Software (SDN, Software Defined Networks) basado en la tecnología Openflow. En dicho escenario se realizará el diagnóstico de fallos en servicios de streaming de video u otros servicios. 
      Las principales fases del trabajo serán:
      1) Aprender los conceptos básicos de SDN y de OpenFlow.
      2) Definir un escenario de streaming , su topología, e implementarlo con un framework basado en Python.
      3) Aprender a aplicar redes bayesianas para diagnosticar fallos de servicio.
       
    28.  Desarrollo de un Observatorio de Noticias basado en Análisis de Sentimientos y Emociones
      Tutor: J. Fernando Sánchez Rada / Carlos A. Iglesias, Grupo de Sistemas Inteligentes (http://www.gsi.dit.upm.es)
      Descripción
      El TFG tiene como objetivo desarrollar una aplicación web que permita navegar por las noticias de cada día basándose en el sentimiento o emociones que contienen. En el proyecto se integrarán diversas herramientas para 1) recopilar información de sitios webs de periódicos; 2) realizar un análisis de sentimientos y emociones de dichas noticias, incluyendo extracción semántica de las entidades citadas; y 3) visualización y navegación de las noticias etiquetadas. El TFG se desarrollará principalmente en Python, aunque hará uso de otras tecnologías web. También requerirá aprender a usar de tecnologías semánticas como RDF y SPARQL.
       
    29. Desarrollo de un Asistente Virtual para un Sitio Web
      Tutor: Carlos A. Iglesias / Miguel Coronado, Grupo de Sistemas Inteligentes (http://www.gsi.dit.upm.es)
      Descripción
      El TFG tiene como objetivo el desarrollo de un asistente virtual para un sitio web de la escuela. El TFG se basará en un proyecto previo, en el que se ha desarrollado el sistema GsiBot, basado en Python.
      El proyecto se centrará en i) técnicas de recuperación de información con scraping de secciones estructuradas de la web y su traducción a formatos semánticos como RDF; 2) indexación de la información con
      motores de búsqueda basados en Solr,; 3) realización de diálogos basados en ChatScrip;  y  4) Pruebas y evaluación de resultados.
    30. Innovando en las ciudades inteligentes

      Tutor : Joaquín Salvachua

       Desarrollo de aplicaciones de Ciudades inteligentes mediante análisis de redes sociales usando la internet de las cosas dentro de una ciudad inteligente (SmartCity)  dentro de la plataforma FI-WARE (http://www.fi-ware.eu/ ) usando la plataforma FI-LAB  (http://www.fi-ware.eu/lab/ )

    31. Aplicación de colaboración P2P en HTML5 puro

       Tutor : Joaquín Salvachua

       Se pretende desarrollar una aplicación de colaboración P2P para los navegadores sin necesidad de ningún servidor. Se pretende que utilicen únicamente las facilidades de HTML5 y del estándar webRTC. Usará facilidades de el entorno Lynckia ( http://lyncia.com ).

    32. Aplicación innovadora colaborativa usando video webRTC

          Tutor : Joaquín Salvachua

      Se desarrollara una aplicación colaborativa usando redes sociales y colaboración distribuida usando JavaScript ( node.js ) usando el entorno Lynckia (http://lynckia.com/ ) para el uso de video basado en webRTC.

       
    33. Soluciones de nuevos paradigmas de big data para soluciones para innovación social

          Tutor : Joaquín Salvachua

      Se pretende ir más allá del paradigma de Map-Reduce para el análisis de Big Data usando diversas redes sociales como fuente para producir aplicaciones que cambien la sociedad actual. 

    34.  

      Desarrollo de una solución de doble virtualización para enseñanza de OpenStack

          Tutor : Joaquín Salvachua  

      Se pretende desarrollar una solución educativa usando OpenStack. Para ello se utilizará el sistema de doble virtualización basado en Dockers usando Vagrant  (VirtualBox) y el sistema de orquestación CHEF. Obteniendo un centro de calculo en la nube en una única máquina virtual.

       

    35. Análisis de herramientas de vigilancia tecnológica basadas en Web

      TIPO: Informe técnico

      DESCRIPCIÓN

      Justificación

      La rápida evolución de las tecnologías de la información y las comunicaciones hace necesario que todas las instituciones, públicas y privadas, sean capaces de tomar decisiones en torno a la evolución de las tecnologías y aplicaciones que inciden en su actividad.

      La forma de hacer estos análisis se ha llevado a cabo clásicamente mediante estudios de “vigilancia tecnológica” que han pretendido obtener información actualizada de diversas fuentes escritas y, a partir de ello, establecer tendencias tecnológicas que apoyen la toma de decisiones. Para ello, se contaba con fuentes de información relativamente bien conocidas de centros de investigación, fabricantes y grandes usuarios en todo el mundo que servían de referencia. La existencia de congresos, ferias, workshops etc. en los que se reunían y demostraban nuevos productos y aplicaciones constituían un elemento fundamental. A ello se unía también los análisis de patentes a través de las bases de datos de las oficinas nacionales e internacionales. Ello se complementa con “redes de observadores” que permiten obtener, y sobre todo filtrar la información disponible para que, al final, sea útil para la toma de decisiones.

      Sin que ninguno de esos procedimientos haya perdido valor, sí se han relativizado en las últimas dos décadas por dos elementos fundamentales: la emergencia de múltiples “start-ups” o “spin-offs” muy innovadoras que son capaces de poner en el mercado nuevos productos o tecnologías disruptivas a un ritmo muy superior al anterior, y la emergencia de múltiples herramientas basadas en Web que permiten buscar y acceder a información en volúmenes y tiempos de búsqueda inimaginables hace muy poco tiempo.

      Si bien estas nuevas fuentes parecen válidas para mejorar la vigilancia tecnológica, y de hecho lo son, también introducen problemas derivados del excesivo volumen de información y de la necesidad de obtener cierta capacidad de discernir la realidad de los deseos. Asegurar la fiabilidad y la calidad de la información que aparece en la Web para una función de vigilancia tecnológica es un factor esencial.

      Las propias herramientas en la Web pueden ayudar a esta función si se integran bien con el resto de las herramientas disponibles tradicionalmente para la vigilancia tecnológica: agregadores y meta-agregadores de contenidos, robots de búsqueda, índices de acceso a páginas web pre-seleccionadas, uso de redes sociales especializadas, “trending topics” tecnológicos, etc.

      Conocer estas herramientas Web potencialmente útiles para la función de vigilancia tecnológica y redefinir con ellas la forma en la que se lleva a cabo esa función es expresamente importante para que las entidades públicas y privadas puedan elaborar sus decisiones tecnológicas (función de vigilancia competitiva que toma en cuenta otros factores como el contexto socioeconómico) con la mayor seguridad posible.

      Objetivos concretos

      El Trabajo Fin de Grado propuesto pretende cubrir expresamente los siguientes objetivos:

      1.     Análisis comparativo de los métodos tradicionales de vigilancia tecnológica, sus fortalezas y debilidades y la forma en la que se ven (o verían) afectadas por la emergencia de un uso masivo de la Web.

      2.     Uso actual de las herramientas en la Web para vigilancia tecnológica: taxonomía, criterios de uso, relación con las herramientas tradicionales, seguimiento de factores críticos, redes de vigilancia, etc.

      3.     Propuesta de integración de un conjunto de herramientas web seleccionadas para crear un sistema de vigilancia tecnológica.

      4.     Aplicación al caso de vigilancia tecnológica en el sector de la impartición de cursos on-line.

      Metodología de trabajo

      Para cubrir los objetivos concretos indicados en el apartado anterior, el alumno deberá:

      1.     Realizar un estudio bibliográfico sobre las técnicas y herramientas empleadas para la vigilancia tecnológica con ayuda del tutor.

      2.     Estar en contacto con algunas empresas del sector TIC con las que la UPNM colabora para conocer la forma en la que realizan estas actividades.

      3.     Obtener información estructurada de ellas sobre los procedimientos empleados a fin de poder realizar un análisis comparado.

      4.     Revisar en la Web los métodos y herramientas empleados en el caso de los cursos on-line (con atención a los empleados por la propia UPM).

      5.     Elaborar un documento borrador a los dos meses y el documento final evaluable.

      Aspectos organizativos

      El tutor tiene su despacho en el Centro de Apoyo a la Innovación Tecnológica (CAIT) en el Campus de Montegancedo.

      El alumno dispondrá, durante el tiempo necesario para el desarrollo de su actividad de espacio y medios informáticos en el supuesto de que lo necesite.

      En función de la dedicación y expediente del alumno se considerará la concesión de una beca para la realización del TFG de 400 euros mensuales durante un periodo de cuatro meses (extensible a seis) adaptado al esfuerzo exigido para un TFG (325 horas).

       

      TUTOR: Gonzalo León

    36. TEMA PROPUESTO: Clasificación y metodologías de uso de los laboratorios de experiencias de usuario en el sector TIC

      TIPO: Informe técnico

      DESCRIPCIÓN

      Justificación

      La necesidad de acelerar los procesos de innovación tecnológica y concretamente, la maduración de los resultados de los proyectos de investigación para acercarlos al mercado es un factor clave reconocido ampliamente. Esta necesidad cobra una importancia fundamental en el caso de las TIC dada la velocidad en la que las ventanas de oportunidad se abren y cierran y la necesidad de responder a ellas por parte de las empresas del sector para seguir siendo competitivas.

      Para ello, se han identificado en la última década multitud de enfoques; algunos de ellos se han demostrado útiles mientras que otros han caído en el olvido al no obtenerse resultados prometedores. Uno de los más empleados durante la última década es el uso de “living labs” o “experience labs” capaces de acercar al usuario de forma controlada a espacios físico para realizar experiencias con muevas tecnologías o productos.

      Estas experiencias de usuario puedan medirse, evaluarse conjuntamente con los equipos de diseñadores y, en función de la realimentación obtenida, ajustar los procesos, productos, aplicaciones, productos o modelos de uso que se han experimentado para generar las soluciones finales que se introduzcan en el mercado con un grado mayor de confianza en su aceptación por usuarios desconocidos.

      La UPM, y concretamente la ETSI Telecomunicación ha comenzado la puesta en marcha de diversos living labs en determinadas áreas: e-health (situado en el Campus de Moncloa), “spaces of the future”, TV-3D y Banca del futuro (situados en el Centro de Apoyo a la Innovación Tecnológica en el Campus de Montegancedo). Con ellos se pretende también apoyar los procesos de maduración de las tecnologías generadas por los grupos de investigación en cooperación en muchos casos con empresas del sector.

      No obstante, la forma de utilizar los laboratorios de experiencias depende de su tipología y ésta a su vez de diversos factores que hacen imposible o muy difícil extrapolar la forma de uso de uno de ellos a los demás. Es necesario, por tanto, establecer criterios de uso (definición del as experiencias y formas de llevarlas a cabo) ligadas a cada tipo de laboratorio para que la experiencia sea aprovechable.

      Objetivos concretos

      El Trabajo Fin de Grado propuesto pretende cubrir expresamente los siguientes objetivos:

      1.     Elaborar unos criterios de clasificación de los “experience labs” utilizados actualmente en el sector de las TIC desde diversas perspectivas.

      2.     Analizar la forma de uso (métodos o metodologías de uso) empleadas actualmente, compararlas y obtener ventajas e inconvenientes de las mismas.

      3.     Obtener una valoración de los laboratorios de experiencias que la UPM dispone actualmente, colaborando con el personal de los mismos para generar la información necesaria.

      4.     Proponer formas de uso genéricas aplicables a cada uno de los casos disponibles en la UPM.

      Metodología de trabajo

      Para cubrir los objetivos concretos indicados en el apartado anterior, el alumno deberá:

      1.     Realizar un estudio bibliográfico sobre los living labs y experience labs existentes actualmente en el ámbito TIC (con atención preferente a la UE y a EEUU).

      2.     Estar en contacto con algunas empresas del sector TIC que disponen de laboratorios

      3.     Obtener información de los living labs de la UPM con el fin de caracterizarlos y analizar la posible compartición de métodos de uso y experiencias.

      4.     Presentar los resultados a los responsables de los mismos.

      5.     Elaborar un documento borrador a los dos meses y el documento final evaluable.

      Aspectos organizativos

      El tutor tiene su despacho en el Centro de Apoyo a la Innovación Tecnológica (CAIT) en el Campus de Montegancedo.

      El alumno dispondrá, durante el tiempo necesario para el desarrollo de su actividad de espacio y medios informáticos en el supuesto de que lo necesite.

      En función de la dedicación y expediente del alumno se considerará la concesión de una beca para la realización del TFG de 400 euros mensuales durante un periodo de cuatro meses (extensible a seis) adaptado al esfuerzo exigido para un TFG (325 horas).

       

    37. QoS en SDN: Estado del arte. Ejemplo de aplicación: Conmutador con prioridades y planificación WFQ.

      Tutor: Carlos Miguel Nieto

      Descripción:

      Las redes definidas por “software” (SDN) presentan un nuevo reto en el desarrollo de las arquitecturas de redes de datos en general y de Internet en particular, y presentan un gran potencial de resolución de algunos de los problemas tradicionales con que se enfrentan en la actualidad.

      Uno de los aspectos clave en la prestación de servicios es la provisión de calidad de servicio (QoS) en la que están implicados muchos niveles y componentes de la arquitectura de una red. Este trabajo tiene por objetivo estudiar las soluciones actualmente aplicadas para soportar QoS con SDN y elaborar un ejemplo/emulador simple de su aplicación para soportar conmutación  con prioridades y planificación de paquetes WFQ.

       

    38. Emulador de DTN en redes radio disruptivas.

      Tutor: Carlos Miguel Nieto

      Descripción:

      La transferencia de información de forma fiable y eficiente en redes radio caracterizadas por visibilidad discontinua en el tiempo requiere de soluciones distintas de las que se utilizan típicamente en Internet como el protocolo TCP. Redes radio de este tipo las podemos encontrar en las comunicaciones vehiculares (VANET: Vehicular Ad-hoc Networks) y redes de adquisición de datos con satélites no geoestacionarios. Una de las soluciones propuestas para resolver este problema es utilizar técnicas DTN (Disruption/Delay Tolerant Networking). Este trabajo tiene como objetivo desarrollar un emulador de una red con DTN que permita caracterizar y analizar su comportamiento; definiendo previamente el escenario de red y de tráfico que se incluirá en el emulador.

       

    39. Dimensionamiento de una red DVB-S2/DVB-RCS2 basada en el sistema O3b.

      Tutor: Carlos Miguel Nieto

      Descripción:

      En los últimos años se ha desarrollado un gran esfuerzo en la definición y estandarización de protocolos de acceso en redes por satélite, que optimizan la utilización de los recursos de comunicación existentes. Los nuevos estándares DVB-S2/DVB-RCS2 son un claro ejemplo de este esfuerzo. En paralelo, la industria está poniendo en servicios nuevos sistemas de comunicación por satélite que permiten el acceso a Internet a grandes zonas geográficas que de otra forma no sería posible. Un ejemplo de este tipo de sistemas es O3b (http://www.o3bnetworks.com/).

      Este trabajo tiene como objetivo dimensionar una red DVB-S2/DVB-RCS2 que utilice los recursos de comunicación del sistema O3b y comparar sus prestaciones con las de otros sistemas actuales de comunicación por satélite.

       

    40. Evaluación de prestaciones de sistemas de ficheros distribuidos sobre redes de área extensa

      Tutor: Francisco Javier Ruiz Piñar

      Descripción:

      Los sistemas de ficheros distribuidos (DFS) permiten el almacenamiento y compartición de de datos a sus usuarios, que acceden a la información almacenada en los servidores a través de una red. En un DFS la información puede estar replicada en varios servidores, lo que ofrece ventajas en términos de fiabilidad, disponibilidad  y mejora de las prestaciones en el acceso, pero requiere de mecanismos para el mantenimiento de la coherencia en la información replicada.

      Las características de la red de interconexión va a incidir en las prestaciones del DFS. En concreto, en este trabajo se van a estudiar las prestaciones de un DFS cuando la red de interconexión es de área extensa (WAN). Así, en este trabajo se pretende diseñar, partiendo de un conjunto de métricas de prestaciones ya definido, un banco de pruebas para la evaluación de DFS cuando los nodos se interconectan a través de una red con características de WAN. Este banco de pruebas se aplicará al estudio de las prestaciones de un DFS concreto, XtreemFS.

       

    41. Evaluación de prestaciones mediante simulación de una red inalámbrica mallada.

      Tutor: Francisco Javier Ruiz Piñar

      Descripción:

      Recientemente se ha aprobado la especificación IEEE 802.11s, que ofrece la posibilidad de construir redes inalámbricas malladas multisalto basadas en la tecnología IEEE 802.11. El objetivo de este proyecto es la caracterización de los usuarios, servicios y despliegue de red (basada en 802.11s) y, una vez hecha esta caracterización, la evaluación de las prestaciones del sistema mediante simulación. Se usará una herramienta de simulación de código abierto.

       

    42. Caracterización de prestaciones mediante simulación de una red WiFi empresarial.

      Tutor: Antonio Martínez Mas

      Descripción:

      En este trabajo se va a realizar un estudio mediante simulación de las prestaciones de una red WiFi en el contexto de una red WiFi empresarial. Se caracterizarán los usuarios de la red, los servicios a los que tienen acceso, y la arquitectura de red y su despliegue. Una vez definidos, se caracterizarán las prestaciones del sistema mediante simulación con una herramienta de simulación de código abierto.

       

    43. Servicios IP multicast en redes corporativas con tecnología SDN

      Tutor: Ángel Fernández del Campo

      Descripción:

                  Las redes definidas por “software” (SDN) presentan un nuevo reto en el diseño de las arquitecturas de redes de datos en general y de Internet en particular, y presentan un gran potencial de resolución de algunos de los problemas tradicionales con que se enfrentan en la actualidad.

      Su utilidad en centros de procesos de datos (CPDs) está actualmente bien asentada lo que no ocurre en redes de operador y en redes corporativas.

      En la línea de demostrar la utilidad de las SDNs en el entorno de las redes corporativas, este trabajo plantea un ejemplo de aplicación para la resolución de uno de esos problemas bien conocidos como es la implantación de servicios IP multicast.

      Con este objetivo, y empleando las potentes herramientas de emulación de redes SDN existentes, se plantea el diseño y la emulación de una arquitectura de red que sirva para proporcionar servicios de IP multicast en redes corporativas basadas en SDN en las que la infraestructura de la corporación incluye el equipamiento necesario para soportarlo pero no así los servicios de los operadores sobre los que la red corporativa se tiene que apoyar.

       

    44. Servicios de distribución de contenidos multimedia en redes corporativas con tecnología SDN.

      Tutor: Ángel Fernández del Campo

      Descripción:

      Las redes definidas por “software” (SDN) presentan un nuevo reto en el diseño de las arquitecturas de redes de datos en general y de Internet en particular, y presentan un gran potencial de resolución de algunos de los problemas tradicionales con que se enfrentan en la actualidad.

      Su utilidad en centros de procesos de datos (CPDs) está actualmente bien asentada lo que no ocurre en redes de operador y en redes corporativas.

      En la línea de demostrar la utilidad de las SDNs en el entorno de las redes corporativas, este trabajo plantea un ejemplo de aplicación para la resolución de uno de esos problemas bien conocidos como es la distribución de contenidos multimedia en la corporación que actualmente se viene realizando con arquitecturas de proxies que trabajan a nivel de aplicación por lo que no se pueden beneficiar de las facilidades y servicios de la propia red.

      Con este objetivo, y empleando las potentes herramientas de emulación de redes SDN existentes, se plantea el diseño y la emulación de una arquitectura de red que sirva para proporcionar servicios de distribución de contenidos multimedia en redes corporativas basadas en SDN en las que la infraestructura de la corporación incluye equipamiento de proxies de nivel de aplicación y, posiblemente, aceleradores de transmisión de contenidos a nivel de transporte.

    45. Almacenamiento y distribución de vídeo con recepción mixta unicast/multicast.

      Tutor: Luis Bellido Triana

       

      Breve descripción:

      Se trata de aprovechar  las técnicas de streaming adaptativo para reproducir vídeo de alta calidad en Internet en un entorno de operador de telecomunicaciones en el que se distribuye vídeo en multicast con el apoyo de acceso al vídeo mediante HTTP para recuperación de errores,sincronización, etc. Se analizará el protocolo DASH (Dynamic Adaptive Streaming over HTTP), y las necesidades de almacenamiento en cachés de la red de distribución y de los terminales para obtener la mejor calidad posible para distribución de vídeo en diferido y también para difusión en directo. Se llevarán a cabo pruebas y medidas de prestaciones en maquetas de laboratorio trabajando sobre Linux.

       

    46. Recepción de vídeo mixta unicast/multicast en dispositivos móviles.

      Tutor: Luis Bellido Triana

       

      Breve descripción:

      Se trabajará en la creación de software para clientes de  streaming adaptativo, que permitan la recepción de vídeo de alta calidad en un entorno de operador de telecomunicaciones en el que se distribuye vídeo en multicast con el apoyo de acceso al vídeo mediante HTTP para recuperación de errores,sincronización, etc. Se analizará el protocolo DASH (Dynamic Adaptive Streaming over HTTP), y los clientes disponibles para su recepción para integrar la capacidad de recepción mixta unicast y multicast.

       

    47.  Almacén multilingüe de recursos accesible mediante REST

      Tutor: Luis Bellido Triana

      Breve descripción:

      Se trabajará en una plataforma que permite el almacenamiento y búsqueda de recursos en un entorno de redes sociales diseñadas para el aprendizaje de idiomas. Para facilitar la integración en distintas aplicaciones tanto a través de navegadores web como apps en dispositivos móviles, se facilitará el acceso a las principales funcionalidades a través de una API tipo REST.

    48.   Herramientas de desarrollo software basadas en servidores web de modelos

      Tutor: Miguel A. de Miguel Cabello

      Breve descripción

      Este es un trabajo a realizar en el contexto de proyecto COM (http://www.centeropenmiddleware.com), que es un proyecto en el colaboran la UPM y el grupo Santander. En el banco Santander está muy extendido el desarrollo de software basado en modelos, pero tradicionalmente esos desarrollos se hacen en IDEs como eclipse. Los últimos años se ha extendido el desarrollo de los modelos en servidores web basados en entornos como GWT (Google Web Toolkit). En este proyecto queremos explorar soluciones para poder aplicar esos nuevos métodos. En este proyecto se estudiaría como realizar la edición de modelos empleados en el grupo Santander en este nuevo tipo de aproximaciones. Cabe la posibilidad que este proyecto tenga un soporte económico en su desarrollo