Mostrar el registro sencillo del ítem

dc.contributor.authorMiranda Alcaraz, Francisco 
dc.date.accessioned2021-05-20T08:54:10Z
dc.date.available2021-05-20T08:54:10Z
dc.date.issued2021-04
dc.description.abstract[ESP] Con este Trabajo de Fin de Estudios se pretende realizar un estudio global de corte científico sobre las técnicas de percepción, detección y localización, utilizadas en la industria de los vehículos autónomos. Se incidirá en mayor medida sobre aquellos sistemas que, combinados, permitan una sencilla y correcta captación del entorno del automóvil, como los sensores de imagen (comúnmente conocidos como cámaras) y los sensores de detección por láser pulsado (LiDAR). Además, se aplicarán estos conocimientos técnicos para llevar a cabo simulaciones de los sensores del prototipo “Cloud Incubator Car”, desarrollado por la Universidad Politécnica de Cartagena. Este trabajo surge debido al creciente interés, tanto propio como de la industria, por la implementación de los vehículos autónomos en nuestras calles. Este hecho podría suponer no solo un aumento significativo de la seguridad vial (eliminando de raíz el factor accidental humano) sino también una reducción de emisiones contaminantes y tiempos de transporte. Actualmente, el número de empresas que apuestan por este tipo de tecnología va en aumento. Algunas, como Tesla, propias del sector de la automoción, ya diseñan y manufacturan sus propios vehículos autónomos. Otras, como Apple, Intel o AMD, propias del sector de la informática, la electrónica y los dispositivos móviles, han dado el salto recientemente a la creación de algoritmos y microprocesadores destinados de forma exclusiva a la conducción autónoma. Teniendo estos datos en mente, se pretende estudiar las diferentes técnicas de fusión de datos y hacer uso de la herramienta “Automated Driving Toolbox™”, incluida en el entorno de programación de MATLAB®, para simular distintas situaciones de conducción que puedan surgir durante las pruebas en campo de un vehículo autónomo real. Asimismo, se modelará la fusión de sensores correspondiente al prototipo de la UPCT como una combinación de distintos tipos de cámaras y sensores LiDAR. La intención de este documento es, en primer lugar, ser una fuente de información básica y actualizada sobre el estado del arte en materia de conducción autónoma; en segundo lugar, actuar como base bibliográfica para la simulación y modelado de fusión sensorial aplicada a los vehículos autónomos mediante MATLAB®; y, por último, servir de potencial punto de partida para proyectos futuros. [ENG] The aim of this Final Degree Project is to carry out a scientific global study on perception, detection and location techniques used in the autonomous vehicle industry. Furthermore, this project will go more deeply in those systems which, combined, allow for a simple capture of the car environment, such as image sensors (cameras) or pulsed laser detection sensors (LiDAR). In addition, this technical knowledge will be applied to make different road simulations based on the “Cloud Incubator Car”, an autonomous prototype developed by the Polytechnic University of Cartagena. This work arises due to the growing interest, both mine and from the industry, for the implementation of autonomous vehicles in our streets. Not only could this mean a significant increase in road safety (rooting out the accidental human factor) but also a reduction of polluting emissions and transport times. Nowadays, the number of companies betting on this type of technology is increasing. Some, such as Tesla, have already manufactured their own autonomous vehicles. Others, like Apple, Intel, or AMD, that come from the computer, electronics and mobile devices sector, have recently made the leap to creating algorithms and microprocessors exclusively for autonomous driving. Bearing this data in mind, it is intended to study different data fusion techniques and make use of the ‘Automated Driving Toolbox™’, as part of the MATLAB® programming environment, to simulate different driving situations that may happen during actual driving field tests. The sensory fusion corresponding to the prototype vehicle will be modelled as a combination of different types of cameras and one LiDAR sensor. The intention of this document is, firstly, to be a source of basic and updated information on the state of art in autonomous driving; secondly, to act as a bibliographic basis for the simulation of sensory fusion applied to driving using MATLAB®; and eventually, serve as a potential starting point for future projects.es_ES
dc.formatapplication/pdfes_ES
dc.language.isospaes_ES
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 España*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/*
dc.title.alternativeCamera & LiDAR sensory fusion for multi-target tracking. Application to autonomous driving vehicleses_ES
dc.titleFusión sensorial Cámara y LiDAR para el seguimiento de múltiples objetivos. Aplicación a vehículos de conducción autónomaes_ES
dc.typeinfo:eu-repo/semantics/bachelorThesises_ES
dc.subject.otherLenguajes y Sistemas Informáticoses_ES
dc.contributor.advisorNavarro Lorente, Pedro Javier 
dc.subjectTecnología de la comunicaciónes_ES
dc.subjectCommunication technologyes_ES
dc.identifier.urihttp://hdl.handle.net/10317/9388
dc.description.centroEscuela Técnica Superior de Ingeniería Industriales_ES
dc.contributor.departmentTecnologías de la Información y las Comunicacioneses_ES
dc.rights.accessRightsinfo:eu-repo/semantics/openAccesses
dc.description.universityUniversidad Politécnica de Cartagenaes_ES
dc.subject.unesco3325 Tecnología de las Telecomunicacioneses_ES


Ficheros en el ítem

untranslated

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Atribución-NoComercial-SinDerivadas 3.0 España
Excepto si se señala otra cosa, la licencia del ítem se describe como Atribución-NoComercial-SinDerivadas 3.0 España