%0 Journal Article %A Bueno Crespo, Andrés %T Aprendizaje máquina multitarea mediante edición de datos y algoritmos de aprendizaje extremo %D 2013 %U http://hdl.handle.net/10317/4027 %X [SPA] Cuando los seres humanos nos enfrentamos a un nuevo concepto que queremos aprender, nuestro cerebro no lo hace de forma aislada, sino que utiliza todo el conocimiento previamente aprendido para ayudarse en este nuevo aprendizaje. Además, nuestro cerebro es capaz de aislar lo que no va a beneficiarnos y a utilizar lo que realmente nos va ser útil, esto lo hace muy bien y de forma inconsciente. Sin embargo, cuando una maquina de aprendizaje es entrenada para resolver una determinada tarea, por ejemplo, a diagnosticar una determinada enfermedad, normalmente esta máquina aprende en solitario sólo con los datos disponibles sobre esa enfermedad. Hay una metodología llamada Aprendizaje Multitarea, MTL (“Multi-Task Learning”), que se fundamenta en la idea inicialmente expuesta. De esta forma, la tarea a resolver (tarea principal) se aprende conjuntamente con otras tareas relacionadas (tareas secundarias), se produce una transferencia de información entre ellas que puede ser ventajosa para el aprendizaje de la primera. Sin embargo, en problemas reales, es difícil encontrar tareas que estén relacionadas o incluso, encontrándolas, es sumamente complejo determinar el grado en que se va a realizar esa ayuda, ya que una tarea puede contener información que puede ayudar pero también perjudicar. Esta Tesis incorpora una nueva metodología que permite obtener tareas secundarias relacionadas con la que se pretende aprender (tarea principal). La segunda contribución de este trabajo se enmarca también dentro del MTL, en este caso, diseñando de forma automática una máquina MTL que elimine todos aquellos factores que perjudiquen o no beneficien al aprendizaje de la tarea principal. Esta arquitectura es única y además se obtiene sin necesidad de metodologías de ensayo/error que aumentan la complejidad de cálculo. [ENG] When humans faced with a new concept that we want to learn, our brain does not work in isolation, but rather uses all previously learned knowledge to assist in this new learning. In addition, our brain is able to isolate what is not going to benefit and use what will be really useful, it does very well and unconsciously. However, when learning machines are trained for solving an specific problem, for example, to diagnose a particular disease, usually this machine learns only the available data on this disease. There is a methodology called Multi-Task Learning (MTL), which is based on the idea initially exposed. Thus, the task to be solved (main task) is learned together with other related tasks (secondary tasks), by producing a transfer of information among them which may be advantageous for learning of the main one. But in real problems, it is extremely difficult to determine how the simultaneous learning with other related tasks affects to the performance of the main one, because a task can contain information that can be helpful (i.e. the main task learning is improved) or harmful (i.e. the main task learning gets worse). This PhD. Thesis, proposes a newmethodology that allows to obtain related secondary tasks in order to be helpful to themain one. The second contribution of thiswork is also included in theMTL framework: the complete automatically removing those factors which harm or no benefit the learning of the main task. This architecture is also unique and it is obtainedwithout the traditional test/fail methodologies which usually increase the computational complexity. %K Teoría de la Señal y Comunicaciones %K Aprendizaje máquina %K Aprendizaje multitarea %K Inteligencia artificial %K Multitask learning %K Inteligencia Artificial %~ GOEDOC, SUB GOETTINGEN