Aprendizaje máquina basado en situaciones de tangencia disjunta
Director/a
Sancho Gómez, José LuisEscuela/Centro
Escuela Internacional de Doctorado de la Universidad Politécnica de CartagenaUniversidad
Universidad Politécnica de CartagenaPrograma de doctorado
Programa de Doctorado en Tecnologías de la Información y las Comunicaciones por la Universidad Politécnica de CartagenaFecha de lectura
2019-10-22Fecha de publicación
2019Editorial
Juan Antonio Martínez GarcíaPalabras clave
Inteligencia artificialSistemas adaptativos y de aprendizaje
Predicción
Estadística
Teoría de la decisión
Artificial intelligence
Learning and adaptive systems
Prediction
Statistics
Decision theory
Resumen
[SPA] El objetivo de un clasificador es decidir, con el menor error posible, a qué clase pertenece una muestra o patrón. En esta tesis, se presenta una nueva interpretación de los discriminantes lineales, en la que son descritos en términos de situaciones de tangencia disjunta (Disjoint Tangent Configurations, DTC) establecidas entre las superficies elipsoidales de nivel de probabilidad resultantes de la caracterización de las distribuciones de las clases de los datos por sus dos primeros momentos, las medias y las matrices de covarianza. Éste es un marco común que permite el diseño y análisis de distintos discriminantes conocidos a través de una correspondencia analítica con otros métodos: el método paramétrico, que consiste en la minimización de una función de error en un espacio proyectado unidimensional para determinar los parámetros de la expresión matemática del discriminante, e.g., el discriminante lineal de Fisher, el basado en matrices Scatter o el de Bayes, cuya expresión ... [ENG] The aim of a classifier is to decide, with the least possible error, which class a sample or pattern belongs to. In this thesis, a new interpretation of linear discriminants is presented, in which they are described in terms of Disjoint Tangent Configurations (DTC) es tablished between the ellipsoidal probability-level surfaces resulting from the characterization of the data class distributions by their two first moments, the means and the covariance matrices. This is a common framework that allows the design and analysis of several well-known discriminants through an analytical correspondence with other methods: the parametric method, consisting of the minimization of an error function in a one-dimensional projected space in order to determine the parameters of the mathematical expression of the discriminants, e.g., the Fisher, Scatter-based or the Bayes linear discriminant, whose explicit expression is sill unknown; and the minimax convex optimization method, consisting of ...
Colecciones
- Tesis [533]
El ítem tiene asociados los siguientes ficheros de licencia:
Redes sociales