Mostrar el registro sencillo del ítem

dc.contributor.authorMartínez García, Juan Antonio 
dc.date.accessioned2020-07-16T00:06:33Z
dc.date.available2020-07-16T00:06:33Z
dc.date.issued2019
dc.description.abstract[SPA] El objetivo de un clasificador es decidir, con el menor error posible, a qué clase pertenece una muestra o patrón. En esta tesis, se presenta una nueva interpretación de los discriminantes lineales, en la que son descritos en términos de situaciones de tangencia disjunta (Disjoint Tangent Configurations, DTC) establecidas entre las superficies elipsoidales de nivel de probabilidad resultantes de la caracterización de las distribuciones de las clases de los datos por sus dos primeros momentos, las medias y las matrices de covarianza. Éste es un marco común que permite el diseño y análisis de distintos discriminantes conocidos a través de una correspondencia analítica con otros métodos: el método paramétrico, que consiste en la minimización de una función de error en un espacio proyectado unidimensional para determinar los parámetros de la expresión matemática del discriminante, e.g., el discriminante lineal de Fisher, el basado en matrices Scatter o el de Bayes, cuya expresión explícita es aún desconocida; y el método de optimización convexa, que consiste en acotar y minimizar la probabilidad de clasificación errónea, e.g., la solución del Hiperplano de Decisión Probabilística Minimax (Minimax Probabilistic Decision Hyperplane, MPDH) proporcionada por la Máquina de Probabilidad Minimax (Minimax Probability Machine, MPM), que minimiza el peor caso o máximo riesgo sobre todas las distribuciones posibles caracterizadas por los mismos primeros dos momentos, lo que es adecuado cuando las distribuciones de las clases de los datos son desconocidas o no reflejan las probabilidades a priori reales. También permite el diseño de nuevos discriminantes, como el Quasi-Bayes, que es una aproximación geométrica del Bayes óptimo con una precisión similar y menor coste computacional, una ventaja general de DTC ya que es un método no iterativo. En la segunda parte de la tesis, las versiones no lineales de los discriminantes lineales DTC se construyen usando Redes de Funciones de Base Radial (Radial Basis Function Networks, RBFN) con núcleos Gaussianos pre-entrenados mediante técnicas de cuantificación vectorial. De esta manera, se transforma el espacio de datos de entrada en un espacio superior con mayor separabilidad lineal en el que se resuelve el problema de clasificación con un discriminante DTC lineal. El discriminante DTC no lineal resultante mantiene las propiedades del discriminante DTC lineal original y permite resolver problemas más complejos con clases que no son linealmente separables. Los experimentos muestran que los DTCs obtienen buenos resultados de precisión con un coste computacional competitivo en términos de tiempo de entrenamiento, debido a que es una solución no iterativa y a la ausencia de parámetros de entrenamiento que necesiten ser ajustados, y de requisitos de memoria en las versiones no lineales, en comparación con las redes de núcleos entrenadas globalmente.es_ES
dc.description.abstract[ENG] The aim of a classifier is to decide, with the least possible error, which class a sample or pattern belongs to. In this thesis, a new interpretation of linear discriminants is presented, in which they are described in terms of Disjoint Tangent Configurations (DTC) es tablished between the ellipsoidal probability-level surfaces resulting from the characterization of the data class distributions by their two first moments, the means and the covariance matrices. This is a common framework that allows the design and analysis of several well-known discriminants through an analytical correspondence with other methods: the parametric method, consisting of the minimization of an error function in a one-dimensional projected space in order to determine the parameters of the mathematical expression of the discriminants, e.g., the Fisher, Scatter-based or the Bayes linear discriminant, whose explicit expression is sill unknown; and the minimax convex optimization method, consisting of bounding and minimizing the misclassification probability, e.g., the solution of the Minimax Probabilistic Decision Hyperplane (MPDH) provided by the Minimax Probability Machine (MPM), that minimizes the worst case or maximum risk over all possible distributions characterized with the same first two moments, being suitable when the data class distributions are unknown or do not reflect the actual prior probabilities. It also allows the design of new discriminants, such as a complete Fisher discriminant with an independent term or Quasi-Bayes, which is a geometrical approximation to optimal Bayes with similar accuracy and lower computational cost, a general DTC advantage since it is a non-iterative method. In the second part of the thesis, the non-linear versions of the DTC linear discriminants are built using Radial Basis Function Networks RBFNs (RBFNs) with pre-trained Gaussian kernels by vector quantization Pre-trained Gaussian kernels techniques. Thus, the input data space is transformed into a higher space with higher linear separability in which is solved the classification problem with a DTC linear discriminant. The resulting non-linear DTC discriminant maintains the properties of the original DTC linear discriminant and allows to solve more complex problems with classes that are not linearly separable. Experiments demonstrate that the DTC approach leads to good DTC: good accuracy and comaccuracy results with a competitive computational cost in terms of petitive computatinal cost training time, because it is a non iterative solution without training parameters that need to be adjusted, and memory requirements, compared to globally-trained kernel networks.en
dc.formatapplication/pdfes_ES
dc.language.isospaes_ES
dc.publisherJuan Antonio Martínez Garcíaes_ES
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 España*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/es/*
dc.title.alternativeMachine learning based on disjoint tangent configurationses_ES
dc.titleAprendizaje máquina basado en situaciones de tangencia disjuntaes_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES
dc.subject.otherTeoría de la Señal y las Comunicacioneses_ES
dc.contributor.advisorSancho Gómez, José Luis 
dc.date.submitted2019-10-22
dc.subjectInteligencia artificiales_ES
dc.subjectSistemas adaptativos y de aprendizajees_ES
dc.subjectPredicciónes_ES
dc.subjectEstadísticaes_ES
dc.subjectTeoría de la decisiónes_ES
dc.subjectArtificial intelligencees_ES
dc.subjectLearning and adaptive systemses_ES
dc.subjectPredictiones_ES
dc.subjectStatisticses_ES
dc.subjectDecision theoryes_ES
dc.identifier.urihttp://hdl.handle.net/10317/8658
dc.description.centroEscuela Internacional de Doctorado de la Universidad Politécnica de Cartagenaes_ES
dc.contributor.departmentTecnologías de la Información y las Comunicacioneses_ES
dc.identifier.doi10.31428/10317/8658
dc.rights.accessRightsinfo:eu-repo/semantics/embargoedAccesses_ES
dc.description.universityUniversidad Politécnica de Cartagenaes_ES
dc.subject.unesco1203.04 Inteligencia Artificiales_ES
dc.description.programadoctoradoPrograma de Doctorado en Tecnologías de la Información y las Comunicaciones por la Universidad Politécnica de Cartagenaes_ES


Ficheros en el ítem

untranslated

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Atribución-NoComercial-SinDerivadas 3.0 España
Excepto si se señala otra cosa, la licencia del ítem se describe como Atribución-NoComercial-SinDerivadas 3.0 España