Mostrar el registro sencillo del ítem

dc.contributor.advisorParedes Quintero, José Luis
dc.contributor.authorDapena R., Maria D.
dc.contributor.otherJosé Luis, Paredes
dc.contributor.otherViloria Manzanilla, Francisco Javier
dc.contributor.otherAltamiranda, Junior Amilcar
dc.date.accessioned2024-05-21T14:00:43Z
dc.date.available2024-05-21T14:00:43Z
dc.date.issued2018-06
dc.identifier.urihttp://bdigital2.ula.ve:8080/xmlui/654321/14204
dc.descriptionCota : Q325.5 D3en_US
dc.descriptionIngeniero Electricistaen_US
dc.descriptionBiblioteca : B.I.A.C.I. (siglas: euct)en_US
dc.description.abstractEl algoritmo de clasificación K vecinos más cercanos es posiblemente uno de los más antiguos y simples métodos de clasificación supervisada. Sin embargo, tiene un costo computacional muy alto ya que debe determinar la distancia Euclidiana entre la muestra a clasificar y todo el conjunto de entrenamiento. Existen tres técnicas para acelerar este algoritmo: reducción de cómputos, reducción del número de dimensión del conjunto de prueba y de entrenamiento y compresión del conjunto de entrenamiento. La última técnica presenta como ventaja un bajo uso de memoria, además de poder ser utilizado en grandes conjuntos de entrenamientos con pocas dimensiones. Se han realizado varios trabajos con el fin de realizar la compresión del conjunto de entrenamiento, unos proponen la selección de las muestras que mejor definan el conjunto de entrenamiento inicial eliminando así la redundancia, otros proponen comprimir los datos a algunos grupos centrales. En este trabajo se utiliza un enfoque estocástico de la compresión del conjunto de entrenamiento, para ello se desarrollaron los algoritmos necesarios y para evaluar su rendimiento, se probaron en cuatro bases de datos diferentes, tres de imágenes y una de audio. La técnica implementada permite obtener, dado un conjunto inicial de datos para el entrenamiento, un conjunto de entrenamiento mucho más pequeño de vectores optimizados. La compresión estocástica se basa en el método matemático del gradiente descendente, este método tiene propiedades atractivas como poder seleccionar la relación de compresión, permitiendo un conjunto de entrenamiento mucho más pequeño que aumenta la velocidad de clasificación drásticamente. De los resultados de las simulaciones realizadas con las bases de datos de prueba se obtuvo, en la mayoría de los casos, un error que está por debajo 5 % de muestras mal clasificadas, incluso para relaciones de compresión tan bajas como del 1 %. Adicionalmente, la combinación de este algoritmo junto con otros como Large Margin Nearest Neighbor para la reducción de dimensiones acelera al algoritmo por encima de los valores esperados, demostrando que el método es compatible con métodos ya diseñados.en_US
dc.format.extentxi, 64 hojas : ilustracionesen_US
dc.language.isoesen_US
dc.publisherUniversidad de Los Andes, Facultad de Ingeniería, Escuela de Ingeniería Eléctricaen_US
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/3.0/ve/en_US
dc.subjectAlgoritmos de clasificaciónen_US
dc.subjectK vecinos más cercanosen_US
dc.subjectAceleración de algoritmos de clasificaciónen_US
dc.subjectCompresión del conjunto de entrenamientoen_US
dc.titleAceleración del algoritmo de clasificación K Vecinos más Cercanos a través de la compresión de set de entrenamientoen_US
dc.typeThesisen_US


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

http://creativecommons.org/licenses/by-nc-sa/3.0/ve/
Excepto si se señala otra cosa, la licencia del ítem se describe como http://creativecommons.org/licenses/by-nc-sa/3.0/ve/