3. Aprendizaje Inductivo

Metodos de Aprendizaje Empírico cuya generalización se fundamenta en Aplicar Conocimiento Independiente del Dominio de Aplicación.

Creación de Sistemas Autónomos con muy poco Conocimiento Inicial que fueran capaces de Aprender sobre una gran Diversidad de Cuestiones.

3.1. Objetivo

Establecer los Rasgos Comunes de una Serie de Ejemplos de un Concepto Desconocido, de tal forma que la Descripción obtenida no abarque el resto de los ejemplos que no sean Casos Concretos de dicho Concepto.

La Presencia de un Ejemplo Negativo dentro del Concepto es debida a la Presencia de Ruido en el Conjunto de Datos Observados.

Suposiciones Adicionales

  1. Los Ejemplos pueden ser Suministrados por una Fuente Externa (Aprendizaje Supervisado), o proporcionados por el propio Aprendiz de Conceptos (Aprendizajes No Supervisado)

  2. Las Instancias pueden ser Consideradas por la Estrategia de una en una (Aprendizaje Incremental), o todas a la vez (Aprendizaje No Incremental)

3.2. Tarea

Encontrar una Hipótesis h que:

3.3. Descripción

Ejemplos presentados mediante pares (Xi, f(Xi)), siendo f(Xi) el valor de la clase. La Tarea es Encontrar la Deficinición de la Función f que debe reflejar un concepto acorde con dichos ejemplos.

Carácter Incierto

Ejemplos de Entrenamiento: Se Divide el Conjunto de Instancias de dos Subconjuntos. (2/3 -> Aprender el Modelo)

Ejemplos de Prueba: Comprobar el Porcentaje de Aciertos del Modelo de Clasificación Aprendido. (1/3 del resto)

3.4. Ruido

Errores en la Determinación de los Valores del Atributo; u Omisión de Atributos.

3.5. Procesamiento de Instancias

Simultaneamente: Aplicar Análisis Estadísticos que permiten aislar posibles Errores

Secuencialmente: Las más parecidas del proceso de Aprendizaje Humano

3.6. Bias: Criterios de Selección de Hipótesis

Encontrar una Estructura que "Clasifique bien" y que "Realice Predicciones Correctas".

3.7. Espacio de Versiones

Marco Unificado para el Aprendizaje de Conceptos. El Proceso de Aprendizaje de un Concepto tiene lugar en un Espacio H definido entre los conjuntos de Hipótesis G (elementos más Generales) y S (elementos más Especificos).

El Espacio de Versiones permite mantener toda la información Útil extraida de un Conjunto de Entrenamiento sin tener que guardar ningún ejemplo.

Definición

  1. Criterio de Consistencia

  2. Criterios para Escoger la Formula más Especifica (INF) y la más General (SUP) entre las Consistentes

  3. Definición de Generalización

  4. Conjunto de Ejemplos Positivos y Negativos

Dado el Conjunto de Entrenamiento (I) y una Teoria (T), si se emplean diferentes Criterios de Consistencia, se pueden obtener (Aprender) diferentes Versiones del Concepto G.

3.8. Árboles de Decisión

El Algoritmo de Aprendizaje es esencialmente un Proceso de Búsqueda de un Modelo de Clasificación lo mas Sencillo y Generales posibles.

La Estrategia consiste en Seleccionar aquel atributo potencialmente más útil para cada clasificación

Cada Elemento o Instancia toma forma de una lista de Pares (Atributo, Valor), constituyendo una Descripción Conjuntiva. Cada Instancia va acompañada de la clase a la que pertenece.

El Objetivo es construir un Ábol de Decisión que explique todas las Instancias de la manera más compacta.

Camino de Discriminación. Va de la Raíz a dicho Nodo para los Atributos involucrados.

Se propone la Binarización de los Atributos (0, 1) = (No, Si); independizando el Proceso de Número de valores de un Atributo. Normalizar la Ganancia.

ALGORITMO ID3 (lista-ejemplos, lista-atributos)

  1. Si lista-ejemplos está vacia entonces "Regresar", sino seguir

  2. Si todos los ejemplos en lista-ejemplos son + entonces devolver + sino seguir

  3. Si todos los ejemplos en lista-ejemplos son - entonces devolver - sino seguir

  4. Si lista-ejemplos está vacia entonces devolver Error sino

    1. Llamar mejor al elemento a de lista-atributos que minimice merito (a)

    2. Iniciar un Árbol cuya Raíz sea mejor

    3. Para cada valor de Vi de mejor

      • Incluir en ejemplos-restantes los elementos de lista-ejemplos que tengan el valor Vi del atributo mejor

      • Dejar en atributos-restantes todos los elementos de lista-atributos excepto mejor

      • Devolver el valor de: ID3 (ejemplos-restantes, atributos-restantes)

3.9. Paradigmas Derivativos

3.10. Agrupación Conceptual

Intenta Introducir la mayor cantidad de Conocimiento sobre el Contexto en el que se quiera Realizar el Aprendizaje que puede ser mas útil.

Parte de la Constatación sobre el Contexto. Las Funciones a que dan lugar todas estas ideas: los dos objetos a Comparar (f(A,B)), un Entorno (E), un Conjunto de Conceptos (C)

MODELOS

CLUSTER: Creación de Categorias descritas en Base a propiedades suficientes y necesarias utilizando una Función a Optimizar sobre las Descripciones.

WITT: Funciones tomadas de la Teoría de la Información favoreciendo las Clases con descripciones menos Rigidas, más acorde con las tendencias de la Psicología Cognitiva incluyendo operadores que permiten modificar Dinamicamente las Clases Obtenidas.

AUTOCLASS: Aplicación del Teorema de Bayes y las Funciones de Distribución que presenta los Atributos que describen los Datos.

3.11. Formación de Conceptos

Obtener una Clasificación de un Conjunto de Observaciones y una Caracterización de las Clases obtenidas que permiten Identificar los diferentes Grupos (Construcción de una Jerarquía que permita relacionar los Conceptos).

Planteamiento del Aprendizaje como una Tarea Incremental. Las Modificaciones que son necesarias en la Estructura Jerarquica se guian a través de funciones que optimizan ciertos criterios sobre los aprendido. Se realiza una Búsqueda en un Espacio de Jerarquias con un Método de Ascenso.

3.12. COBWEB

Basado en las Ideas de la Psicología Cognitiva acerca del Nivel Básico de Categorización. Se prefiere un Nivel de Generalización respecto a otros.

Utilidad de la Categoría: Medida adoptada por COBWEB para guiar el Proceso de Aprendizaje; dando mayor valor a las clases que presentan un alta similaridad entre sus Miembros y una baja similaridad con el resto de las Clases. Manteniendo un Balance entre Predecibilidad y Previsibilidad.

Predecibilidad: Probabilidad de que una Observación pertenezca a una clase dado el valor de un Atributo. Exclusivos de una Clase y por lo tanto Diferenciadores. Maximiza la diferencia entre Clases.

Previsibilidad: Probabilidad de que una observación tenga un valor en un Atributo dado que pertenece a cierta clase. Comparten muchos miembros de una clase. Maximiza la Similaridad entre los Miembros de una Clase.

La Representación del Conocimiento utilizada es la Típica de atributo-valor, sólo que no se admitan más que Atributos Categóricos.

El Algortimo de COBWEB va incluyendo Instancias a la Jerarquía Descendiendo a través del Árbol guiándose por la Medida de Utilidad de Categoría para decidir el Descendiente por el que ha de Continuar o el Operador que debe aplicar el Árbol para Incorporar nuevo Conocimiento: Incorporar una Clase, Crear una Nueva Clase, Unir dos Clases existentes, Dividir una Clase a sus Descendientes.

ALGORITMO

  1. Actualizar las Probabilidades del Nodo en Curso según los Valores de la Observación

  2. Si el Nodo es Terminal, el Resultado es Incorporar el Nodo Modificado, Finalizando el Algoritmo

  3. Si el Nodo es No Terminal, se Evalúan las siguientes posibilidades según la Función CU, se escoge la mejor y se llama recursivamente a la función con el Nodo en el que se haya decidido incorporar la observación:

Los Principales Avances que incorpora COBWEB en su Metodología es la utilización de una Descripción Probabilística de las Clases, Fundamentar la Creación de su Jerarquía en una Medida que está orientada hacia la Búsqueda del Nivel Básico de Categorización y Define los cuatro Operadores necesarios para la Creación de la Jerarquía.