La ruta obvia es a través de la algebraización de la lógica, y luego representando los elementos algebraicos como matrices.
La principal dificultad es que tales álgebras generalmente tienen> 2 operaciones binarias, por ejemplo, álgebras de relación.
También hice esta pregunta relacionada:
¿Podemos hacer teoría de representación para álgebras con> 2 operaciones?
Las álgebras de relación son candidatos bastante “naturales” para la representación del conocimiento (en inteligencia artificial), aunque puede ser posible utilizar álgebras más minimalistas para KR.
- Soy un joven gay y virgen. ¿Debo esperar al Sr. Correcto?
- Quiero hacer mi propio amplificador con TDA7056B IC, ¿cuál es el voltaje de alimentación y la entrada de corriente para que funcione correctamente?
- Tengo una licenciatura en estudios ambientales con pasión por el medio ambiente. ¿Cuáles son algunos de los proyectos que se pueden presentar en África?
- Me gustaría tener más información sobre las universidades con múltiples ramas / materias / cursos en Erode y sus alrededores. ¿Puede alguien ayudarme?
- Voy a adoptar el gato de 6 años de mi hija que amo. Se unirá a un marido vacilante y a un laboratorio amarillo de 10 años. ¿Cómo debo comenzar?
También hay un libro, “Física cuántica y lingüística” (2013) que habla sobre el uso de productos tensoriales para representar la sintaxis del lenguaje natural, y desde un punto de vista abstracto pertenecen a “categorías monoidales”. Puedes obtener mucha inspiración a partir de ahí.
Sin embargo, personalmente he abandonado este enfoque de abajo hacia arriba para la representación del conocimiento. En la IA conexionista, las redes neuronales aprenden representaciones de arriba hacia abajo; Diseñamos la función objetivo y luego dejamos que las representaciones en las capas inferiores emerjan del proceso de aprendizaje automático.
Bienvenido a discutir más 🙂