Estudio teoría de la representación, me interesan las representaciones de conocimiento; ¿Hay alguna conexión explícita que alguien pueda discutir?

La ruta obvia es a través de la algebraización de la lógica, y luego representando los elementos algebraicos como matrices.

La principal dificultad es que tales álgebras generalmente tienen> 2 operaciones binarias, por ejemplo, álgebras de relación.

También hice esta pregunta relacionada:
¿Podemos hacer teoría de representación para álgebras con> 2 operaciones?

Las álgebras de relación son candidatos bastante “naturales” para la representación del conocimiento (en inteligencia artificial), aunque puede ser posible utilizar álgebras más minimalistas para KR.

También hay un libro, “Física cuántica y lingüística” (2013) que habla sobre el uso de productos tensoriales para representar la sintaxis del lenguaje natural, y desde un punto de vista abstracto pertenecen a “categorías monoidales”. Puedes obtener mucha inspiración a partir de ahí.

Sin embargo, personalmente he abandonado este enfoque de abajo hacia arriba para la representación del conocimiento. En la IA conexionista, las redes neuronales aprenden representaciones de arriba hacia abajo; Diseñamos la función objetivo y luego dejamos que las representaciones en las capas inferiores emerjan del proceso de aprendizaje automático.

Bienvenido a discutir más 🙂