Generación y Recuperación de Información Contextualizada: Un Enfoque Avanzado Basado en RAG para el Procesamiento del Lenguaje Natural
Contextualized Information Generation and Retrieval: An Advanced RAG-Based Approach to Natural Language Processing

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.
Esta obra está bajo una licencia internacional
Atribución/Reconocimiento 4.0 Internacional
Mostrar biografía de los autores
Este artículo explora en profundidad la integración de técnicas avanzadas de machine learning mediante la metodología Retrieval Augmented Generation (RAG). Se analiza la arquitectura dual que combina procesos de recuperación y generación de información, resaltando su impacto en el entrenamiento de modelos de lenguaje natural. Asimismo, se presentan variantes especializadas como el Corrective RAG y el Advanced RAG, que incorporan mecanismos de retroalimentación y optimización en tiempo real. Se incluye, además, una mención del producto JurislibreIA, desarrollado por el semillero Sensorama, ejemplificando aplicaciones prácticas en dominios complejos como el legal. El estudio se fundamenta en ejemplos de implementación en Python, diagramas explicativos y una revisión crítica de las fuentes relevantes, ofreciendo una guía completa para investigadores y desarrolladores interesados en impulsar soluciones innovadoras basadas en RAG.
Visitas del artículo 0 | Visitas PDF 0
Descargas
- P. Lewis, et al., "Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks," Advances in Neural Information Processing Systems (NeurIPS), 2020.
- J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding," Proc. of NAACL, 2018.
- T. Mikolov, et al., "Distributed Representations of Words and Phrases and their Compositionality," Advances in Neural Information Processing Systems (NeurIPS), 2013.
- A. Vaswani, et al., "Attention is All You Need," Advances in Neural Information Processing Systems (NeurIPS), 2017.
- I. Sutskever, O. Vinyals, and Q. V. Le, "Sequence to Sequence Learning with Neural Networks," Advances in Neural Information Processing Systems (NeurIPS), 2014.
- S. Hochreiter and J. Schmidhuber, "Long Short-Term Memory," Neural Computation, vol. 9, no. 8, pp. 1735–1780, 1997.
- Y. Kim, "Convolutional Neural Networks for Sentence Classification," Proc. of EMNLP, 2014.
- R. Johnson, et al., "Google's Neural Machine Translation System: Bridging the Gap between Human and Machine Translation," arXiv:1609.08144, 2016.
- Z. Yang, et al., "XLNet: Generalized Autoregressive Pretraining for Language Understanding," Advances in Neural Information Processing Systems (NeurIPS), 2019.
- K. He, X. Zhang, S. Ren, and J. Sun, "Deep Residual Learning for Image Recognition," Proc. of CVPR, 2016.
- M. Abadi, et al., "TensorFlow: A System for Large-Scale Machine Learning," Proc. of OSDI, 2016.
- F. Chollet, "Keras," GitHub repository, 2015. [Online]. Available: https://github.com/keras-team/keras.
- P. Russell and S. Norvig, Artificial Intelligence: A Modern Approach, 3rd ed. Prentice Hall, 2010.
- S. Bengio and Y. LeCun, "Scaling Learning Algorithms towards AI," in Large-Scale Kernel Machines, 2007.
- Hugging Face, "Retrieval-Augmented Generation (RAG)," [Online]. Available: https://huggingface.co/docs/transformers/model_doc/rag Accessed: Feb. 18, 2025.