The current prevailing approach to equip Large Language Models (LLMs) with Retrieval Augmented Generation (RAG) capability involves the use of embeddings connected to a vector store. However, the approximation of these embeddings may not be directly relevant to the actual needs of the user.
Random Note on June 29, 2023
跟以前NLP需充分捕捉上下文訊息,去解決需要深度理解和推理的問題。
如果一個語言模型沒有充足的上下文信息(我也常說是場景還原),或者沒有足夠的能力去提示、補充、識別和解析輸入中的Slot,在特定Domain下也有不同的intent和slot。
不過也在思考如果沒有滿意度較高答案下的intent下該怎麼情緒安撫和引導設計(讓GPT模仿特定溫馨安撫的老鄰居?)
我的認知是使用者的問題,不會是單一次的搜尋就收工。