The current prevailing approach to equip Large Language Models (LLMs) with Retrieval Augmented Generation (RAG) capability involves the use of embeddings connected to a vector store.
跟以前NLP需充分捕捉上下文訊息,去解決需要深度理解和推理的問題。
如果一個語言模型沒有充足的上下文信息(我也常說是場景還原),或者沒有足夠的能力去提示、補充、識別和解析輸入中的Slot,在特定Domain下也有不同的intent和slot。
不過也在思考如果沒有滿意度較高答案下的intent下該怎麼情緒安撫和引導設計(讓GPT模仿特定溫馨安撫的老鄰居?)
我的認知是使用者的問題,不會是單一次的搜尋就收工。
我們想的應該是不一樣的事情喔。當用戶的問題是個複雜問題的時候,就算是他精確地描述,只用 embedding 是無法解決問題的。
跟以前NLP需充分捕捉上下文訊息,去解決需要深度理解和推理的問題。
如果一個語言模型沒有充足的上下文信息(我也常說是場景還原),或者沒有足夠的能力去提示、補充、識別和解析輸入中的Slot,在特定Domain下也有不同的intent和slot。
不過也在思考如果沒有滿意度較高答案下的intent下該怎麼情緒安撫和引導設計(讓GPT模仿特定溫馨安撫的老鄰居?)
我的認知是使用者的問題,不會是單一次的搜尋就收工。
我們想的應該是不一樣的事情喔。當用戶的問題是個複雜問題的時候,就算是他精確地描述,只用 embedding 是無法解決問題的。