首页 抖音快讯文章正文

Semantic Kernel 实战系列(六) - Memory与向量存储

抖音快讯 2025年09月07日 12:13 1 admin

在上几篇文章中,我们探讨了Semantic Kernel的规划器如何自动化多步任务,让AI像传统工作流一样高效运行。作为一个专注.NET开发的博主,我发现Memory机制是让系统真正“聪明”的基础。它不是简单的缓存,而是能让AI记住上下文、检索知识,就像传统数据库在应用中的角色,但添加了语义理解。

Semantic Kernel 实战系列(六) - Memory与向量存储

上一篇文章,经圣杰大佬的提醒:随着fc能力的逐步提升,planner已经在官方文档中明确表示即将废弃,大家注意一下。

接下来我们会从Memory的核心机制开始,逐步到向量存储集成、RAG模式、内存管理和实际应用。通过C,你能看到如何在项目中落地这些功能,比如构建一个知识库系统,结合现有SQL数据库,提升查询智能。

1 Memories 的核心机制

Semantic Kernel中的Memory系统分为语义Memory和短期Memory,前者存储长期知识,后者处理即时上下文。这与传统.NET开发中的持久化存储和会话状态类似,但通过嵌入模型(Embedding Models)实现语义匹配,让检索更接近人类思考。

语义Memory聚焦于事实、概念和关系,比如产品规格或用户偏好。它用向量表示数据,允许基于相似度搜索,而非精确匹配。到2025年,Semantic Kernel已弃用旧的Memory Stores,转向Vector Stores,这让语义Memory更标准化,支持多种数据库。 嵌入模型如Azure OpenAI的text-embedding-ada-002,将文本转为高维向量(通常1536维),存储后能计算相似度。

短期Memory则像ChatHistory,维护对话状态,避免重复输入。它不持久化,但能与语义Memory结合,比如在聊天中检索长期知识补充响应。这在Web应用中实用,你可以用ASP.NET Core的ISession存储短期上下文,语义部分推到向量存储。

核心机制在于嵌入生成和检索:先用模型生成向量,存入集合(Collection),查询时生成查询向量,找最近邻。这优化了传统全文搜索的局限,能处理模糊查询。在C,定义数据模型是起点:

using Microsoft.SemanticKernel.Data;

[VectorStoreRecordDefinition]
publicclassKnowledgeItem
{
    [VectorStoreRecordKey]
    publicstring Id { get; set; }

    [VectorStoreRecordData(IsFilterable = true)]
    publicstring Category { get; set; }

    [VectorStoreRecordVector(Dimensions = 1536, DistanceFunction = DistanceFunction.CosineSimilarity, IndexKind = IndexKind.Hnsw)]
    public ReadOnlyMemoryfloat>? Embedding { get; set; }
}

这个模型像Entity Framework的实体,但加了向量属性。机制的灵活性让它适合企业应用,你能将遗留数据向量化,构建智能搜索引擎,减少手动过滤代码。

Semantic Kernel的Memory还支持混合模式:短期Memory引导语义检索,比如用户问“上次推荐的产品怎么样”,短期回忆对话,语义拉取产品详情。这转变开发方式,从静态数据访问到动态知识融合。

2 向量存储集成

向量存储是Semantic KernelMemory的后台,支持多种集成,从本地In-Memory到云端Azure AI Search或MongoDB Atlas。这让.NET开发者像选择ORM一样选存储,配置简单,通过NuGet包实现。

In-Memory存储适合快速原型或测试,无需外部服务:

using Microsoft.SemanticKernel.Connectors.InMemory;

var vectorStore = new InMemoryVectorStore();
var collection = vectorStore.GetCollectionstring, KnowledgeItem>("knowledge");
await collection.CreateCollectionIfNotExistsAsync();

这像用Dictionary缓存,但支持向量操作。实际中,在单元测试中用它模拟生产环境,避免依赖云。

Azure AI Search是企业级选择,支持大规模索引和AI增强搜索。 配置需Azure SDK:

using Microsoft.SemanticKernel.Connectors.AzureAISearch;

var searchClient = new AzureSearchIndexClient(new Uri("https://your-search-service.search.windows.net"), new AzureKeyCredential("your-key"));
var vectorStore = new AzureAISearchVectorStore(searchClient);
var collection = vectorStore.GetCollectionstring, KnowledgeItem>("index-name");

集成后,你能用Azure的内置嵌入生成,减少本地计算。MongoDB Atlas类似,支持云托管向量:

using Microsoft.SemanticKernel.Connectors.MongoDB;

var client = new MongoClient("mongodb+srv://your-connection-string");
var database = client.GetDatabase("your-db");
var vectorStore = new MongoDBVectorStore(database);
var collection = vectorStore.GetCollectionstring, KnowledgeItem>("collection-name");

这些集成通过抽象IVectorStore统一API,让切换存储像换连接字符串一样简单。 在.NET项目中,这意味着你能在Startup.cs注册VectorStore服务,注入到控制器或服务层,实现无缝数据流动。

本地存储如SQLite或Postgres也支持,向量字段用扩展实现。这在边缘计算或隐私敏感场景中落地,比如移动App用SQLite存储用户笔记,向量化后智能搜索。

整体集成强调可扩展性,你能结合传统数据库:用SQL存储结构数据,向量存储非结构知识,桥接两者提升应用智能。

3 RAG(Retrieval-Augmented Generation)模式

RAG模式是Memory系统的杀手级应用,通过检索增强生成,让AI输出更准确、更有据。它先从向量存储检索相关信息,再喂给LLM生成响应,这避免了模型幻觉,类似于传统查询后渲染视图。

在Semantic Kernel中,构建RAG用VectorStoreTextSearch包装集合:

using Microsoft.SemanticKernel.TextSearch;
using Microsoft.SemanticKernel.Embeddings;

var embeddingService = kernel.GetRequiredService();
var textSearch = new VectorStoreTextSearch(collection, embeddingService, item => item.Content);

然后,创建搜索插件:

var searchPlugin = textSearch.CreateWithGetTextSearchResults("SearchKnowledge", new TextSearchOptions { Top = 3 });
kernel.ImportPluginFromObject(searchPlugin);

在提示中调用:{{SearchKnowledge.Search $query}},AI自动检索。 这在C API中落地,比如用户查询“Semantic Kernel最新功能”,RAG检索文档片段,生成总结。

构建完整系统:先嵌入数据:

var item = new KnowledgeItem { Id = "1", Content = "Semantic Kernel is an AI framework.", Embedding = await embeddingService.GenerateEmbeddingAsync("Semantic Kernel is an AI framework.") };
await collection.UpsertAsync(item);

查询时:

var query = "What is Semantic Kernel?";
var results = await textSearch.GetTextSearchResultsAsync(query);
await foreach (var result in results.Results)
{
    Console.WriteLine(result.Name); // 输出相关文档
}

RAG的模式让输出接地气,在客服系统中,你能检索历史票单生成个性化回复,结合传统CRM API,提升响应质量。

Semantic Kernel的RAG还支持函数调用行为,让模型决定何时检索。这在复杂应用中实用,比如报告生成,先RAG拉数据,再规划步骤。

4 内存管理和优化

内存管理在向量存储中至关重要,包括索引构建、相似度计算和隐私保护,确保系统高效、安全。

索引用HNSW(Hierarchical Navigable Small World)算法,加速近似最近邻搜索。在模型定义中指定IndexKind = IndexKind.Hnsw,Semantic Kernel自动处理。 这像SQL索引,减少查询时间,在大集合中从O(n)降到O(log n)。

相似度搜索默认CosineSimilarity,适合文本向量。你能自定义DistanceFunction,优化特定领域如图像。

管理还涉及批量操作:UpsertBatchAsync批量插入,DeleteBatchAsync清理旧数据。这在ETL流程中落地,用定时任务维护集合,避免膨胀。

隐私方面,Semantic Kernel支持过滤器字段:[VectorStoreRecordData(IsFilterable = true)],查询时加条件如category == "public",防止敏感数据泄露。结合Azure的RBAC,确保访问控制。

优化技巧包括嵌入维度选择(低维快但准确低)和阈值过滤:SearchAsync(new VectorSearchOptions { MinRelevanceScore = 0.8 })。在.NET中,这集成到服务层,你能用Telemetry追踪查询性能,调整参数。

数据隐私还需加密向量,或用私有模型生成嵌入,避免云泄露。在合规项目中,这让RAG系统符合GDPR,实际价值在于企业部署无忧。

整体优化让Memory系统从玩具转为生产级,你能在高负载App中用它,结合缓存短期结果,平衡速度和准确。

5 实际应用:一个知识库聊天机器人

现在,来个完整应用:知识库聊天机器人,用向量存储实现RAG查询。这在内部Wiki或客服工具中很常见。

先设置Kernel和存储(用Azure AI Search):

var kernel = Kernel.CreateBuilder()
    .AddAzureOpenAIChatCompletion("gpt-4o", endpoint, apiKey)
    .AddAzureOpenAITextEmbeddingGeneration("text-embedding-ada-002", endpoint, apiKey)
    .Build();

var searchClient = new AzureSearchIndexClient(new Uri(endpoint), new AzureKeyCredential(apiKey));
var vectorStore = new AzureAISearchVectorStore(searchClient);
var collection = vectorStore.GetCollectionstring, KnowledgeItem>("knowledge-base");

嵌入知识:

var docs = new[] { new KnowledgeItem { Id = "doc1", Content = "Semantic Kernel supports vector stores for RAG." } };
var embeddings = await kernel.GetRequiredService().GenerateEmbeddingsAsync(docs.Select(d => d.Content));
for (int i = 0; i
{
    docs[i].Embedding = embeddings[i];
    await collection.UpsertAsync(docs[i]);
}

构建聊天:

var textSearch = new VectorStoreTextSearch(collection, kernel.GetRequiredService(), item => item.Content);
var searchPlugin = textSearch.CreateWithGetTextSearchResults("SearchKB");
kernel.ImportPluginFromObject(searchPlugin);

var history = new ChatHistory();
while (true)
{
    Console.Write("User: ");
    var input = Console.ReadLine();
    history.AddUserMessage(input);

    var settings = new OpenAIPromptExecutionSettings { ToolCallBehavior = ToolCallBehavior.AutoInvokeKernelFunctions };
    var response = await kernel.GetRequiredService().GetChatMessageContentAsync(history, settings);

    Console.WriteLine($"AI: {response.Content}");
    history.AddAssistantMessage(response.Content);
}

机器人查询时自动RAG:模型调用SearchKB,检索相关知识生成回答。

  • 扩展:在Blazor App中,做成UI界面,用户聊天时后台检索公司文档。

  • 优化:加过滤器确保隐私,批量嵌入新知识。

这个应用落地价值大,能改造传统搜索框为智能助手,减少用户翻页时间。测试中,用模拟数据验证召回率,确保准确。通过这个案例,可以让你看到Memory如何提升交互,融合向量存储与聊天。

Memory与向量存储让Semantic Kernel更强大,我相信在紧密结合传统开发的基础上,一定能够开启知识驱动应用开发的新天地。

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动