Logo

入门

  • 安装
    • 使用 pip 安装
    • 使用 Conda 安装
    • 从源码安装
    • 可编辑安装
    • 安装支持 CUDA 的 PyTorch
  • 快速开始
    • 句子转换器
    • 交叉编码器
    • 稀疏编码器
    • 后续步骤
  • 迁移指南
    • 从 v4.x 迁移到 v5.x
      • model.encode 的迁移
      • Asym 到 Router 的迁移
      • 高级用法迁移
    • 从 v3.x 迁移到 v4.x
      • 针对 CrossEncoder 初始化和方法参数的迁移
      • 针对 CrossEncoder.fit 特定参数的迁移
      • 交叉编码器评估器的迁移
    • 从 v2.x 迁移到 v3.x
      • 针对 SentenceTransformer.fit 特定参数的迁移
      • 针对 SentenceTransformer.fit 中使用的自定义数据集和数据加载器的迁移

句子转换器

  • 使用
    • 计算嵌入
      • 初始化句子转换器模型
      • 计算嵌入
      • 提示模板
      • 输入序列长度
      • 多进程/多GPU编码
    • 语义文本相似度
      • 相似度计算
    • 语义搜索
      • 背景
      • 对称式 vs. 非对称式语义搜索
      • 手动实现
      • 优化实现
      • 速度优化
      • Elasticsearch
      • OpenSearch
      • 近似最近邻
      • 检索与重排
      • 示例
    • 检索与重排
      • 检索与重排管线
      • 检索:双编码器
      • 重排器:交叉编码器
      • 示例脚本
      • 预训练双编码器(检索)
      • 预训练交叉编码器(重排器)
    • 聚类
      • k-均值
      • 凝聚聚类
      • 快速聚类
      • 主题建模
    • 释义挖掘
      • paraphrase_mining()
    • 翻译句子挖掘
      • 基于边距的挖掘
      • 示例
    • 图像搜索
      • 安装
      • 使用
      • 示例
    • 嵌入量化
      • 二进制量化
      • 标量 (int8) 量化
      • 额外扩展
      • 演示
      • 亲自尝试
    • 创建自定义模型
      • 句子转换器模型结构
      • 从 Transformers 模型创建句子转换器模型
      • 高级:自定义模块
    • 加速推理
      • PyTorch
      • ONNX
      • OpenVINO
      • 基准测试
  • 预训练模型
    • 原始模型
    • 语义搜索模型
      • 多问答模型
      • MSMARCO 段落模型
    • 多语言模型
      • 语义相似度模型
      • 双语语料挖掘
    • 图像与文本模型
    • INSTRUCTOR 模型
    • 科学相似度模型
  • 训练概述
    • 为何进行微调?
    • 训练组件
    • 模型
    • 数据集
      • 数据集格式
    • 损失函数
    • 训练参数
    • 评估器
    • 训练器
      • 回调函数
    • 多数据集训练
    • 已弃用的训练
    • 最佳基础嵌入模型
    • 与交叉编码器训练的比较
  • 数据集概述
    • Hugging Face Hub 上的数据集
    • 现有数据集
  • 损失概述
    • 损失表
    • 损失修改器
    • 蒸馏
    • 常用损失函数
    • 自定义损失函数
  • 训练示例
    • 语义文本相似度
      • 训练数据
      • 损失函数
    • 自然语言推理
      • 数据
      • SoftmaxLoss
      • MultipleNegativesRankingLoss
    • 释义数据
      • 预训练模型
    • Quora 重复问题
      • 训练
      • MultipleNegativesRankingLoss
      • 预训练模型
    • MS MARCO
      • 双编码器
    • Matryoshka 嵌入
      • 用例
      • 结果
      • 训练
      • 推理
      • 代码示例
    • 自适应层
      • 用例
      • 结果
      • 训练
      • 推理
      • 代码示例
    • 多语言模型
      • 扩展您自己的模型
      • 训练
      • 数据集
      • 训练数据来源
      • 评估
      • 可用预训练模型
      • 使用
      • 性能
      • 引用
    • 模型蒸馏
      • 知识蒸馏
      • 速度-性能权衡
      • 降维
      • 量化
    • 增强型 SBERT
      • 动机
      • 扩展到您自己的数据集
      • 方法论
      • 场景1:有限或小型标注数据集(少量标注句子对)
      • 场景2:无标注数据集(仅有未标注句子对)
      • 训练
      • 引用
    • 使用提示进行训练
      • 什么是提示?
      • 我们为什么要使用提示进行训练?
      • 我们如何使用提示进行训练?
    • 使用 PEFT 适配器进行训练
      • 兼容性方法
      • 添加新适配器
      • 加载预训练适配器
      • 训练脚本
    • 无监督学习
      • TSDAE
      • SimCSE
      • CT
      • CT(批内负采样)
      • 掩码语言模型(MLM)
      • GenQ
      • GPL
      • 性能比较
    • 领域适应
      • 领域适应 vs. 无监督学习
      • 自适应预训练
      • GPL:生成式伪标注
    • 超参数优化
      • HPO 组件
      • 综合应用
      • 示例脚本
    • 分布式训练
      • 比较
      • FSDP

交叉编码器

  • 使用
    • 交叉编码器 vs. 双编码器
      • 交叉编码器 vs. 双编码器
      • 何时使用交叉编码器/双编码器?
      • 交叉编码器使用
      • 结合双编码器和交叉编码器
      • 训练交叉编码器
    • 检索与重排
      • 检索与重排管线
      • 检索:双编码器
      • 重排器:交叉编码器
      • 示例脚本
      • 预训练双编码器(检索)
      • 预训练交叉编码器(重排器)
    • 加速推理
      • PyTorch
      • ONNX
      • OpenVINO
      • 基准测试
  • 预训练模型
    • MS MARCO
    • SQuAD (QNLI)
    • STSbenchmark
    • Quora 重复问题
    • NLI
    • 社区模型
  • 训练概述
    • 为何进行微调?
    • 训练组件
    • 模型
    • 数据集
      • 数据集格式
      • 困难负样本挖掘
    • 损失函数
    • 训练参数
    • 评估器
    • 训练器
      • 回调函数
    • 多数据集训练
    • 训练技巧
    • 已弃用的训练
    • 与 SentenceTransformer 训练的比较
  • 损失概述
    • 损失表
    • 蒸馏
    • 常用损失函数
    • 自定义损失函数
  • 训练示例
    • 语义文本相似度
      • 训练数据
      • 损失函数
      • 推理
    • 自然语言推理
      • 数据
      • CrossEntropyLoss
      • 推理
    • Quora 重复问题
      • 训练
      • 推理
    • MS MARCO
      • 交叉编码器
      • 训练脚本
      • 推理
    • 重排器
      • BinaryCrossEntropyLoss
      • CachedMultipleNegativesRankingLoss
      • 推理
    • 模型蒸馏
      • 交叉编码器知识蒸馏
      • 推理
    • 分布式训练
      • 比较
      • FSDP

稀疏编码器

  • 使用
    • 计算稀疏嵌入
      • 初始化稀疏编码器模型
      • 计算嵌入
      • 输入序列长度
      • 控制稀疏度
      • SPLADE 模型的可解释性
      • 多进程/多GPU编码
    • 语义文本相似度
      • 相似度计算
    • 语义搜索
      • 手动搜索
      • 向量数据库搜索
      • Qdrant 集成
      • OpenSearch 集成
      • Seismic 集成
      • Elasticsearch 集成
    • 检索与重排
      • 概述
      • 交互式演示:简单维基百科搜索
      • 综合评估:混合搜索管线
      • 预训练模型
    • 稀疏编码器评估
      • 检索评估示例
  • 预训练模型
    • 核心 SPLADE 模型
    • 免推理 SPLADE 模型
    • 模型集合
  • 训练概述
    • 为何进行微调?
    • 训练组件
    • 模型
    • 数据集
      • 数据集格式
    • 损失函数
    • 训练参数
    • 评估器
    • 训练器
      • 回调函数
    • 多数据集训练
    • 训练技巧
  • 数据集概述
    • Hugging Face Hub 上的数据集
    • 现有数据集
  • 损失概述
    • 稀疏特定损失函数
      • SPLADE 损失
      • CSR 损失
    • 损失表
    • 蒸馏
    • 常用损失函数
    • 自定义损失函数
  • 训练示例
    • 模型蒸馏
      • MarginMSE
    • MS MARCO
      • SparseMultipleNegativesRankingLoss
    • 语义文本相似度
      • 训练数据
      • 损失函数
    • 自然语言推理
      • 数据
      • SpladeLoss
    • Quora 重复问题
      • 训练
    • 信息检索
      • SparseMultipleNegativesRankingLoss (MNRL)
      • 推理与评估
    • 分布式训练
      • 比较
      • FSDP

包参考

  • 句子转换器
    • SentenceTransformer
      • SentenceTransformer
      • SentenceTransformerModelCardData
      • SimilarityFunction
    • 训练器
      • SentenceTransformerTrainer
    • 训练参数
      • SentenceTransformerTrainingArguments
    • 损失
      • BatchAllTripletLoss
      • BatchHardSoftMarginTripletLoss
      • BatchHardTripletLoss
      • BatchSemiHardTripletLoss
      • ContrastiveLoss
      • OnlineContrastiveLoss
      • ContrastiveTensionLoss
      • ContrastiveTensionLossInBatchNegatives
      • CoSENTLoss
      • AnglELoss
      • CosineSimilarityLoss
      • DenoisingAutoEncoderLoss
      • GISTEmbedLoss
      • CachedGISTEmbedLoss
      • MSELoss
      • MarginMSELoss
      • MatryoshkaLoss
      • Matryoshka2dLoss
      • AdaptiveLayerLoss
      • MegaBatchMarginLoss
      • MultipleNegativesRankingLoss
      • CachedMultipleNegativesRankingLoss
      • MultipleNegativesSymmetricRankingLoss
      • CachedMultipleNegativesSymmetricRankingLoss
      • SoftmaxLoss
      • TripletLoss
      • DistillKLDivLoss
    • 采样器
      • 批采样器
      • 多数据集批采样器
    • 评估
      • 二分类评估器
      • 嵌入相似度评估器
      • 信息检索评估器
      • NanoBEIREvaluator
      • MSEEvaluator
      • 释义挖掘评估器
      • 重排评估器
      • 句子评估器
      • 序贯评估器
      • 翻译评估器
      • 三元组评估器
    • 数据集
      • 平行句子数据集
      • 句子标签数据集
      • 去噪自编码器数据集
      • 无重复数据加载器
    • 模块
      • 主要模块
      • 更多模块
      • 基础模块
    • 量化
      • quantize_embeddings()
      • semantic_search_faiss()
      • semantic_search_usearch()
  • 交叉编码器
    • 交叉编码器
      • 交叉编码器
      • CrossEncoderModelCardData
    • 训练器
      • CrossEncoderTrainer
    • 训练参数
      • CrossEncoderTrainingArguments
    • 损失
      • BinaryCrossEntropyLoss
      • CrossEntropyLoss
      • LambdaLoss
      • ListMLELoss
      • PListMLELoss
      • ListNetLoss
      • MultipleNegativesRankingLoss
      • CachedMultipleNegativesRankingLoss
      • MSELoss
      • MarginMSELoss
      • RankNetLoss
    • 评估
      • CrossEncoderRerankingEvaluator
      • CrossEncoderNanoBEIREvaluator
      • CrossEncoderClassificationEvaluator
      • CrossEncoderCorrelationEvaluator
  • 稀疏编码器
    • 稀疏编码器
      • 稀疏编码器
      • SparseEncoderModelCardData
      • SimilarityFunction
    • 训练器
      • SparseEncoderTrainer
    • 训练参数
      • SparseEncoderTrainingArguments
    • 损失
      • SpladeLoss
      • FlopsLoss
      • CSRLoss
      • CSRReconstructionLoss
      • SparseMultipleNegativesRankingLoss
      • SparseMarginMSELoss
      • SparseDistillKLDivLoss
      • SparseTripletLoss
      • SparseCosineSimilarityLoss
      • SparseCoSENTLoss
      • SparseAnglELoss
      • SparseMSELoss
    • 采样器
      • 批采样器
      • 多数据集批采样器
    • 评估
      • SparseInformationRetrievalEvaluator
      • SparseNanoBEIREvaluator
      • SparseEmbeddingSimilarityEvaluator
      • SparseBinaryClassificationEvaluator
      • SparseTripletEvaluator
      • SparseRerankingEvaluator
      • SparseTranslationEvaluator
      • SparseMSEEvaluator
      • ReciprocalRankFusionEvaluator
    • 模块
      • SPLADE 池化
      • MLM Transformer
      • 稀疏自编码器
      • 稀疏静态嵌入
    • 回调函数
      • SpladeRegularizerWeightSchedulerCallback
    • 搜索引擎
      • semantic_search_elasticsearch()
      • semantic_search_opensearch()
      • semantic_search_qdrant()
      • semantic_search_seismic()
  • 实用工具
    • 辅助函数
      • community_detection()
      • http_get()
      • is_training_available()
      • mine_hard_negatives()
      • normalize_embeddings()
      • paraphrase_mining()
      • semantic_search()
      • truncate_embeddings()
    • 模型优化
      • export_dynamic_quantized_onnx_model()
      • export_optimized_onnx_model()
      • export_static_quantized_openvino_model()
    • 相似度指标
      • cos_sim()
      • dot_score()
      • euclidean_sim()
      • manhattan_sim()
      • pairwise_cos_sim()
      • pairwise_dot_score()
      • pairwise_euclidean_sim()
      • pairwise_manhattan_sim()
Sentence Transformers
  • 训练示例
  • 在 GitHub 上编辑

训练示例

有监督学习

  • 语义文本相似度
  • 自然语言推理
  • Quora 重复问题
  • MS MARCO
  • 重排器
  • 模型蒸馏

高级用法

  • 分布式训练
上一页 下一页

© 版权所有 2025。

使用 Sphinx 构建,主题由 Read the Docs 提供。