admin
文章 90
NLP 7. 多标签分类损失pytorch 实现
1. 多标签分类损失 pytorch 实现 在文本分类中使用多标签分类损失函数实现,公式为 (来自于 将“so…
NLP 6. 为什么max 的光滑近似是logsumexp?
在机器学习和统计学中,通常会计算各种指数形式的值,例如 softmax 概率值、指数损失函数等。这些指数形式的…
NLP 9. GlobalPointer 和 Efficient GlobalPointer 原理
1. GlobalPointer GlobalPointer 来自于论文 GLOBAL POINTER: NO…
机器学习 Precision Recall F1-score和AUC 评价指标解释
1. Precision,Recall,F1-score 解释 这些名词都建立在混淆矩阵 confusion …
置顶 OpenAI 吴恩达联手OpenAI推出Prompt Engineering 课程2
4. Iterative 本节遵循上图所提到的 Prompt guideline 四个循环迭代的步骤来构建完善…
置顶 OpenAI 吴恩达联手OpenAI推出Prompt Engineering 课程 1. Guidelines
课程地址:ChatGPT Prompt Engineering for Developers。戳一下链接就可以…
NLP 为什么Bert中用乘性注意力而不用加性注意力?
在自然语言处理中,加性注意力和乘性注意力是两种广泛使用的注意力机制。虽然它们在数学上很相似,但在实践中,乘性注…