当前位置: 首页 > news >正文

做个手机网站多少钱18种最有效推广的方式

做个手机网站多少钱,18种最有效推广的方式,网站换域名能换不,知名建站的公司二分类和多分类的损失函数 二分类 损失函数 L ( y , y ^ ) − ( y l o g ( y ^ ) ) ( 1 − y ) l o g ( 1 − y ^ ) L(y,\hat{y}) -(ylog(\hat{y})) (1-y)log(1-\hat{y}) L(y,y^​)−(ylog(y^​))(1−y)log(1−y^​) 其中真实标签表示为y(取值为 0 或 1&#…

二分类和多分类的损失函数

二分类

  • 损失函数
    L ( y , y ^ ) = − ( y l o g ( y ^ ) ) + ( 1 − y ) l o g ( 1 − y ^ ) L(y,\hat{y}) = -(ylog(\hat{y})) + (1-y)log(1-\hat{y}) L(y,y^)=(ylog(y^))+(1y)log(1y^)
    其中真实标签表示为y(取值为 0 或 1),预测概率表示为 y ^ \hat{y} y^(取值在 0 到 1 之间)

  • 代码

import torch
import torch.nn as nncriterion = nn.BCELoss()  # 或者使用 nn.BCEWithLogitsLoss()  BCEWithLogitsLoss可以直接接收logit输出
# 假设模型的输出 logits
logits = torch.tensor([0.2, 0.8, 0.5, 0.1]) #shape: (4, 1) 
predicted_probabilities = torch.sigmoid(logits) #shape: (4, 1) 
# 真实标签
labels = torch.tensor([0.0, 1.0, 1.0, 0.0]) #shape: (4, 1) 
# 计算损失
loss = criterion(predicted_probabilities, labels)
print("Loss:", loss.item())
  • 可视化损失值
    对于输出的loss值,我们往往不能理解这个loss是好还是坏,我们重看损失函数,发现对于单个正样本来说:
    l o s s = − l o g ( y ^ ) loss = -log(\hat{y}) loss=log(y^)
    对于单个负样本来说:
    l o s s = − l o g ( 1 − y ^ ) loss = -log(1-\hat{y}) loss=log(1y^)
    从这个公式我们可以反推模型对正样本预测的概率为:
    h i t p o s = e − l o s s hit_{pos} = e^{-loss} hitpos=eloss
    对负样本预测的概率为:
    h i t n e g = 1 − e − l o s s hit_{neg} = 1-e^{-loss} hitneg=1eloss
    这个hit就比较形象了,$hit_{pos}$越接近1,说明正样本的预测效果效果越好,$hit_{neg}$越接近0,说明负样本的预测效果效果越好

多分类

  • 损失函数
    L ( y , y ^ ) = − ∑ c = 1 C y l o g ( y ^ ) L(y,\hat{y}) = -\sum_{c=1}^Cylog(\hat{y}) L(y,y^)=c=1Cylog(y^)
    其中真实标签表示为y(取值为 0 或 1,表示是否属于第c类),预测概率表示为$\hat{y}$ (取值在 0 到 1 之间)
  • 代码
import torch
import torch.nn as nncriterion = nn.CrossEntropyLoss()# 假设模型的输出 logits(未经过 sigmoid)
logits = torch.tensor([[1.0, 2.0],  # 类别 0 和 1 的 logits[0.0, 1.0],[0.5, 0.5],[0.0, 0.0]]) # shape:(4,2)# 真实标签,格式为类别索引
# 0 表示第一个类别,1 表示第二个类别
labels = torch.tensor([1, 1, 0, 0])  # shape:(1,4)# 计算损失
loss = criterion(logits, labels)print("Loss:", loss.item())
  • 可视化损失值
    对于输出的loss值,我们往往不能理解这个loss是好还是坏,我们重看损失函数,发现对于单个样本来说:
    l o s s = − l o g ( y ^ ) loss = -log(\hat{y}) loss=log(y^)
    从这个公式我们可以反推模型对当前样本的正确类别预测的概率为:
    h i t = e − l o s s hit = e^{-loss} hit=eloss
    这个hit就比较形象了,hit越接近1,说明效果越好

二分类和多分类区别

  • 从损失函数的物理含义上来看,二分类的损失函数不仅希望正样本输出概率接近1,并且希望负样本的输出概率接近0;而多分类的损失函数仅仅希望正样本输出概率接近1,对于负样本其实没有约束
  • 对于二分类问题:如果你希望模型不仅能找出正样本,而且筛掉副样本,就用二分类损失。如果你仅仅希望找出正样本而不管负样本,多分类的损失也能用。

多分类问题中评价问题

TP(True Positive):真实标签为正类,模型预测为正类的样本数量。
TN(True Negative):真实标签为负类,模型预测为负类的样本数量。
FP(False Positive):真实标签为负类,但模型预测为正类的样本数量。
FN(False Negative):真实标签为正类,但模型预测为负类的样本数量。

  • 准确率acc
    关心模型预测的能力
    a c c = T P + T N T P + F P + F N + T N acc = \frac{TP+TN}{TP+FP+FN+TN} acc=TP+FP+FN+TNTP+TN

  • 精准率pre
    关心模型预测负样本能力
    p r e = T P T P + F P pre = \frac{TP}{TP+FP} pre=TP+FPTP

  • 召回率Recall
    关心模型预测正样本的能力
    r e c a l l = T P T P + F N recall = \frac{TP}{TP+FN} recall=TP+FNTP

http://www.wangmingla.cn/news/91886.html

相关文章:

  • 新闻静态网站咋做搜索引擎外部链接优化
  • 小迪网站建设山东济南最新事件
  • 给公司做网站需要什么广州网站seo公司
  • notepad做网站网络营销站点推广的方法
  • 超链接对做网站重要吗百度快照查询入口
  • 嘉兴高端网站建设网站的宣传推广方式
  • c语言做的网站衡阳seo
  • wordpress 文章点击数西安seo站内优化
  • 人民日报客户端是什么seo怎么才能做好
  • 国外的有趣设计网站关键词优化举例
  • visual studio 2010 网站开发教程高级搜索
  • 小城镇建设网站答案网络科技公司网站建设
  • 网站关键词如何部署外贸找客户有什么网站
  • 贵州最新新闻京东关键词优化技巧
  • wordpress 模板 设置网站seo查询站长之家
  • 网站建设 亿安网络线上营销工具
  • 网站维护协议seo如何优化网站推广
  • 建设部职称证书查询官方网站舆情信息怎么写
  • 网站美工设计收费互联网营销策划
  • 用jsp做的网站的代码整站优化关键词推广
  • 电子商务网站建设新闻百度搜索资源平台提交
  • 外贸电商做俄罗斯市场网站企业seo优化服务
  • 武汉万网站制作 费用seo网站优化知识
  • 网络公司网站建设彩铃样本引流推广平台
  • 设计企业品牌网站深圳百度关键
  • 徐汇科技网站建设互联网平台有哪些
  • 网站宽度多少合适微信营销系统
  • 高效网站推广费用线上推广是什么意思
  • 建网站需要什么服务器学企业管理培训班
  • 有专门为个人网站做推广的吗营销推广软文案例