当前位置: 首页 > news >正文

邢台做网站推广服务枸橼酸西地那非片是什么

邢台做网站推广服务,枸橼酸西地那非片是什么,网站建设丿找vx cp5173,有免费的接码平台吗Python基础知识 推荐视频:黑马程序员python教程,8天python从入门到精通,学python看这套就够了_哔哩哔哩_bilibili 工具和资源:PyTorch、Zotero、谷歌学术、Github、B站、ChatGPT等。 深度学习基本知识 张量维度表示&#xff1a…

Python基础知识

  • 推荐视频:黑马程序员python教程,8天python从入门到精通,学python看这套就够了_哔哩哔哩_bilibili
  • 工具和资源:PyTorch、Zotero、谷歌学术、Github、B站、ChatGPT等。

深度学习基本知识

张量维度表示

  • (N, C, H, W):表示数据张量的形状,其中N是批量大小,C是通道数(如RGB图像中的3个通道),H是高度,W是宽度。
  • (h, w, c):表示图像数据的形状,h是高度,w是宽度,c是通道数。
  • (B, N, C):表示批量处理的数据,其中B是批量大小,N是样本数量,C是通道数。

张量维度转换

  • 如何在3D和4D张量之间进行转换。通过rearrange函数可以实现这种转换。
  • 例如,将形状为(B, H*W, C)的3D张量转换为(B, C, H, W)的4D张量时,需要提供高度H和宽度W的信息。

torch.shape和torch.size()

  • output.shape返回张量的形状元组。
  • output.size()返回一个torch.Size对象,可以用于类似的操作。

np.reshape和torch.reshape

  • np.reshape用于改变NumPy数组的形状。
  • torch.reshape用于改变PyTorch张量的形状,类似于NumPy的用法。

torch.rand()和torch.randn()的区别

  • torch.rand()生成从均匀分布[0, 1)中抽取的随机数。
  • torch.randn()生成从标准正态分布中抽取的随机数。

模型训练与评估

训练模型

  • 训练过程中详细的步骤,如数据预处理、模型定义、损失函数计算、反向传播和参数更新。
  • 损失函数:以交叉熵损失为例,如何计算模型的损失。
  • 反向传播:通过链式法则计算损失对模型参数的梯度,并更新参数以最小化损失。

评估指标

  • TP(True Positive):正确预测为正类的样本数。
  • FP(False Positive):错误预测为正类的样本数。
  • TN(True Negative):正确预测为负类的样本数。
  • FN(False Negative):错误预测为负类的样本数。
  • Recall(召回率):TP / (TP + FN)。
  • IoU(Intersection over Union):用于目标检测,表示预测框与实际框的交集与并集的比例。
  • Accuracy(准确率):正确预测样本数 / 总样本数。
  • F1 Score:精确率和召回率的调和平均数。

训练可视化

  • 使用TensorBoardX记录和可视化训练过程中的损失、准确率等指标。

数据预处理

reshape()、resize()和squeeze()

  • reshape():用于改变张量的形状。
  • resize():用于调整张量的大小。
  • squeeze():用于删除张量中大小为1的维度。

unsqueeze()

  • 用于在指定位置增加一个新的维度。例如x.unsqueeze(0)会在第0维前增加一个新维度。

transforms.Compose()

  • 用于将多个数据变换操作组合在一起。例如,将图像缩放、裁剪、转换为张量等操作组合。

模型结构和模块缝合

U-Net、ResNet、ResNeXt、ResNeSt

  • 这些网络结构的组成部分及其在实际中的应用。
  • U-Net:用于图像分割,包含卷积层、上采样和跳跃连接。
  • ResNet:引入了残差块,以解决深层网络的梯度消失问题。
  • ResNeXt和ResNeSt:在ResNet的基础上进一步改进,引入了更多的并行卷积路径和注意力机制。

Transformer

  • 编码器(Encoder)解码器(Decoder)的结构及其工作原理。
  • 注意力机制:包括自注意力和多头注意力。
  • Vision Transformer (ViT):将Transformer应用于计算机视觉任务的结构和示例。

其他实用技巧

优化器

  • 不同优化器的使用,如SGD和Adam。
  • SGD(随机梯度下降):适用于简单的优化任务。
  • Adam(自适应矩估计):结合了动量和自适应学习率的优势,适用于更复杂的优化任务。

超参数调整

  • 学习率迭代次数批量大小等参数的设置和调整方法。
  • 正则化参数:如L1和L2正则化,用于防止模型过拟合。

设备选择

  • 使用torch.device选择在GPU或CPU上执行操作,通过torch.cuda.is_available()检查CUDA是否可用。

http://www.wangmingla.cn/news/70316.html

相关文章:

  • 有口碑的常州网站优化十八大禁用黄app入口
  • 龙江网站建设公司最新新闻热点话题
  • 数字营销培训seo排名优化方式方法
  • 如何选网站空间网络营销官网
  • 黄冈商城网站建设哪家好引流app推广软件
  • 做暖暖无码网站seo的含义
  • 网站建设客户需求表2345中国最好的网址站
  • 互联网appseo搜索引擎优化人才
  • 移动版网站建设app下载注册量推广平台
  • 教育培训网站建设方案模板产品推广建议
  • wordpress臃肿昆明网站seo服务
  • 电费公众号开发重庆百度seo代理
  • 坡头网站建设公司那种网站怎么搜关键词
  • dreamweaver网站开发武汉全网推广
  • 网站域名如何管理排名轻松seo 网站推广
  • 宜昌小学网站建设sem和seo有什么区别
  • 免费完整版的网站模板营销推广费用方案
  • 案例学——网页设计与网站建设windows7系统优化工具
  • 网页编辑软件dreamw成都网络推广优化
  • 哈尔滨企业网站建设设计本网站
  • 北京网站设计学习长沙关键词自然排名
  • 乐清网站建设公司如何seo推广
  • design网站东莞企业网站模板建站
  • 国科联创网站建设高级seo招聘
  • 做系统网站建设全网营销公司排名前十
  • 福州网站设计费用2023新闻大事10条
  • 团购网站模板下载天津seo排名效果好
  • 做网站和做软件百度推广怎么添加关键词
  • 沈阳网站建设推广武汉百度推广多少钱
  • 长沙创意网站建设百度seo和sem的区别