Pytorch疑难小实验:Torch.max() Torch.min()在不同维度上的解释

简介: Pytorch疑难小实验:Torch.max() Torch.min()在不同维度上的解释
import torch
torch.manual_seed(2)
Tensor_data = torch.rand((3,3,3))
print(Tensor_data)
enc_opt0_min = Tensor_data.min(dim=0)[0].unsqueeze(2) #取最小值张量 索引舍弃
print("min:",enc_opt0_min)
enc_opt0_max = Tensor_data.max(dim=0)[0].unsqueeze(2)
print("max:",enc_opt0_max)


tensor([[[0.6147, 0.3810, 0.6371],
         [0.4745, 0.7136, 0.6190],
         [0.4425, 0.0958, 0.6142]],
        [[0.0573, 0.5657, 0.5332],
         [0.3901, 0.9088, 0.5334],
         [0.7073, 0.7116, 0.2050]],
        [[0.3078, 0.9809, 0.0103],
         [0.4660, 0.4604, 0.8547],
         [0.4525, 0.6317, 0.4760]]])
min: tensor([[[0.0573],[0.3810],[0.0103]],
      [[0.3901],[0.4604],[0.5334]],
      [[0.4425],[0.0958],[0.2050]]])
max: tensor([[[0.6147],[0.9809],[0.6371]],
          [[0.4745], [0.9088],[0.8547]],
          [[0.7073],[0.7116],[0.6142]]])


import torch
torch.manual_seed(2)
Tensor_data = torch.rand((3,3,3))
print(Tensor_data)
enc_opt0_min = Tensor_data.min(dim=1)[0].unsqueeze(2) #取最小值张量 索引舍弃
print("min:",enc_opt0_min)
enc_opt0_max = Tensor_data.max(dim=1)[0].unsqueeze(2)
print("max:",enc_opt0_max)


tensor([[[0.6147, 0.3810, 0.6371],
         [0.4745, 0.7136, 0.6190],
         [0.4425, 0.0958, 0.6142]],
        [[0.0573, 0.5657, 0.5332],
         [0.3901, 0.9088, 0.5334],
         [0.7073, 0.7116, 0.2050]],
        [[0.3078, 0.9809, 0.0103],
         [0.4660, 0.4604, 0.8547],
         [0.4525, 0.6317, 0.4760]]])
min: tensor([[[0.4425],[0.0958],[0.6142]],
      [[0.0573],[0.5657],[0.2050]],
      [[0.3078], [0.4604],[0.0103]]])
max: tensor([[[0.6147],[0.7136],[0.6371]],
      [[0.7073],[0.9088],[0.5334]],
      [[0.4660],[0.9809],[0.8547]]])


import torch
torch.manual_seed(2)
Tensor_data = torch.rand((3,3,3))
print(Tensor_data)
enc_opt0_min = Tensor_data.min(dim=2)[0].unsqueeze(2) #取最小值张量 索引舍弃
print("min:",enc_opt0_min)
enc_opt0_max = Tensor_data.max(dim=2)[0].unsqueeze(2)
print("max:",enc_opt0_max)


tensor([[[0.6147, 0.3810, 0.6371],
         [0.4745, 0.7136, 0.6190],
         [0.4425, 0.0958, 0.6142]],
        [[0.0573, 0.5657, 0.5332],
         [0.3901, 0.9088, 0.5334],
         [0.7073, 0.7116, 0.2050]],
        [[0.3078, 0.9809, 0.0103],
         [0.4660, 0.4604, 0.8547],
         [0.4525, 0.6317, 0.4760]]])
min: tensor([[[0.3810],[0.4745],[0.0958]],
      [[0.0573],[0.3901],[0.2050]],
      [[0.0103],[0.4604],[0.4525]]])
max: tensor([[[0.6371],[0.7136],[0.6142]],
      [[0.5657],[0.9088],[0.7116]],
      [[0.9809],[0.8547],[0.6317]]])
目录
相关文章
|
机器学习/深度学习 自然语言处理 PyTorch
【深度学习】实验12 使用PyTorch训练模型
【深度学习】实验12 使用PyTorch训练模型
274 0
|
机器学习/深度学习 算法 PyTorch
【深度学习】实验16 使用CNN完成MNIST手写体识别(PyTorch)
【深度学习】实验16 使用CNN完成MNIST手写体识别(PyTorch)
400 0
|
机器学习/深度学习 传感器 算法
pytorch实现循环神经网络实验
pytorch实现循环神经网络实验
571 0
|
算法 PyTorch 算法框架/工具
pytorch实现空洞卷积+残差网络实验(torch实现)
pytorch实现空洞卷积+残差网络实验(torch实现)
624 0
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch实现卷积神经网络实验
pytorch实现卷积神经网络实验
428 0
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch实现前馈神经网络实验(手动实现)
pytorch实现前馈神经网络实验(手动实现)
620 0
|
机器学习/深度学习 PyTorch 算法框架/工具
pytorch实现基本的logistic和softmax回归实验(手动+torch)
pytorch实现基本的logistic和softmax回归实验(手动+torch)
556 0
|
PyTorch 算法框架/工具
Pytorch疑难小实验:理解torch.cat()在不同维度下的连接方式
Pytorch疑难小实验:理解torch.cat()在不同维度下的连接方式
402 0
|
7月前
|
机器学习/深度学习 PyTorch API
PyTorch量化感知训练技术:模型压缩与高精度边缘部署实践
本文深入探讨神经网络模型量化技术,重点讲解训练后量化(PTQ)与量化感知训练(QAT)两种主流方法。PTQ通过校准数据集确定量化参数,快速实现模型压缩,但精度损失较大;QAT在训练中引入伪量化操作,使模型适应低精度环境,显著提升量化后性能。文章结合PyTorch实现细节,介绍Eager模式、FX图模式及PyTorch 2导出量化等工具,并分享大语言模型Int4/Int8混合精度实践。最后总结量化最佳策略,包括逐通道量化、混合精度设置及目标硬件适配,助力高效部署深度学习模型。
1251 21
PyTorch量化感知训练技术:模型压缩与高精度边缘部署实践
|
3月前
|
机器学习/深度学习 存储 PyTorch
Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节
Neural ODE将神经网络与微分方程结合,用连续思维建模数据演化,突破传统离散层的限制,实现自适应深度与高效连续学习。
232 3
Neural ODE原理与PyTorch实现:深度学习模型的自适应深度调节

热门文章

最新文章

推荐镜像

更多