Sign in
Sign up
Explore
Enterprise
Education
Search
Help
Terms of use
About Us
Explore
Enterprise
Education
Gitee Premium
Gitee AI
AI teammates
Sign in
Sign up
Fetch the repository succeeded.
description of repo status
Open Source
>
AI/ML
>
Machine Learning/Deep Learning
&&
Donate
Please sign in before you donate.
Cancel
Sign in
Scan WeChat QR to Pay
Cancel
Complete
Prompt
Switch to Alipay.
OK
Cancel
Watch
Unwatch
Watching
Releases Only
Ignoring
89
Star
657
Fork
1.5K
Ascend
/
pytorch
Paused
Code
Issues
41
Pull Requests
350
Wiki
Insights
Pipelines
Service
Quality Analysis
Jenkins for Gitee
Tencent CloudBase
Tencent Cloud Serverless
悬镜安全
Aliyun SAE
Codeblitz
SBOM
Don’t show this again
Releases
Latest
v7.1.0.2-pytorch2.5.1
31c6152
2025-09-09 19:37
Compare
release v7.1.0.2-pytorch2.5.1
shaoyf
基于V7.1.0-pytorch2.5.1修复部分场景问题
Last committed message:
!24139
[bugfix] resolve deadlock and device inconsistent problem.
v7.1.0.2-pytorch2.6.0
eef1d5a
2025-09-09 19:37
Compare
release v7.1.0.2-pytorch2.6.0
shaoyf
基于V7.1.0-pytorch2.6.0修复部分场景问题
Last committed message:
!24140
[bugfix] resolve deadlock and device inconsistent problem.
v7.1.0.2-pytorch2.1.0
ef59fd4
2025-09-09 19:33
Compare
release v7.1.0.2-pytorch2.1.0
shaoyf
基于V7.1.0-pytorch2.1.0修复部分场景问题
Last committed message:
!24138
[bugfix] resolve deadlock and device inconsistent problem.
Preview version
v7.0.0.1-pytorch2.4.0
3788e4f
2025-08-20 21:23
Compare
release v7.0.0.1-pytorch2.4.0
shaoyf
基于v7.0.0-pytorch2.4.0修复部分软件问题
Last committed message:
!24031
modify verison
Preview version
v7.0.0.1-pytorch2.1.0
76913c9
2025-08-20 20:51
Compare
release v7.0.0.1-pytorch2.1.0
shaoyf
基于v7.0.0-python2.1.0版本修复部分软件问题
Last committed message:
!24045
[bugfix] resolve deadlock and device inconsistent problem.
Preview version
v7.2.RC1.alpha001-pytorch2.8.0
090d1a0
2025-08-12 11:50
Compare
v7.2.RC1.alpha001-pytorch2.8.0
dilililiwhy
• PyTorch 2.8.0适配预览版本(非正式版本),继承2.7.1特性,基于PrivateUse1特性,支持eager模式分布式、混合精度训练等基础能力 • 新增部分API支持及特性支持,暂未支持inductor相关功能 • 配套CANN 8.3.RC1.alpha001:https://www.hiascend.com/developer/download/community/result?module=cann
Last committed message:
!23695
[torch_2.8.0] 修复单CPU场景PROF文件权限校验
v7.1.0.1-pytorch2.6.0
ac3b116
2025-08-04 17:49
Compare
release v7.1.0.1-pytorch2.6.0
shaoyf
Bugfix • 修复自定义算子包与CANN中算子同名导致调用算子不正确的问题
Last committed message:
!23555
update post to 2.6.0.post1
v7.1.0.1-pytorch2.5.1
2cffa3e
2025-08-04 17:48
Compare
release v7.1.0.1-pytorch2.5.1
shaoyf
Bugfix • 修复自定义算子包与CANN中算子同名导致调用算子不正确的问题
Last committed message:
!23554
update post to 2.5.1.post2
v7.1.0.1-pytorch2.1.0
ed4c514
2025-08-04 15:30
Compare
release v7.1.0.1-pytorch2.1.0
shaoyf
Bugfix • 修复自定义算子包与CANN中算子同名导致调用算子不正确的问题
Last committed message:
!23553
update post to 14
v7.1.0-pytorch2.6.0
41d2476
2025-07-23 18:22
Compare
release v7.1.0-pytorch2.6.0
shaoyf
一.新增说明 新增特性 • Ascend Extension for PyTorch flight recorder支持PyTorch2.6.0版本 • Ascend Extension for PyTorch 新增支持aclgraph特性,降低CPU下发耗时 • Ascend Extension for PyTorch 增强Parallel Store,优化TCP Store性能 • Ascend Extension for PyTorch 内存快照新增支持获取aarch64架构的C++调用栈 二.删除说明 无 三. 变更说明 1.接口变更说明 • 环境变量“P2P_HCCL_BUFFSIZE”默认值变更为20,单位MB,该变动可能会导致以下两个问题: - 若升级后出现oom,可在模型脚本中将此变量设置为0 - 若之前未对p2p创建独立通信域,配置该环境变量后,会对p2p创建独立的通信域,若模型侧存在send/recv下发间隔时间长的场景,可能会出现超时,此时需要将HCCL_CONNECT_TIMEOUT的时间配置得更长,推荐配置值为600s,具体需根据模型脚本设置 • 自定义算子torch_npu.npu_grouped_matmul入参要求变更,group_list为Tensor类型时,入参group_type需要显示传入 • 新增torch.npu.NPUGraph等接口支持aclgraph特性 • 新增支持torch.logit原生接口、新增torch_npu.utils.set_thread_affinity等自定义接口 四. 已知问题 无 五. 特殊声明 • 虚拟内存与单进程多卡需要在Ascend HDK 24.1.RC3以上的版本才能直接使用,其他版本不能共同使用
Last committed message:
!23287
Update op_plugin commit id
v7.1.0-pytorch2.5.1
5f020c4
2025-07-23 18:19
Compare
release v7.1.0-pytorch2.5.1
shaoyf
一.新增说明 新增特性 • Ascend Extension for PyTorch 新增支持aclgraph特性,降低CPU下发耗时 • Ascend Extension for PyTorch 增强Parallel Store,优化TCP Store性能 • Ascend Extension for PyTorch 内存快照新增支持获取aarch64架构的C++调用栈 二.删除说明 无 三. 变更说明 1.接口变更说明 • 环境变量“P2P_HCCL_BUFFSIZE”默认值变更为20,单位MB,该变动可能会导致以下两个问题: - 若升级后出现oom,可在模型脚本中将此变量设置为0 - 若之前未对p2p创建独立通信域,配置该环境变量后,会对p2p创建独立的通信域,若模型侧存在send/recv下发间隔时间长的场景,可能会出现超时,此时需要将HCCL_CONNECT_TIMEOUT的时间配置得更长,推荐配置值为600s,具体需根据模型脚本设置 • 自定义算子torch_npu.npu_grouped_matmul入参要求变更,group_list为Tensor类型时,入参group_type需要显示传入 • 新增torch.npu.NPUGraph等接口支持aclgraph特性 • 新增支持torch.logit原生接口、新增torch_npu.utils.set_thread_affinity等自定义接口 四. 已知问题 无 五. 特殊声明 • 虚拟内存与单进程多卡需要在Ascend HDK 24.1.RC3以上的版本才能直接使用,其他版本不能共同使用
Last committed message:
!23288
Update op_plugin commit id
v7.1.0-pytorch2.1.0
b9b202a
2025-07-23 18:16
Compare
release v7.1.0-pytorch2.1.0
shaoyf
一.新增说明 新增特性 • Ascend Extension for PyTorch 新增支持aclgraph特性,降低CPU下发耗时 • Ascend Extension for PyTorch 增强Parallel Store,优化TCP Store性能 • Ascend Extension for PyTorch 内存快照新增支持获取aarch64架构的C++调用栈 二.删除说明 无 三. 变更说明 1.接口变更说明 • 环境变量“P2P_HCCL_BUFFSIZE”默认值变更为20,单位MB,该变动可能会导致以下两个问题: - 若升级后出现oom,可在模型脚本中将此变量设置为0 - 若之前未对p2p创建独立通信域,配置该环境变量后,会对p2p创建独立的通信域,若模型侧存在send/recv下发间隔时间长的场景,可能会出现超时,此时需要将HCCL_CONNECT_TIMEOUT的时间配置得更长,推荐配置值为600s,具体需根据模型脚本设置 • 自定义算子torch_npu.npu_grouped_matmul入参要求变更,group_list为Tensor类型时,入参group_type需要显示传入 • 新增torch.npu.NPUGraph等接口支持aclgraph特性 • 新增支持torch.logit原生接口、新增torch_npu.utils.set_thread_affinity等自定义接口 四. 已知问题 无 五. 特殊声明 • 虚拟内存与单进程多卡需要在Ascend HDK 24.1.RC3以上的版本才能直接使用,其他版本不能共同使用
Last committed message:
!23286
Update op_plugin commit id
Preview version
v7.1.RC1.alpha002-pytorch2.7.1
d33df55
2025-06-10 17:57
Compare
v7.1.RC1.alpha002-pytorch2.7.1
dilililiwhy
• PyTorch 2.7.1适配预览版本(非正式版本),继承2.6.0特性,基于PrivateUse1特性,支持eager模式分布式、混合精度训练等基础能力 • 新增部分API支持及特性支持,暂未支持inductor相关功能,跟随社区切换为支持manylinux_2_28_x86_64 • 配套CANN 8.2.RC1.alpha002:https://www.hiascend.com/developer/download/community/result?module=cann
Last committed message:
!21657
Update op_plugin commit id
v6.0.0.1-pytorch2.4.0
38dc4ee
2025-05-06 22:30
Compare
release v6.0.0.1-pytorch2.4.0
shaoyf
Bugfix • 本版本修复CVE-2025-32434漏洞 • 修复TASK_QUEUE_ENABLE=2时在部分场景内存被提前释放问题 • 修复_upsample_nearest_exact3d/_upsample_nearest_exac2d/_upsample_nearest_exact1d接口不兼容8.0.RC3 CANN版本的问题
Last committed message:
!20642
Add notice about legacy_load
v6.0.0.1-pytorch2.3.1
c77b8ae
2025-05-06 22:29
Compare
release v6.0.0.1-pytorch2.3.1
shaoyf
Bugfix • 本版本修复CVE-2025-32434漏洞 • 修复TASK_QUEUE_ENABLE=2时在部分场景内存被提前释放问题 • 修复_upsample_nearest_exact3d/_upsample_nearest_exac2d/_upsample_nearest_exact1d接口不兼容8.0.RC3 CANN版本的问题
Last committed message:
!20641
Add notice about legacy_load
v6.0.0.1-pytorch2.1.0
2dd1e50
2025-05-06 22:28
Compare
release v6.0.0.1-pytorch2.1.0
shaoyf
Bugfix • 本版本修复CVE-2025-32434漏洞 • 修复TASK_QUEUE_ENABLE=2时在部分场景内存被提前释放问题 • 修复_upsample_nearest_exact3d/_upsample_nearest_exac2d/_upsample_nearest_exact1d接口不兼容8.0.RC3 CANN版本的问题
Last committed message:
!20640
Add notice about legacy_load
Preview version
v7.0.RC1.alpha002-pytorch2.6.0
f8b422e
2025-04-28 11:52
Compare
v7.0.RC1.alpha002-pytorch2.6.0
dilililiwhy
• PyTorch 2.6.0适配预览版本(非正式版本),继承2.5.1特性,基于PrivateUse1特性,支持eager模式分布式、混合精度训练等基础能力 • 新增部分API支持及特性支持,暂未支持inductor相关功能,跟随社区切换为支持manylinux_2_28_aarch64 • 配套CANN 8.1.RC1.alpha002:https://www.hiascend.com/developer/download/community/result?module=cann
Last committed message:
!20712
Add OWNERS
v7.0.0-pytorch2.5.1
9e105ea
2025-04-25 17:28
Compare
release v7.0.0-pytorch2.5.1
shaoyf
一.新增说明 1. 新增特性 • Ascend Extension for PyTorch 新增torch_npu_run支持分级tcpstore和建链 • Ascend Extension for PyTorch 新增支持devicemesh,原生allgather和reducescatter接口支持不等长输入输出 • Ascend Extension for PyTorch 新增支持通过pg_options配置hccl通信域参数 • Ascend Extension for PyTorch 支持硬件延时故障感知和恢复 2. 新增二进制包 • Ascend Extension for PyTorch 新增发布abi=1二进制包 二.删除说明 无 三. 变更说明 1.接口变更说明 • 新增npu_cross_entropy_loss、npu_advance_step_flashattn和npu_group_norm_swish等自定义算子API;npu_rotary_mul新增支持rotary_mode入参 四. 已知问题 无 五. Bugfix • 修复AllGather入参为empty超时报错问题 • 修复HCCL_EVENT_TIMEOUT配置为0,op wait无法永不超时问题 • 修复alltoall算子临时tensor未释放内存上涨问题 六. 特殊声明 • 虚拟内存与单进程多卡需要在Ascend HDK 24.1.RC3以上的版本才能直接使用,其他版本不能共同使用 • 本版本修复CVE-2025-32434漏洞
Last committed message:
!20667
update torchair commitid 2.5.1
v7.0.0-pytorch2.4.0
6bcd427
2025-04-25 17:18
Compare
release v7.0.0-pytorch2.4.0
shaoyf
一.新增说明 1. 新增特性 • Ascend Extension for PyTorch 新增torch_npu_run支持分级tcpstore和建链 • Ascend Extension for PyTorch 新增支持devicemesh,原生allgather和reducescatter接口支持不等长输入输出 • Ascend Extension for PyTorch 新增支持通过pg_options配置hccl通信域参数 • Ascend Extension for PyTorch 支持硬件延时故障感知和恢复 2. 新增二进制包 • Ascend Extension for PyTorch 新增发布abi=1二进制包 二.删除说明 无 三. 变更说明 1.接口变更说明 • 新增npu_cross_entropy_loss、npu_advance_step_flashattn和npu_group_norm_swish等自定义算子API;npu_rotary_mul新增支持rotary_mode入参 四. 已知问题 无 五. Bugfix • 修复AllGather入参为empty超时报错问题 • 修复HCCL_EVENT_TIMEOUT配置为0,op wait无法永不超时问题 • 修复alltoall算子临时tensor未释放内存上涨问题 六. 特殊声明 • 虚拟内存与单进程多卡需要在Ascend HDK 24.1.RC3以上的版本才能直接使用,其他版本不能共同使用 • 本版本修复CVE-2025-32434漏洞
Last committed message:
!20669
update torchair commitid 2.4.0
v7.0.0-pytorch2.3.1
eb3b35e
2025-04-25 17:10
Compare
release v7.0.0-pytorch2.3.1
shaoyf
一.新增说明 1. 新增特性 • Ascend Extension for PyTorch 新增torch_npu_run支持分级tcpstore和建链 • Ascend Extension for PyTorch 新增支持devicemesh,原生allgather和reducescatter接口支持不等长输入输出 • Ascend Extension for PyTorch 新增支持通过pg_options配置hccl通信域参数 • Ascend Extension for PyTorch 支持硬件延时故障感知和恢复 2. 新增二进制包 • Ascend Extension for PyTorch 新增发布abi=1二进制包 二.删除说明 无 三. 变更说明 1.接口变更说明 • 新增npu_cross_entropy_loss、npu_advance_step_flashattn和npu_group_norm_swish等自定义算子API;npu_rotary_mul新增支持rotary_mode入参 四. 已知问题 无 五. Bugfix • 修复AllGather入参为empty超时报错问题 • 修复HCCL_EVENT_TIMEOUT配置为0,op wait无法永不超时问题 • 修复alltoall算子临时tensor未释放内存上涨问题 六. 特殊声明 • 虚拟内存与单进程多卡需要在Ascend HDK 24.1.RC3以上的版本才能直接使用,其他版本不能共同使用 • 本版本修复CVE-2025-32434漏洞
Last committed message:
!20668
update torchair commitid 2.3.1
Download
To prevent Robot download, Please enter the captcha to continue
Cancel
Download
Python
1
https://gitee.com/ascend/pytorch.git
[email protected]
:ascend/pytorch.git
ascend
pytorch
pytorch
Going to Help Center
Search
Git 命令在线学习
如何在 Gitee 导入 GitHub 仓库
Git 仓库基础操作
企业版和社区版功能对比
SSH 公钥设置
如何处理代码冲突
仓库体积过大,如何减小?
如何找回被删除的仓库数据
Gitee 产品配额说明
GitHub仓库快速导入Gitee及同步更新
什么是 Release(发行版)
将 PHP 项目自动发布到 packagist.org
Repository Report
Back to the top
Login prompt
This operation requires login to the code cloud account. Please log in before operating.
Go to login
No account. Register