万象云档 本次搜索耗时 2.267 秒,为您找到 94 个相关结果.
  • Multiprocessing 包 - torch.multiprocessing

    Multiprocessing 包 - torch.multiprocessing 战略管理 共享 CUDA 张量 共享策略 文件描述符 -file_descripor 文件系统 -file_system 译者署名 Multiprocessing 包 - torch.multiprocessing 战略管理 共享 CUDA 张量 共...
  • 常见问题

    常见问题 我的模型报告 “cuda runtime error(2): out of memory” 我的 GPU 内存没有正确释放 我的多个数据加载器返回相同的随机数 我的回归网络不能使用数据并行 译者署名 常见问题 我的模型报告 “cuda runtime error(2): out of memory” 如错误消息所示,您的GPU 上...
  • 分布式通讯包 - torch.distributed

    分布式通讯包 - torch.distributed 基本 初始化 torch.distributed.init_process_group(backend, init_method=’env://‘, kwargs) torch.distributed.get_rank() torch.distributed.get_world_size() TC...
  • torch.Tensor

    torch.Tensor abs() abs_() acos() acos_() add(value) add_(value) addbmm(beta=1, mat, alpha=1, batch1, batch2) addbmm_(beta=1, mat, alpha=1, batch1, batch2) addcdiv(value=1, ...
  • 自动求导机制

    自动求导机制 向后排除子视图: requires_grad autograd 如何编码历史信息: Variable 上的 In-place 操作: In-place 正确性检测: 译者署名 自动求导机制 从后向中排除子图 requires_grad volatile 自动求导如何编码历史信息 Variable 上的 In-pl...
  • 扩展 PyTorch

    扩展 PyTorch 扩展 torch.autograd 扩展 torch.nn 增加一个Module 。 编写自定义的 C 扩展 译者署名 扩展 PyTorch 扩展 torch.autograd 扩展 torch.nn 增加 Module 编写自定义 C 扩展 本篇文章中包含如何扩展torch.nn ,torch.auto...
  • 多进程最佳实践

    多进程最佳实践 一、CUDA 张量的共享 1、避免和防止死锁 2、重用通过队列发送的缓冲区 3、异步多进程训练(如: Hogwild) 4、Hogwild 译者署名 多进程最佳实践 CUDA 张量的共享 最佳实践和技巧 避免和防止死锁 重用通过队列发送的缓冲区 异步多进程训练 hogwild torch.multipro...
  • torch.utils.cpp_extension

    torch.utils.cpp_extension torch.utils.cpp_extension.CppExtension(name, sources, args, *kwargs) torch.utils.cpp_extension.CUDAExtension(name, sources, args, *kwargs) torch.utils.c...
  • torchvision.datasets

    torchvision.datasets MNIST COCO LSUN ImageFolder Imagenet-12 CIFAR STL10 SVHN PhotoTour 译者署名 torchvision.datasets torchvision.datasets 中包含了以下数据集 MNIST COCO(用于图像标注和目...
  • 问学

    160 2025-06-06 《呻吟语》
    问学 问学 学必相讲而后明,讲必相宜而后尽。孔门师友不厌穷问极言,不相然诺承顺,所谓审问明辨也。故当其时,道学大明,如拨云披雾,白日青天,无纤毫障蔽。讲学须要如此,无坚自是之心,恶人相直也。 熟思审处,此四字德业之首务;锐意极力,此四字德业之要务;有渐无已,此四字德业之成务;深忧过计,此四字德业之终务。 静是个见道的妙诀,只在静处潜观,六合中动的机...