万象云档 本次搜索耗时 2.353 秒,为您找到 480 个相关结果.
  • Discuz!DeBug模式

    DeBug 模式 面向对象 作用 所需文件 修改配置文件 DeBug 信息解释 DeBug 模式 面向对象 有一定php ,mysql 基础的站长,程序开发者 作用 可以明细的列出当前页面的查询可以具体查询出现的文件,和时间。并且有查询的explain 信息。便于检查哪里出现了慢查询。 可以查看当前页面内存使用情况 可以列出当前页面...
  • 数据加载和处理教程

    数据加载和处理教程 Dataset类 Transforms Compose transforms 迭代整个数据集 后记: torchvision 数据加载和处理教程 译者:@distant1219 校对者:@bringtree 作者 : Sasank Chilamkurthy 在解决机器学习问题时, 我们需要付出很多努力来准...
  • 如何保证消息的可靠性传输?

    如何保证消息的可靠性传输? 面试题 面试官心理分析 面试题剖析 RabbitMQ 生产者弄丢了数据 RabbitMQ 弄丢了数据 消费端弄丢了数据 Kafka 消费端弄丢了数据 Kafka 弄丢了数据 生产者会不会弄丢数据? RocketMQ 消息丢失的场景 生产者发送消息时如何保证不丢失? MQ 收到消息后写入硬盘如何保证不丢失? ...
  • 4.6.互斥锁

    4.6 互斥锁 概述 基本概念 互斥锁又称互斥型信号量,是一种特殊的二值性信号量,用于实现对共享资源的独占式处理。 任意时刻互斥锁的状态只有两种,开锁或闭锁。当有任务持有时,互斥锁处于闭锁状态,这个任务获得该互斥锁的所有权。当该任务释放它时,该互斥锁被开锁,任务失去该互斥锁的所有权。当一个任务持有互斥锁时,其他任务将不能再对该互...
  • CUDA 语义

    CUDA 语义 内存管理 最佳实践 设备无关代码 使用固定的内存缓冲区 使用 nn.DataParallel 替代 multiprocessing CUDA 语义 译者:@Chris 校对者:@Twinkle torch.cuda 被用于设置和运行 CUDA 操作. 它会记录当前选择的 GPU, 并且分配的所有 CUDA 张...
  • 自动求导机制

    自动求导机制 向后排除子视图: requires_grad autograd 如何编码历史信息: Variable 上的 In-place 操作: In-place 正确性检测: 译者署名 自动求导机制 从后向中排除子图 requires_grad volatile 自动求导如何编码历史信息 Variable 上的 In-pl...
  • Task Runner 部署

    1 服务端部署 Task Runner 2 本地部署 Task Runner ¶ 2.1 Windows 环境 2.2 Mac 环境 1 服务端部署 Task Runner 部署服务器要求 操作系统:Ubuntu 22 / CentOS 7 64 位系统 CPU/内存:2C4G 磁盘空间:50 G # 下载在线安装包并上传到服务器 找...
  • 内存压缩

    内存压缩 77. 概况 78. 启用 内存压缩 77. 概况 内存压缩(A.K.A Accordion)是hbase-2.0.0中的一项新功能。它首先在[Accordion:HBase Breathes with In-Memory Compaction]的Apache HBase博客上引入(https://blogs.apache.org/hb...
  • 自动求导机制

    自动求导机制 从后向中排除子图 requires_grad volatile 自动求导如何编码历史信息 Variable上的In-place操作 In-place正确性检查 自动求导机制 本说明将概述Autograd如何工作并记录操作。了解这些并不是绝对必要的,但我们建议您熟悉它,因为它将帮助您编写更高效,更简洁的程序,并可帮助您进行调...
  • 将分布式DataParallel与分布式 RPC 框架相结合

    将分布式DataParallel 与分布式 RPC 框架相结合 将分布式DataParallel 与分布式 RPC 框架相结合 原文:https://pytorch.org/tutorials/advanced/rpc_ddp_tutorial.html 作者 : Pritam Damania 本教程使用一个简单的示例演示如何将Distr...