设为首页收藏本站

LUPA开源社区

 找回密码
 注册
文章 帖子 博客
LUPA开源社区 首页 开源热点 查看内容

LUPA开源周刊:Linux Kernel 5.0发布 Java/JDK 13新特性

2019-3-11 19:55| 发布者: joejoe0332| 查看: 2491| 评论: 0|原作者: LUPA开源社区|来自: LUPA开源社区

摘要: Linux Kernel 5.0正式版发布  Linux Kernel 5.0 正式版发布了,现在主要版本的编号开始从 5 算起,“这不意味着什么,也不会以任何方式影响程序,只会让 Linus 感到高兴”。此版本更新内容包括:对能量感知调度的 ...

  微软宣布在 MIT 许可下开源了 Windows 计算器(Windows Calculator)。Windows Calculator 是一个用 C++ 编写的现代 Windows 应用,其提供了标准、科学和程序员计算器功能,以及各种度量单位和货币之间的一组转换器。


  源码库中包含 Calculator 的源代码、构建系统、单元测试和产品路线图,开发者可以轻松地将 Calculator 逻辑或 UI 集成到自己的应用中。微软表示希望与社区共建,提供更好的体验。

  Windows Calculator 特性包括:标准计算器功能,提供基本操作并在输入时立即评估命令。科学计算器功能,提供扩展操作并使用操作顺序评估命令。程序员计算器功能,为开发人员提供常见的数学运算等操作。计算历史记录和内存功能。更多相关内容,请大家关注本次专辑……

  谷歌开源了一个分布式机器学习库 GPipe,这是一个用于高效训练大规模神经网络模型的库。GPipe 使用同步随机梯度下降和管道并行进行训练,适用于由多个连续层组成的任何 DNN。


  重要的是,GPipe 允许研究人员轻松部署更多加速器来训练更大的模型,并在不调整超参数的情况下扩展性能。开发团队在 Google Cloud TPUv2s 上训练了 AmoebaNet-B,其具有 5.57 亿个模型参数和 480 x 480 的输入图像尺寸。

  该模型在多个流行数据集上表现良好,包括将 single-crop ImageNet 精度推至 84.3%,将 CIFAR-10 精度推至 99%,将 CIFAR-100 精度推至 91.3%。GPipe 可以最大化模型参数的内存分配。

  团队在 Google Cloud TPUv2上进行了实验,每个 TPUv2 都有 8 个加速器核心和 64 GB 内存(每个加速器 8 GB)。如果没有 GPipe,由于内存限制,单个加速器可以训练 8200 万个模型参数。

  由于在反向传播和批量分割中重新计算,GPipe 将中间激活内存从 6.26 GB 减少到 3.46GB,在单个加速器上实现了 3.18 亿个参数。此外,通过管道并行,最大模型大小与预期分区数成正比。更多内容,请关注本次专辑……
 
  近日,阿里开源了其 Flutter 应用框架 Fish Redux。Fish Redux 是一个基于 Redux 数据管理的组装式 Flutter 应用框架,它特别适用于构建中大型的复杂应用。特性包括:函数式编程;可预测的状态容器;可插拔组件化;无损性能……


  Fish Redux 的灵感主要来自于 Redux、Elm 与 Dva 等框架,官方介绍其在这些优秀框架的基础上将集中、分治、复用与隔离做得更进了一步。Fish Redux 的最大特点是配置式组装。

  一方面将一个大的页面,对视图和数据层拆解为互相独立的 Component|Adapter,上层负责组装,下层负责实现;另一方面将 Component|Adapter 拆分为 View、Reducer、Effect 等相互独立的上下文无关函数。所以它会非常干净,易维护,易协作。


酷毙

雷人

鲜花

鸡蛋

漂亮
  • 快毕业了,没工作经验,
    找份工作好难啊?
    赶紧去人才芯片公司磨练吧!!

最新评论

关于LUPA|人才芯片工程|人才招聘|LUPA认证|LUPA教育|LUPA开源社区 ( 浙B2-20090187  

返回顶部