[置顶] ESXI tips [标签]
[置顶] OpenR on NCS5500 [标签] ,
[置顶] MacOS Tips [标签]
[置顶] Linux/Unix tips [标签]
[置顶] Multicast – mVPN [标签]
[置顶] SecureCRT 技巧总结 [标签]

Building NCASE M2 ITX and Optimize Cooling and Performance

背景

经过几个月断断续续的研究,购买设备,搭建,以及优化……终于在最近完成了我人生中第一台ITX小机箱的部署。开始时本想用视频记录下所有搭建过程,但发现还是太麻烦,索性还是通过Blog的方式进行记录,方便自己随时查阅,也供有缘人参考。

我上一个PC是2017年更新的,其中也断断续续升级过部分配件。到目前也差不多8年了。显卡着实跟不上时代,我用RTX1066 打通了很多非常不错的游戏,如用CEMU模拟的塞尔达荒野之息,配合Meta Quest2串流的VR顶流Alex,以及去年属于我们自己的3A大作黑神话悟空,虽然1066输出的画质一言难尽,但仍然使我充满快乐和满足,游戏是电脑迭代更新的第一个理由。另外最近几年AI很火,由于工作的性质,需要持续关注AI相关技术,包括但不限于如集合通信对网络的影响。所以能够进行简单的训练和推理就成为我电脑迭代升级的另一个理由。在更换PC之前,我其实是想选择Mac Studio M4 Max,但拿到后发现游戏要层层转移,问题不断;Github上跟AI相关的开源项目大部分都是基于Nvidia,Mac也就只能跑跑模型(真要跑训练,要改的东西较多),我测试过M4 Max/128GB的模型推理能力,确实还可以,但也就这样了,128GB的统一内存也没法搞定满血R1。因此最终还是退掉了,Apple的服务值得👍🏻,建议还是不要冲动消费。

完整阅读

开源模型部署验证

本机跑Ollma很容易,分开跑同样很容易 ~ 也就是如下Topology:

MacBook pro(web) ——– (openwebui)synology 918+ ——–(ollama)MacStudio

为什么这么繁琐,主要是不想在Mac上安装docker,另外也不想把openwebui直接安装到host上,正好利用这种方式测试下交互,所以才有了这篇文章

Ollama设置 – Mac Studio

创建 launchd 配置文件

在下面文件夹中增加一个配置文件,默认应该没有这个文件夹,我是安装过NAS的drive应用,所以就不用新建了。确保ollama路径是正确的,通过which命令验证,以及打开局域网访问OLLAMA_HOST 0.0.0.0:

yong@yongdeMac-Studio ~ % more ~/Library/LaunchAgents/com.ollama.ollama.plist
<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
    <key>Label</key>
    <string>com.ollama.ollama</string>
    <key>ProgramArguments</key>
    <array>
        <string>/usr/local/bin/ollama</string>
        <string>serve</string>
    </array>
    <key>RunAtLoad</key>
    <true/>
    <key>KeepAlive</key>
    <true/>
    <key>EnvironmentVariables</key>
    <dict>
        <key>OLLAMA_HOST</key>
        <string>0.0.0.0</string>
    </dict>
    <key>StandardOutPath</key>
    <string>/tmp/ollama.log</string>
    <key>StandardErrorPath</key>
    <string>/tmp/ollama.err</string>
</dict>
</plist>
yong@yongdeMac-Studio ~ % which ollama
/usr/local/bin/ollama

加载并启用服务

完整阅读

论文总结:Alibaba HPN: A Data Center Network for Large Language Model Training

之前看完论文就完事了,过了一段时间后,很多细节就会忘记,需要重新看一遍……之前的兄弟习惯很好,看完会总结,忘记就看总结。所以趁着最近阿里发布的最新论文,我也总结下,为了以后复习用。

这篇论文写的很好,讲了很多阿里HPN的基础设施及架构细节,虽然不是全部,但也包含了大部分的内容,很难得。去堆叠部分我没写进去,这个在国内互联网已经很熟了,但目前看国外的互联网以及OCP上,还在讨论如何简化堆叠的双上联问题。论文也提到微软在2023年通过SmartNIC(w/ FPGA)来实现双活。

论文原文:

拓扑

DCN+拓扑

按照论文的说法,HPN是针对之前阿里DCN+架构进行优化演进而来的,DCN+是传统的3层CLOS架构(根据去年阿里发布灵骏的相关文章,架构应该不是这样的,应该更偏向HPN,架构从实践中演进~ ?):

完整阅读

使用ChatGPT协助写测试脚本?!

背景

之前一直看到有人谈论用Chatgpt编程序,设计产品,做游戏,反正很神就是了。在我使用过程中,并没有感觉那么神,也许是提示字给的不标准吧。最近正好有个机会,需要搞一个All2all的测试脚本,可自动化提供大规模All2All的测试任务。因此就测试了下GPT的能力。

目前用的是最新版本GPT4o(自行花了20美金),整体使用下来,GPT确实可以协助编程,只是沟通起来比较费劲和费时间……如果真正要搞一个项目,就不太现实了。估计还要再迭代几轮吧。即使是最牛的GPT4o,在沟通交互中,仍然会有以下问题:

  • 强调过的内容,可能要重复说3-4遍,GPT才真的听进去了,但过了几轮后可能就又忘记了,比如”不着急出优化代码,先讨论问题“;
  • 为了提升效率,对于一些小优化,其实可以提供代码片段,但GPT有时候提供的片段跟代码本身没有强联系;
  • 为了排障,在脚本中增加了一些提示信息(增加执行log)。后面随着不断迭代优化,就会发现有些功能消失了。这种现象很明显,很可能会遇到之前解决过的问题再次出现……
完整阅读

NVSwitch/NVLink Interconnect

作为一个网工,每次查看Nvidia NVSwitch/NVLink的转发性能,都需要做两件事:1. NVLink和Serdes之间的映射关系;2. 把性能指标从存储的双向转发视角转换成单向转发,着实麻烦。再加上不同世代的GPU与NVLink/NVSwitch互联方案又有些不同,所以本篇就从网工的视角梳理下NVS3和NVS4以及后续NVS与不同世代GPU互联时的能力及方案,方便日后查阅。

NVS Compare

首先看下NVS不同版本间的参数对比:

NVS VerNVS3NVS4NVS5
Transistors25.1B / TSMC 4N50B / TSMC 4NP
Die Size294mm2
Pacakage50mm x 50mm (2645 balls)
NVLlink VerNVLink4NVLINK5NVLINK6
SerDes112Gbps/PAM4224Gbps/PAM4224Gbps/PAM4
Per NVLink200Gbps(2 x 112Gbps)400Gbps(2 x 224Gbps)800Gbps(4 x 224Gbps)
Total NVLinks647272
Throughput12.8Tbps28.8Tbps57.6Tbps
NVLinks/GPU18 x 200 = 3.6Tbps
(3.6 x 2) / 8 = 900GB
18 x 400 = 7.2Tbps
(7.2 x 2) / 8 = 1.8TB
18 x 800 = 14.4Tbps
(14.4 x 2) / 8 = 3.6TB
完整阅读
blonde teen swallows load.xxx videos