說起來因為沒設定封面,works fine for me直接變成封面了
來了個案外案,node-canvas 的 svg 支援有 bug
svg 裡用 image 塞另一張 svg 會壞掉
那東西感覺 claude pro 可以一發燒完...
那個架構問題我自己都沒啥好想法
我發現 webp 下載再上船也會變 512x512...
對了,看起來用原本的指令船才不會被強行padding 成512x512
現在就等 server 刷新成沒 padding 的版本了
因為上下必須有,所以當初就乾脆弄成上下左右 padding 一樣了
字會隨機變大變小的badge根本不像badge 啊
第一個看起來合理,第二個是被當漢堡包壓扁了嗎?第三個根本糊的
理想上左右我也不想留 padding,然而這是貼圖限制
高度才應該是可變的,邏輯和橫向排列的badge相反
Badge不是設計來垂直排列的的東西也不該遵守這個規則
but 你現在是 sticker 並不是 badge
那就維持比例一致,大小不一致不重要,那是 sticker 先天的缺陷
或者你全部都靠左對齊,然後不足 512px 就右邊填充空白,除非超過 512px
這樣既能維持你每個 badge sticker 的比例和大小又能滿足需求
不然這啥狗幹對齊方式,誰家 badge 這樣排列的
Repo加個text-align center就有了
說過了, 沒 壞 ,字一樣高是by design,你的設計爛得要死,有意見自己開一包
不過當初到底是啥版面會爆開所以加垂直 padding 的,ios還web嗎
那還好啊,那不是很正常嗎,我一天就過完全部時區了餒
最近嘗試 vibe code 都是先用 chatgpt / gemini 打底
然後用 GLM-5 / Qwen3.5-397B-A17B 來步進
主要還是本地模型的 context window 比較小,需要把工作拆散和經常 compact
我還沒試老黃那個大 context 的 Nemotron 3 Super
codex 只是廢話多還行了,gemini 會突發性失憶啊
他還會突然隨機把 system prompt 當成接下來的指令,有點失智
像是我的 prompt 寫了
如果說輸出給我複製,請 format 成 markdown block
然後他只要對話一長就會突然把 請 format 成 markdown block 當成我剛剛講過的指令
然後就對話到一半冒出個 markdown block
我覺得那應該是模型問題,至今遇過的模型無論大小,我只看過 gemini 會突然這樣失智
最多也就是對話一長忘了 system prompt,突然把 system prompt 當成對話指令簡直莫名其妙
我主要還是做非 coding 工作所以本地模型沒問題
ai395 價格好像也差不多,但 amd 生態系還是差一點
不是,你跑 Tensor Parallel 肯定需要資料交換的,不然你加卡沒有效能提升
Pipeline Parallel 沒搞好優化會生出一堆 pipeline bubble,結果實際用起來效能比 tensor parallel 還差
a770最大的問題就不是硬體,而是不是nvidia
反正我不信gb10能快多少,這東西算力少的要命記憶體頻寬也小
賬面算力當然有,但實際能不能發揮出來又是另外一碼事了
另外 GB10 其實沒閹割,BF16 真有 200+ TFLOPS
就沒人給 A770 寫 Marlin Kernel 之類的東西啊……
有沒有可能,算力到底要不要砍 1/2 其實是 NVIDIA 可以決定的
你知道專業卡上面 FP16 的 matmul 用 FP16/FP32 累加是一樣的算力嗎
你叫一個整機功耗不到300W的東西算力和300W的一樣高
人家 Tensor Core 數量比例和普通卡不一樣啊……
有沒有可能,頻率/功耗和算力之間的關係也不是線性的
我的 4080S 跑到 2.7GHz 用 320W,但 2.4GHz 只要 200W
mxfp4 和 nvfp4 可以 450TFLOPs 喔
說真的好幾台gb10不如一張RTX PRO 6000
雖然算力上是這樣,但一張 RTX Pro 6000 也只有 96GiB
MoE其實直接RAM offload速度都不會差太多
不完全,因為跑 tensor parallel 的時候每個 node 不用存取那麼多 weight
沒有 GPUDirect RDMA 最後會吃到 CPU
有 Server 版的可以開 GPUDirect 吧
我記得 RTX Pro 6000 有 Server 版的可以這樣搞
還好啦 我 INT4 autoround 可以跑到 114t/s 才過熱
正常 concurrency 每個 session 可以 25t/s
RTX Pro 6000 普通版甚至沒有辦法 PCI-E P2P 吧
LPDDR5X 的 On-Die ECC 感覺跟沒有差不多
gb10比較像是個POC環境,讓你驗證東西能在機房跑起來
我比較希望 GB10 能跑正常主線 Linux Kernel 然後跑自己喜歡的發行版
問題是 GPU Driver 那邊不知道有沒有動什麼手腳,能不能進主線
老實說他是 Ubuntu Pro 所以維護方面有老黃和 Canonical 照顧我是不太擔心
而且老黃是送你 Ubuntu Pro subscription 的
DGX OS 好處是已經有驅動和 CUDA Toolkit
我討厭 snap 之類的玩意,很 unorthodox
我有兩台 R730,每台 6x P4
另外加兩台 Spark(還有兩台在送過來)
如果卸載掉 snap 的話也沒 Ubuntu Pro 能用,那我不如直接去用 Debian
Tesla P4 連 Tensor Core 都沒,那當然慢
但是先試試看 4 台過了 VXLAN EVPN 的效能會怎樣
Cisco 可以把 DSCP 從封裝內複製到封裝外(預設行為)
確保對 GB10 端口的 PFC/ECN 打開,然後對 Spine 口的 ECN 打開
我覺得discord難用不是electron造成的
我這邊近期在忙:
1. 搞 UPS(從閒魚買二手的 ITA2 3kVA 型號,然後在臺灣買電池)
2. 搞磁帶機(朋友送我 LTO-5 的,但我自己應該還要買 LTO-6 的機器)
我有一櫃辦公室網路櫃,3kVA 只能撐 45 分鐘...
我家的設備總閒置功耗 500W,配 6x 12V 20Ah 蓄電池大概可以撐一小時
ITA2 還自帶網路孔,可以直接跑 SNMP,不用買選件
inference 其實還好 反正大家都會卡 decode
新那個 Intel Battlematrix 好像也不錯