Jump to...
redirecting...

Log for YSITD

你也來ㄌ
[sticker](media:AAMCAQADHQI9ls-AAAEaQ9BkpEpNahn1g7N6VVQs8O5hJXkoTAACbQIAAiJlQURLxtugrydKjAEAB20AAy8E@telegram)
[sticker](media:AAMCBQADHQI9ls-AAAEaQ9FkpEpfICEgJh8Lt_aQ-u33EztIJQAC8QIAAqxB6FexHw-J0jSxXQEAB20AAy8E@telegram)
這個驗證bot怎麼實現的,有點高級
我也想搞一個在自己的群組(小聲
[sticker](media:AAMCBQADHQI9ls-AAAEaQ9VkpFJfisZC8KzcalATbQtfHskpkgACygIAApGL8gfrwO35KSvBZgEAB20AAy8E@telegram)
好哦,我去搭建一個
厕纸🧻有rate limit吗
沒有 但要支援 Apple Pay
剛開始碰後端開發
有推薦 email 驗證用的服務嗎
可以自備 domain name
rest api 為佳
目前使用 express
其實你可以直接用
那隻黏在dc5旁邊延遲比較低
只是要發信的話sendmail不就行了
好哦
珍惜生命
現在熱的要死
怎麼會是直接下架標的物,而不是直接從後台分析流量然後揪出問題位址?
議題燒起來點閱率刷一波不是很正常
是不是國防布
夠 我要3台
欸欸欸欸欸你不能辣 (#
我要十台,我想玩叢集
我要巨量運算
我還要 VRAM 夠大
我要玩 Stable diffusion
我還要天天產澀圖
[sticker](media:AAMCBQADHQI9ls-AAAEaQ-pkpPJ8TxyOvT1c37M5ULJjmRM_6AAChQcAAnjMqFcpyI34VXx_NwEAB20AAy8E@telegram)
先跑ㄌ (」
您需要 M2 Ultra
192GB RAM 那台
現在他是 ai 界新星呢
就是記憶體速度和 hbm 比遜了
[sticker](media:AAMCAgADHQI9ls-AAAEaQ_BkpPMyzpnHMYCAHq6trlJVmy6CswACRCIAAnQc-Urx47eAypzeUgEAB20AAy8E@telegram)
Apple 那速度是堆 ddr5 通道數出來的
那影片不是被罵爆了嗎
怎麼了
我們說的是同樣一部嗎
林先生的
怎麼了
他說得好像沒什麼問題啊所以我也要
怎麼了
怎麼了
他確實很厲害啊 192G VRAM
如果只要 vram 的話確實沒啥問題
好奇右边改成 4060 的话要塞多少
台灣根本買不到 我好想買一台M2 Mac Studio
全世界都上了但台灣被NCC 的6E 卡
[sticker](media:AAMCAgADHQI9ls-AAAEaRAFkpPUIDA6zPxuAPDmtim9V2nAu4AACFSMAAgnYIErjpILPcE7JeQEAB20AAy8E@telegram)
可是乾太沒有錢錢
[sticker](media:AAMCAQADHQI9ls-AAAEaRANkpPVIKE_CCD29dT6y-4dWH-4aMAACWgIAAoWDQEWDzCBoyvYt3gEAB20AAy8E@telegram)
他不是還有 neural engine
我真的好奇蘋果怎麼發記憶體的
誰先allocate就給誰啊
滿了之後呢
unified memory controller
炸 SWAP 跟 zRAM
這個反而不是問題
Nice
就覺得怪怪ㄉ 以前學的體系都是大家管好自己的記憶體 🤔
然後其他的靠 DMA 來跟 Memory controller 要求記憶體
nvda: 我不管,你的最高位 bit 我要拿去實作 unified memory
我覺得更多是在酸 Apple
大部分的指責我覺得都是 nonsense 的
但似乎是因為原本標題下得不好(屌打 NVIDIA)
不過就 C/P 和實務上來說,這次 Apple 是真的贏了
M2 的 GPU 也沒有專門對 AI 有加速吧
又不是真的 GPGPU
它是有 Neutral Engine
不過他影片的重點,主要是 Apple 的 Unified Memory 架構,可以把 GPU 能使用的 RAM = 實際有的 RAM
是的
而且 Apple
所以並行之後就比消費級的 GPU 快了
但單看同 RAM 情況下 NV 還是比 Apple 快一點的
但與此同時 Apple 的功耗低了一倍
因為 Apple 是用 LPDDR5x 堆
NVIDIA 是用真的 VRAM
反正我覺得 B 站大部分的彈幕
都是覺得 Apple 壞壞,NV 明明就好棒棒
我只看過 Youtube 版
留言看起來沒什麼問題
然後也說不出什麼有道理的東西
原來好看的在 B 站
畢竟都是些電腦只能用爸媽淘汰下來的初中小孩
以及不停指責資本世界,覺得廣告壞壞的小朋友
畢竟假如真的看完影片
雖然我覺得最早的標題下過了
但他至少讓大家知道「消費級電腦也可以跑大模型」,雖然速度可能比不了有著同 vRAM 的 NV 卡
我有 256GB 的 RAM
meanwhile N 卡就算比較快,但記憶體就是不夠跑這些模型
但是因為沒 GPU 所以就算有 RAM 做起來也是超級慢
拔拔
LLaMA 65B 跑起來卡卡的
純 CPU 還要給他 FP8 了
效果很差
AMD也有AI晶片
AMD 有嗎
Intel 我知道有
發表會上就是直接展示單機跑60B LLM
Movidius VPU
但是不要看他叫 VPU 其實是個通用 AI 加速器
而且他是HMB
這個叫做 XPU 好嗎
CPU + GPU + HBM
不同
標題寫AI
實際上就是專門跑AI
MI300X 其實比較像 GPU 多點(
他是 CPU + GPU + HBM
不一定只跑 AI
> work inside the data center

看起來不是消費級電腦的東西
跑 HPC 天氣預測應該也很快
正想說
其實我也不覺得LLM是該跑在消費級電腦上的東西
確實是這樣
誰會為了單機跑個聊天機器人花那麼多錢
說真的不如叫 openai 的 API
我自己 whisper 也是叫 OpenAI 的 API
比單機跑快非常多倍 還是 large-2x
一般人還是圖片AI用比較多
你說 DALL-E / Midjourney 那類嗎
我還沒玩過 QQ
手機的自動修圖還有各種圖片生成都是阿
我只玩過 Adobe 的生成圖片
然後這東西說實話
有點爛
然而這些都是NV跑起來更快
VRAM堆起來沒太大意義
夠用就行了
喔原來是這些
不過 這種東西
會需要很強大的 GPU 嗎
既然手機都能跑的話
弱一點也能分批算完
兩天後會到台北機場,請問call uber到酒店有雷嗎?
手機有NPU加速
好幾年前高通就在喊神經網路了
btw 小嘴砲一下
我之前拿 whisper、剪映和 GCP 的付費 Voice Recognition 服務跑過同一段語音
語音帶有中國某地方的口音
結果免費的剪映效果最好
Whisper 次之,GCP 產出來的東西一堆 Ok Google
[photo](media:AgACAgUAAx0CPZbPgAABGkRgZKU1dLZeKO0i1-aN4wz4mZMLOQ4AAta2MRsNBnlUNDtVtm2rU6UBAAMCAANzAAMvBA@telegram)
Chirp 的話我前一陣子試了一下
但他挺怪的,只支援簡體中文
而且偶爾還拿不到任何有 chirp 的 region 的識別器
實際效果就沒花錢試了,手邊沒有錄音檔
結論還是 Whisper 最好
TouchID 接上網卡就會間歇性失效 有錄影
拿來蘋果直營店跑一個白痴 diag 就跟我說硬體沒問題喔我們不修
幹你蘋果= =
我突然想到一個可能
之前聽說,只要有靜電
Touch ID 就會失效
你可以試著先用手碰碰看 MB 的金屬殼
然後再試試看
聽起來很蘋果
剪映現在電腦版要收費了
抖音要割韭菜
三小
根本就養套殺
初學者覺得他好用
養著養著等你進了舒適圈就收錢了喔
差不多都是這個套路
那以後還有什麼可以上字幕的軟體 QQ
不介意付費 QQQ
Premiere Pro
我說 AI 上字幕啦
Davinci Resolve
不是內嵌字幕
According to this
[photo](media:AgACAgUAAx0CPZbPgAABGkR9ZKU9_o7by2oySRi8-Rw4_U_23fsAAjC5MRsKazBVYXFIH5uUW9ABAAMCAANzAAMvBA@telegram)
不過我的還沒要求付費的樣子
三小
[photo](media:AgACAgUAAx0CPZbPgAABGkSCZKU-1YFlD775yQABt6KkahFD2mBFAAIyuTEbCmswVZYiZRv6ZALVAQADAgADcwADLwQ@telegram)
你要去ㄛ
怎麼可能
那不是我的马麻吗