让我打开想象的视频!视频最后的展望让人对未来充满期待!
10:14 CoreML, MPS和Apple NPU之間的關係是CoreML底層調用MPS 而MPS會自行選擇將OP放到CPU, GPU或NPU去執行. 所以PyTorch在已經整合MPS的情況下本身就自動支援NPU加速. 另外因為底層都是MPS, 所以如果被轉給MPS的OP都相同的話, pytorch和coreML性能是一致的
萬分感謝,老實說您說的那些軟件或是資訊對非理工背景的我來說只能理解概念,但透過您的專業觀點,我或多或少能夠知道前端行業的走勢!
公司這週正好從國外來了一群集團母公司的技術大佬(不過我們大家都是搞應用的),剛好也交流聊到LCM LoRA這個模型,還沒來得及去暸解,就看到這個影片了。這對於我們美術團隊有巨大的影響,因為八成以上的美術人員都是用Mac,項目也都用上Stable Diffusion。目前除了用那個很慢的,安裝在Mac上的Automatic1111之外,還有一台共用算圖的4090 PC。但是問題是,Automatic1111不是設計給同時多人在線使用的,我還正準備處理這個問題呢~如果安裝在Mac本機的SD從備而不用變成可用,那方便性就大大提昇了啊!
如果可以還是要多研究NPU,NPU真的好用的,速度非常快,當然其他方面,Apple相容性真的快出很多,即便你不用NPU,他在Pytorch或Tensorflow走GPU也滿容易,反而比起顯卡容易上手,而且一些計算方法轉換到Apple上也增加不少,最後就是相對容易取得的記憶體大小,這點真的不錯,他不用搞非常複雜,大概是目前普遍開發者會用Apple主因,至於公司層級最終還是走ASIC,不會去用CUDA,那成本太高,不切實際,除非是初創公司不得已。
亦哥是我看過網路上最花式吹庫克牛逼的人了,但每次都還會笑著看完
Google 出品的 tensoflow and angular 改版都很驚人 Pytorch 優雅兼容的介面,還是比較適合應用開發
视频很精彩,我趁着林哥还没播放片尾曲前,机智地暂停了视频播放。
用apple 類DGX的架構來跳脫AI晶片的制裁 真的是一個好方法
我能说,我全部都听完了,但是听懂的就只剩下最后的歌曲吗。
绝对受益良多,格局打开,mac有了更多应用
求一集影片教學從零建制stable video diffusion 並使用
博主能否出一期MAC电脑跑这些SD啊,DRAW THINGS软件之类的详细一点的视频,包括安装,设置,优化等等技巧之类的视频,网上虽然也有一些MAC方面的视频,但像博主这样对优化MAC速度的视频还没看到,希望能出个教程类的视频,谢谢了
太心疼林哥了,大家设想一下如果配置一台同样配置的Intel、NVIDIA的服务器,你得付出多少成本(金钱、噪音、电费),从这些角度出发,Apple确实走出了自己的路。 你们也去看看Intel是如何把ARM Windows做成现在这个样子的,也就有点叹息了,不过林哥可以专门做一期和我们聊聊。 不过我也期待一手,说不定未来FPGA也可跑AI。
有人贏了口碑 有人贏了銷量 我們都有光明美好的未來
希望能出一套ai作画的教程 stable diffusion的界面太简单了
俺去年也是看中苹果统一内存的优势买了个mac(偶尔用来深度学习),结果嘛… 苹果metal和tensorflow的适配似乎有点问题,GPU算数会算错 — mac CPU算数是正常的(和N卡结果一样,除了巨慢…) ,但一换上GPU加速就彻底放飞自我了,计算结果简直离谱…(不是随机误差,是真的就偏离很多)…一查苹果开发者才发现这问题两年了… 看林哥这样子,好像还是pytorch香啊😂
请教是否也可以给一个渲染配置的说明,我也是苹果系统,看您评测很过瘾,但是不知道怎么配置跟您一样的环境进行测试。麻烦如果有机会,请给大家一个同样的环境测试一下自己的 Mac。多谢多谢
想說兩件事 1.在draw things環境下,iPhone 15 pro和 m1 16gb產圖速度一樣都2x秒,iphone甚至快一秒。把我嚇傻了。 2.剛玩了LCM的lora,4 steps,用LMS採樣,模型基於SD1.5,一張速度大概13秒左右,圖片品質很好,真的進入可玩的階段,之前產一張一分鐘,根本坐不住,現在三秒換一張預覽圖,13秒就生出來的感覺真爽。
@HomeWokDE