注册并分享邀请链接,可获得视频播放与邀请奖励。

与「OP_FILMRED」相关的搜索结果

OP_FILMRED 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 OP_FILMRED 的内容
昨天在中国的首映! 去首映线下COS了乌塔(o^^o)♪ #OnePieceFilmRed# #ONEPIECE# #OP_FILMRED# #UTA_FILMRED# #ウタ# #UTA# #赤髪の# #歌姫#
0
8
551
29
转发到社区
BLEACHのOP全部好きなんだけど乱舞のメロディだけ群を抜いて好きなんだよなぁ〜😭何が言いたいってありがとう!!!公式!!!
ETH上的dev在基于uni v4 hook做各种创新,BTC上的一些协议也没有闲着,热度和流动性在肉眼可见的恢复,罗列一下一些协议的具体表现情况: ✅RGB协议: $RGB 价格来到0.2,市值:$4.2M ✅烷烃协议: $DIESEL 价格来到39,市值:$24M ✅TAP协议: $NAT($54M) , $BIT($2.1M) ✅TACIT协议: @z0r0zzz 搞的这个协议密码学上是很硬核的,又是隐私概念的,挺有意思,包括那个ceremony也是常用的可信参数设置的一个环节,值得关注;不过协议本身比较早期,这种基于浏览器的处理形式可能具有一定的安全风险 ✅OP-RETURN协议: 引入Simplicity+TEE是一个有意思的创新,虽然他们推出来一堆代币我是看不懂这个营销策略...... #RGB# #BTC# #Alkane# #TAP# #TACIT# #OPRETURN#
显示更多
0
17
40
8
转发到社区
据官方公告,币安将于 2026 年 05 月 08 日 11:00(东八区时间)移除以下现货交易对并停止交易:AVA/BTC、BCH/BNB、CFX/BTC、ENA/BTC、HBAR/FDUSD、LA/BNB、MAGIC/BTC、OP/BTC、PUNDIX/USDC、STEEM/ETH、WIN/TRX 和 XPL/FDUSD。
显示更多
Ronin 网络将在 5 月 12 日 正式迁移,成为新的以太坊L2,采用OP Stack L2(和 Optimism、Base 同一技术栈)。 L2应用链将成为未来L2的趋势,而通用链估计也就剩下Base和Arbitrum还有些许用户了。 Ronin是Axie Infinity 背后的区块链,它从“独立侧链”变成“以太坊二层”,它目前日活用户大约2万。 如果未来Polymarket成为L2,那潜在的用户规模和经济活动要大很多。
显示更多
0
38
60
1
转发到社区
短短24个小时,OP 和Scroll 到底发生了什么? 一边是L2 链 @Optimism TVL 暴涨近80%,另一边是厕纸Scroll 链上TVL 暴跌65%。 咋看之下盲猜 $OP 暴涨了,结果一看币价被啪啪打脸,OP 价格不涨反跌。 实际情况应该是流动质押协议 @ether_fi 的旗舰产品 Cash 从Scroll L2 迁移到OP 主网,带来了 $160M+ TVL 和潜在的巨量用户。 不懂就问: 强如V 神都赞不绝口、代表zkEVM L2 链终极形态的厕纸链Scroll,怎么会沦落到连生态命脉的龙头协议都留不住?
显示更多
0
16
49
4
转发到社区
Now live: $OKB OKB is the native gas token of @XLayerOfficial, a high-performance Layer 2 blockchain built on the OP Stack, powering network transactions and connecting users, developers, and applications across the ecosystem Trade now →
显示更多
0
34
267
31
转发到社区
take a moment to appreciate how the US never really had famines while Europe, China, Russia, and India all suffered catastrophic ones well into the 20th century in china, famine was the primary sign of losing mandate of heaven US geography is so OP it's not even funny
显示更多
0
25
342
5
转发到社区
I spent more test time compute and realized that my micrograd can be dramatically simplified even further. You just return local gradients for each op and get backward() to do the multiply (chaining) with global gradient from loss. So each op just expresses the bare fundamentals of what it needs to: the forward computation and the backward gradients for it. Huge savings from 243 lines of code to just 200 (~18%). Also, the code now fits even more beautifully to 3 columns and happens to break just right: Column 1: Dataset, Tokenizer, Autograd Column 2: GPT model Column 3: Training, Inference Ok now surely we are done.
显示更多
0
90
2.6K
175
转发到社区
我靠软件完蛋了,所有 op 软件都完蛋了!