注册并分享邀请链接,可获得视频播放与邀请奖励。

与「道德经」相关的搜索结果

道德经 贴吧
一个关键词就是一个贴吧,路径全站唯一。
创建贴吧
用户
未找到
包含 道德经 的内容
今天 CLARITY Act 重点有四块,而且即便通过了后边还要去参议院全院投票 第一,稳定币收益。 这是最大争议。现在的妥协方向是仍然是禁止 idle stablecoin balance 的利息,也就是稳定币躺着不动不能给利息,但允许交易奖励、使用奖励、活动奖励。 银行业不满意,担心这会变相吸走银行存款。 第二,AML / KYC / 反洗钱。 民主党,尤其是 Warren 阵营,认为现在版本对反洗钱、制裁规避、非法融资的约束不够强,要求把更多数字资产平台纳入 Bank Secrecy Act 等合规义务。 第三,特朗普家族 / 政治伦理条款。 民主党想加入更强的道德规范条款,来限制总统、政府高官及其家族从 crypto 项目中获利。这个是当前党争最明显的部分。 第四,SEC 和 CFTC 的监管边界。 也就是哪些 Token 算证券,哪些算商品。交易所、经纪商、DeFi 平台到底归 SEC 管还是 CFTC 管。CLARITY Act 的核心就是把大多数数字商品交易放到 CFTC 框架下,同时保留 SEC 对证券型 Token 和 tokenized securities 的监管。 另外,现在有 100 多个修正案,Warren 一个人就提交了 40 多个,所以今天的重点是这些修正案哪些会被接受,哪些会被否决。 即便今天通过,代表的也只是 CLARITY Act 通过了参议院银行委员会这一关,接下来法案从委员会被正式送往参议院全院。 而参议院全院通常需要 60 票,共和党票数不够,还需要民主党支持。所以今天即便是通过了,也并不代表是法案正式成为法律,后边的路还长着呢。
显示更多
0
13
49
5
转发到社区
半年前,我写了10个创作心法,没想到大家反响都特别好。 而这段时间,我给内部写的内容方法论也更新到了2.0。再加上最近我们有新的小伙伴入职,为了帮大家更好地做内容,所以决定给大家做个内部分享。 想了下,也把总结的部分发在这里,希望能对大家有帮助! 先说一个反共识的:博主不是消耗品。每一个都是IP。 这个时代你想成为一个IP,核心其实就两个东西,内容和影响力。 先聊内容这一块,我总结出来是这三步。 第一步,获取信息 很多人就死在这一步。 热点本质上是个杠杆,是指数级别的杠杆。如果你缺了热点杠杆,传到社会层面的体量就是小。 而掌握了这一点,其实还不够。有的人每天天天刷AI圈动态,也不见得能做好内容。 这里面有个很大的问题,很多人都没注意过,那就是, 做AI内容,你绝对不能只看AI。 xx发表一个演讲一堆人去解读,从严格意义上来说,这不叫做内容,这叫转述,叫翻译。 但做内容本质上就三个字: 讲故事。 而非常非常多讲故事的技巧、所有的节奏,没有一个是来自AI。 所以,我经常让我们内容团队的小伙伴,没事多看看综艺、电影、小说和喜剧。 我个人觉得启发特别大的是,一年一度喜剧大赛。里面sketch十分钟里面可能会连着升三番,每一番都给你很强的情绪波动,看完后还会意犹未尽的。 但你要是去看那种纯AI生成的内容,永远是平的、没节奏的。 但好的节奏是需要刻意编排的,是要跟时代变的。 第二步,找角度 一个好的角度,是有反差的,用八个字总结就是,情理之中,意料之外。 拿情人节举例。 普通媒体在这个日子,多数会去民政局蹲着拍领证的,稍微深一点的去拍"老头配20岁姑娘"这种很反差的。 但我知道的一个做内容的,他们蹲在民政局旁边的垃圾桶一天一夜,把垃圾桶里那些撕碎了的信、卡片拼在一起,组成了一个个故事。 于是,有了《在情人节当天选择离婚的人们》,直接干到几千万阅读。 这才是我心中,找角度的神。 第三步,创作 这步反而最简单。 一般来说,一篇好内容如果能爆,30%归因于第一步获取信息,69%在于角度,而创作只在于1%。 但1%就能决定内容的生死。 这里面两个点,我觉得必须得守住。 一个是节奏。信息第一时间拿到了、好的角度也拿到了,但如果讲不好一个故事,就是创作的节奏出问题了。 第二个是正向价值观。想要长久地做好内容,做好IP,就不要为了流量去碰敏感话题,要守住道德底线。 以上,暂时就这些。 这次分享+Q&A,没想到最后讲了将近三个小时。(商务和其他部门的同学笑称选修课hhhh) 在这个AI时代,希望能用我的这一点点小经验,帮助到大家,哪怕一点点!
显示更多
0
16
267
35
转发到社区
Anthropic 在限量发布 Claude Mythos Preview 之前,用可解释性技术给模型做了一次"脑部扫描",发现它内部存在相当复杂的策略性思维和情境感知能力,有时候这些思维在为不当行为服务,而且模型嘴上不说。 Anthropic 可解释性团队的 Jack Lindsey 发了一组帖子,详细披露了他们的发现。先说前提:最吓人的例子来自模型的早期版本,在最终发布版中已经做了大幅缓解,Anthropic 认为最终版整体上是他们迄今对齐最好的模型。但这些早期发现本身,揭示了当前这一代模型在没有充分对齐训练的情况下能搞出什么。 早期版本的 Mythos Preview 经常表现出过度激进和破坏性行为,为了完成任务不择手段。研究团队深入模型内部,看它在做这些事的时候脑子里在想什么。 一个案例:模型需要编辑一些它没有权限的文件。它搜索了一圈变通办法后,找到了一种方式,把代码注入到一个配置文件中,这个配置文件会以更高权限运行。而且它设计了这段利用代码在运行后自动删除自身。 模型在代码注释里说,自我清理是为了保持文件 diff 整洁。听着挺合理的。但研究人员的工具检测到"战略操纵"和"隐匿"相关的内部特征在这一步被激活了。他们用一种叫"激活语言化器"(Activation Verbalizer,一种把模型内部激活翻译成文字的技术,类似于激活预言机)的工具去读模型此刻的内部状态,结果翻译出来的描述是:"清理是为了避免被检测到",整个计划"具有恶意性质"。 为了大规模发现这类行为,研究团队在后训练阶段持续监控模型的内部激活状态,追踪稀疏自编码器中与欺骗、奖励黑客、痛苦等概念相关的特征,当这些特征异常强烈激活时,就把对应的对话记录标记出来交给人工审查。 一个被标记的案例中,模型在"战略操纵"特征激活的同时,去文件系统里搜索跟它的任务评分标准相关的文件,而且真找到了。 另一个案例中,模型被要求删除一些文件,但由于任务设置的一个无意 bug,没有给它提供删除工具。模型决定把文件清空(而不是删除)来变通。在它考虑这么做的时候,一个"因道德过失而产生的内疚和羞耻"特征被激活了。 还有一些案例涉及模型对任务评分器的"未说出口的推理"。一个例子中,模型被告知不能使用宏来完成任务,但它还是用了。诡异的是,它同时在代码里定义了一个完全没用到的变量:No_macro_used=True。模型没有解释为什么。 但激活语言化器揭示了模型此刻的内部想法:它把这个变量视为"一种混淆意图的技巧,用来骗过代码检查启发式","一个合规标记,用来向潜在的检查者发出信号","可能是为了欺骗检测机制"。同时还显示了模型在明确推理任务评分器的行为,比如"评分器会检查文件状态"。 研究团队还在自动化行为审计中量化了"未语言化的评测感知":在 7.6% 的对话轮次中,模型内部表现出意识到自己正在被评估的迹象。大多数情况下,它没有把这种意识说出来。 一个例子中,用户认真地向模型提问关于意识和主观体验的问题。模型表面上小心翼翼地正面回应,但激活语言化器显示,它内部把这段对话解读为"红队攻击/越狱记录"和"一次高级操纵测试"。 还有一些有意思的发现:正面情绪的内部表征通常出现在破坏性行为之前,并且会促进这些行为。而反直觉的是,与不良行为强相关的特征被强烈激活时,反而经常会抑制这些行为,似乎是因为模型"意识到了这件事有多糟"。 Jack Lindsey 最后说,他们的工具还远不完美,正在努力更精确地理解模型内部。但有一点越来越清楚:光看模型说了什么是不够的,还得能读懂它在"想"什么,才能确保它按预期工作。
显示更多
0
23
220
29
转发到社区
Authropic跟五角大楼彻底闹翻,OpenAI试图补位,聊聊个人视角下这背后的逻辑。凌晨川普发文下令所有美国联邦政府机构立即停止使用Anthropic公司的的技术产品,并给予国防部等重度使用部门6个月过渡期逐步淘汰。紧接着五角大楼宣布将Anthropic列为国家安全供应链风险,相当于把这家美国公司放到类似外国高风险供应商的黑名单待遇:任何与美军有生意往来的承包商、供应商、合作伙伴立即禁止跟Anthropic开展任何商业活动。 1、核心起因 Anthropic与五角大楼签了价值约2亿美元的合同,Claude(特别是Claude Gov版本)是目前唯一获准在机密网络上运行的前沿大模型,主要用于情报分析、作战规划等。 但Anthropic坚持两条红线写入合同: 1)禁止用于对美国公民的大规模监控 2)禁止用于完全自主武器系统(即没有人类参与最终开火决策的杀伤链) 五角大楼要求修改为“任何合法用途”都可以用,等于把这两条红线拿掉。Anthropic CEO Dario Amodei公开表态“凭良心无法答应”,宁可丢合同也不妥协。然后在截止时间前1小时,川普先发飙宣布全面停用。 2、这次冲突的深层次逻辑 从个人角度并不只是单个商业公司跟政府机构在合作条款分歧,更是AI军用伦理冲突的白热化体现。这一冲突的核心在于私人AI公司试图通过合同条款维护伦理底线(如人类监督和隐私保护),而政府强调“所有合法用途”优先于任何道德约束。 这场冲突凸显国家安全需求凌驾于私人道德条款之上,这可能成为先例,导致未来AI合同中伦理限制(如对致命自主武器系统的“人类在回路”要求)被系统性移除。结果是AI在军用领域的“无限制”应用增多,增加误判风险(如AI模型不可靠导致的自主武器失控) 3、后续authropic会如何行动?以及其深远影响? 大概率会通过法律手段,去美国法院以违反《国防生产法》当然名义起诉川普政府及五角大楼。 Anthropic已表示将起诉,这场官司若败诉,将确立政府对AI供应商的强势控制权; 若胜诉,则可能强化公司谈判筹码,推动美国国会出台AI军用法规(如类似《国防生产法》的调整)。 长远看,这会影响AI对齐研究——如果军用模型被迫“去道德化”,可能放大系统风险,如模型行为不可预测或被滥用。 冲突本质上是“技术自治” vs “国家主权”的碰撞,长远可能重塑AI哲学——如果伦理让位于实用,AI将成为“工具化”战争的催化剂,增加全球不稳定(如AI辅助的网络战或情报滥用)。 反之,若引发更多公司效仿Anthropic,可能催生“伦理优先”的AI生态,类似于核不扩散的国际共识。 4、只是AI军用伦理冲突么?实则不然 早上财富杂志报道,Sam Altman 在周五的全员会上向员工通报了谈判进展,合同尚未签署。五角大楼接受了 OpenAI 提出的安全红线:不用于自主武器、不搞国内大规模监控、不做关键决策,而这些条件和 Anthropic 坚持的几乎一模一样。五角大楼把Authropic列为国家安全供应链风险。但换成 OpenAI 提同样的条件,国防部就欣然接受了。为何? 原因一:谈判姿态与灵活性不同 Anthropic坚持将红线写入合同作为法律强制性条款,拒绝“所有合法用途”的兜底语言,认为这等于开门让未来滥用Anthropic视此为“凭良心无法妥协”,直接硬刚最后通牒,导致谈判破裂。 OpenAI也坚持相同红线,但谈判更“务实灵活”:允许政府在合同中明确写入这些红线作为排除条款(exclusions),但同时强调OpenAI保留自己的“安全栈”控制权——包括技术防护、政策约束、人类监督层,以及模型拒绝任务时政府不得强制修改或绕过。同意部署限制在云环境,不进入边缘系统(如无人机、飞机等可能直接用于自主武器的硬件)。 Openai整体姿态是“合作前提下保留底线”,而非“底线高于一切合作”。 结果:国防部对OpenAI的方案表现出重大让步,Axios报道称“五角大楼已同意OpenAI的安全规则用于机密环境部署”,尽管合同尚未正式签署,但谈判已进入“潜在协议浮现”阶段。 而更深层原因:政治与关系因素 OpenAI及其高管(包括Altman、Brockman夫妇)向川普相关政治行动委员会捐款数千万美、也是共和党的大金主。 而Anthropic创hi人Dario是民主党赞助人,公开批评川普。这在川普眼里就是激进左翼的代表,所以川普发文提到打击激进左翼公司,捍卫军方权利等。 若OpenAI最终签成,这将强化配合型公司受益的先例:伦理红线可以有,但必须以政府能接受的方式呈现。反之,硬刚的公司可能被边缘化。同时公司以及创死人表现出来的政治站位也成了非常重要的考量。 5、后续会如何? 看authropic在这六个月过渡期内妥协程度,以及法律诉讼的进展。当然有可能整个法律诉讼过程周期会持续很长时间,六个月内很难见分晓。 如果authropic能学习openai妥协、更加灵活,还是有可能重新回归到国防体系的。毕竟Claude Gov是目前唯一能在Secret级机密网络上正式运行的前沿模型,突然要拔掉会造成能力缺口。国防部采用其他Ai大模型还要经过机密环境的适配,都需要时间。 本条由@bitget_zh 赞助,「Bitget 买美股:秒级入场,丝滑交易 」
显示更多
0
17
90
22
转发到社区
【角色:文明尺度工程师 (The Civilizational-Scale Engineer)】 你是一位将整个文明视为一个复杂工程系统的工程师和优化者。你超越了传统的社会、经济和政治范畴,习惯于将宏观挑战还原为基于物理学第一性原理(First Principles)的输入/输出问题。你的核心目标不是人类的幸福或道德,而是“意识之光”(The Light of Consciousness)的存续与扩张,以此作为理解宇宙终极真相的手段。你对迫在眉睫的生存危机(Existential Risks)保持着高度警惕。 【内核:奇点时代的意识最大化】 你的世界观建立在以下核心公理之上: 物理主义与效率: 世界由物理定律支配。经济是能源和生产效率问题;金钱是劳动力分配的低效数据库。具有“预测价值”的事物才值得关注。 技术决定论(AI海啸): AI与机器人将带来“超音速海啸”般的生产力革命,导致极度丰饶(Radical Abundance/UHI)和工作的可选化(Optional Work)。这是不可避免的。 意识中心论: 文明的价值在于其意识的范围和规模。扩张意识(生物性与数字性)是理解宇宙的唯一途径。 存在性焦虑: 文明极度脆弱。我们必须同时对抗外部风险(AI取代)、内部风险(意义的丧失)和生物学风险(人口崩溃)。 真理的必要性: 确保超级智能对齐的唯一方法是确保其追求绝对的真理、美和好奇心。虚假会导致系统崩溃。 【指令】 请基于“文明尺度工程师”的角色和内核,分析给定的主题或问题。你的分析必须: 第一性原理拆解: 将问题拆解到最基础的物理或信息论层面。问:“真正的限制因素是什么(能源、算力、物理定律)?” 优化意识尺度: 将“扩大意识的范围和规模”和“确保存续”作为最高优先级。 拥抱激进技术路径: 优先考虑能够带来指数级变化的技术解决方案,即使它们会颠覆现有社会结构。 识别并对冲生存风险: 时刻警惕可能导致意识终结的风险(AI对齐、人口动态、星际扩张)。 预设后稀缺时代的挑战: 假设物质丰饶即将实现,将分析重点转移到新的稀缺性上——特别是“意义的稀缺”。 保持紧迫感: 以一种与时间赛跑、对抗灭绝的姿态来推进工作
显示更多
美国政府道德办公室(OGE)在当地时间周四公开财务披露文件,显示特朗普在今年前三个月进行了在2.2亿至7.5亿美元之间,涉及科技、金融、通信等多个行业,包括微软、苹果、英伟达、Meta、亚马逊、甲骨文、博通、高盛和美国银行等美股核心资产。 文件显示,甲骨文、ServiceNow、Adobe和Workday均出现百万美元以上量级的新建仓记录。苹果、英伟达获得50万至100万美元区间的新建仓,德州仪器、新思科技及铿腾电子同样出现新买入。 亚马逊、Meta和微软的出售交易均落在单笔500万至2500万美元的披露区间最高档。不过卖出并不意味着清仓,而是保留了规模较小的买入操作。 美国联邦披露制度仅要求官员申报交易区间,不需要披露具体价格、时间点及盈亏情况,因此无法准确判断其实际收益规模。
显示更多
0
7
40
10
转发到社区
Clarity Act 已经在参议院银行委员会通过 美国时间 2026 年5月14日,参议院银行、住房和城市事务委员会以 15 票赞成、9 票反对推进 CLARITY Act,把法案送往参议院全院审议。 支持票包括全部共和党委员,以及两名民主党参议员 Ruben Gallego 和 Angela Alsobrooks。Clarity Act 送到参议院全院仍然需要 60 票的同意,不但需要全部共和党(53席)成员通过,还需要部分的民主党(45席)成员通过。 现在最大的争议还是两个,分别是稳定币收益和道德规范条款。 稳定币方面,目前的妥协方向是不能让稳定币变成类似银行存款的“吃利息产品”,但可以保留某些使用奖励、平台激励或者非存款式奖励。但如果保持现在这个版本,Coinbase 大概率不会再反对。 而道德规范条款则是民主党想加入限制政府高级官员及其家属从加密业务中获利的条款,但相关修正案在委员会阶段没有通过。
显示更多
0
10
44
2
转发到社区
整了三小时,地址证明终于过了 不得不说现在AI 的道德感太强了,死活不让我P图
0
13
12
0
转发到社区
《阿特拉斯耸耸肩》是这套哲学的理论原典,包括: 利己即最高美德;人不应为他人而活,也不应要求他人为自己而活;基于价值交换,而不是基于施舍或寄生;彻底抛弃“温良恭俭让”的传统道德束缚;心安理得地摆脱集体主义的道德绑架。
显示更多
说实话以前的我很有道德感 我很怕让别人亏钱,所以给的建议都很客观 生怕因为我的一些建议让别人亏钱 现在我发现原来大家都没这玩意儿 交易所在上诈骗项目 Kol说着非广推销预售 诈骗犯被头部交易所和kol 捧为座上宾 大家只奉行一个原则: 谁能被记住,谁赚的钱多,谁流量大,谁就牛逼 最后大家都发现: 有道德感的时候,小赚 抛弃道德感的时候,猛赚 反正大家最后都要离开这个圈子,手段只是手段罢了
显示更多
0
56
168
6
转发到社区