更新:
up又补充了愈后,抢救回来后:所有器官出现不同程度出血和水肿,连子宫都出血了;血压心跳过高;视力模糊;手脚麻木;肺部积液等等,见图4。另外up因集采造影剂引起过敏性休克的抢救费用和后续住院治疗费用,全部自掏腰包,一分没赔。颠呀...留言区有人问集采药问题如此严重,上报了吗?有人答,上报了,但相关部门因为上报太多,于是不让上报了。行吧。
我的妈呀,这人是用了集采造影剂,无过敏病史,结果引发严重过敏性休克,差点挂了,幸好抢救回来...而且看留言,已经有人因集采造影剂引发过敏去世...但是抢救up的肾上腺素、多巴胺幸好起效,如果是集采的,万一不起效,急救时岂不也要人命?
我就过敏,看得瑟瑟发抖...
趁这篇文章还在,先发上来,评论区挺值得看:
网友说到药店买进口奥司他韦,不让刷医保卡,只能自己付钱。网友支招:你刷医保卡让药店给你记账成风油精,多刷几次。或者用医保卡买华为智能手表,去闲鱼卖掉,再用卖表的钱买进口药。
这些“支招”当然是开玩笑,是辛酸自嘲的玩笑。
https://mp.weixin.qq.com/s/50uqf4s2mzrkhhfuTHE4OQ
如果你反对“DEI”,那么你应该直接说出完整的词,而不是只用缩写。要勇敢地说:“我反对多元化、公平和包容。” 如果你能坦诚地说出自己不喜欢哪一部分,那就更好了。 把它变成缩写只会让它成为一个终结思考的陈词滥调。 从现在开始,勇敢表达你的观点,但要具体。让所有人都知道,你到底是反对多元化,还是公平,还是包容? x.com/muqjm0t7kwtm...
读到一篇关于DeepSeek胡编乱造且嘴硬的文章 http://mp.weixin.qq.com/s/g37_UtaPpmuqQHnmSX8FCg 。读完觉得标题有点过于耸人听闻。在技术层面上,DeepSeek的胡编乱造/hallucination可能跟ChatGPT差不多(以前写过一条关于LLM AI的胡编不是bug而是feature的 https://bgme.me/@phyllisluna/112972829738698528 ,这里不展开了),甚至“嘴硬”可能也差不多。
觉得比较有意思的是DeepSeek(无意识/unintentional)精准抓住了国内人的认知过程弱点:在文中的例子里,DeepSeek瞎编的文献是政府文书/规范,恰恰是人们最容易闭眼信的——一方面是强权洗礼带来的畏惧,另一方面(paradoxically)是知道这些文件本身常常是nonsense的。另外,在这个具体的例子里,DeepSeek还(也是无意识)精准抓住了国内人对文物保护的盲信(e.g.时不时就冒出来关于文物拍照的掐架)。
原文作者强调的信息污染和认知陷阱(“比ChatGPT危险100倍”),我倒觉得不是全新的危机,毕竟看似客观真实信息的false information早在计算机出现之前就大量存在了,manipulation的历史大概跟人类历史本身一样古老(以前写过一条 https://bgme.me/@phyllisluna/113374456313207219 ,这里不展开了)。
关于的DeepSeek这个例子和过去ChatGPT的对比倒是给了我一个新想法:LLM AI本身是不会“思考”的,而是综合/平均/重组它的语料库/training set。正是这个特质让我们有机会去“聚焦”并反向trace到活人提供的语料库里的偏见和各种倾向。DeepSeek的胡编+似是而非论证方式恰恰在某种程度上反映了语料库里(当地/local)活人们试图组织一个论证以说服他人的方式(e.g.文物保护,政府公文)。而DeepSeek和ChatGPT在胡编上的差异或许又折射出了cultural/societal差异。
@nomikomu @savemoney @board 这位朋友 提醒一下 拼多多的迪卡侬是假货
我走向你像走向一条河流