维基百科:新条目推荐/候选

维基百科,自由的百科全书

新条目推荐

其他評選

條目 新条目推荐 · 優良條目 · 典范条目 其他 新闻动态 · 同行评审 · 特色列表 · 特色圖片

你知道吗?

规则
问题指南
栏目更新指引
提交新评选提名

更新時間[编辑]

  • 現在時間:2024年5月24日 (五) 22:07 (UTC)。(←此時間可能不準確,建議先刷新
  • 上一次更新時間:2024年5月24日 (五) 22:07 (UTC)
    • 更新頻率:已確認條目4條或以下為6小時,5至9條為4小時,10至14條為3小時,15至19條為2或3小時(循環交替),20條或以上為2小時更新1次,機械人會自動調節頻率。

正在投票評選的新條目[编辑]

正在投票評選的新條目:药帮一巷石板路彼得罗巴甫洛夫斯克号铁甲舰特別事務辦公室波扎尔斯基公爵号巡航舰華碩智慧蔬果洗淨偵測器人間有情双溪文庙八德餘慶堂叶卡捷琳娜二世号战列舰第十四代斯特拉斯莫爾和金霍恩伯爵克勞德·鮑斯-萊昂活化T細胞核因子鳴潮慎到极氪007U-48号潜艇 (1939年)竹東九牧第肯特公爵夫人凯瑟琳愛知縣行政區劃傑莉·海爾小米SU7随机鹦鹉徐光海1,3,5-三氯-2,4,6-三硝基苯裏垢女子根德公爵夫人2024年5月太阳风暴更高 (蕾哈娜歌曲)麥迪·薩卡尼铜川广播电视台九龍巴士8P線Love It If We Made ItZ-25号驱逐舰翰墨城
新條目候選
新條目候選
投票规则要点
  • 支持票不須附帶理由。
  • 反對票須清楚指出條目中的問題,以讓提名者明白應如何修改。
  • 提名者請先確保條目上沒有刪除模板及各類爭議模板有爭議模板的條目不得上DYK。
  • 遇到不合適的問題,請使用 问题不当模板,避免投反對票,感謝合作。
  • 如發現人身攻擊/投票內容與條目或DYK問題無關者,各巡查員、回退員、巡查豁免者及管理員請用{{Votevoidf}}劃票。
  • 如對劃票或掛模板等事有爭議,請至WP:AN3與管理員共同解決。
  • 機械人會自動按劃票後的結果計票。
  • 以下是一些反對無效的例子:
    • 这类内容很沒趣(無效)
    • DYK要求還未達到(無效,除非能指出條目為何未達標)
    • 写得差(無效)
    • 問題不當(無效,请使用 问题不当模板)

5月18日[编辑]

[编辑]

[编辑]

5月19日[编辑]

[编辑]

[编辑]

[编辑]

[编辑]

5月20日[编辑]

[编辑]

[编辑]

[编辑]

  • 1905年6月俄国战列舰“波将金”号上的发生舰员哗变时,哪艘战舰尽管被认为同情革命运动,但最终因动力系统异常而最终未能加入哗变?
    叶卡捷琳娜二世号战列舰 [·]”由作者自荐,主編者为JuneAugust [·],属于warship类,提名于2024年5月20日 (一) 07:12 (UTC)c3cbc0c9e447f67726b375afd88cfe8940aad0f8
    • (?)疑問
      1. 条目序言写此后该舰被移交给塞瓦斯托波尔港口当局,后于1907年8月14日沉没。英文条目写She was turned over to the Sevastopol port authorities before being stricken on 14 August 1907. 此处being stricken似乎指“被除籍”而非“沉没”?
      2. 正文末段写此后该舰被移交给塞瓦斯托波尔港口当局,并于1907年8月14日被除籍并凿沉在塞瓦斯托波尔作为防波堤。1912年4月22日,该舰被重新定名为第3号除籍船(Исключенное судно № 3),之后被作为靶舰以鱼雷击沉。所以此舰1907年被凿沉、1912年被鱼雷击沉,共计沉没两次?查俄(机译)、英文条目未见“凿沉”、“防波堤”相关内容。此句中文来源为书籍,难以查证。如果来源提及了“凿沉”、“防波堤”等,可否将对应原文置入引用中?--注荼 2024年5月20日 (一) 09:19 (UTC)[回复]

[编辑]

[编辑]

5月21日[编辑]

[编辑]

[编辑]

[编辑]

5月22日[编辑]

[编辑]

[编辑]

[编辑]

[编辑]

[编辑]

[编辑]

  • 以手機起家的小米集團旗下的第一款車型是哪一款
    小米SU7 [·]”61.244.132.215 [·]提名,非一人主編或主編者非注册用户,属于XIAOMI SU7类,提名于2024年5月22日 (三) 11:12 (UTC)925689ff5ac9be0100013aa651cd660f78a7a0f7

[编辑]

  • 哪个比喻描述大型语言模型只能根据随机概率“鹦鹉学舌”?
    随机鹦鹉 [·]”由作者自荐,主編者为ItMarki [·],属于technology类,提名于2024年5月22日 (三) 11:28 (UTC)207c7e9703fe40e4045131dff1f605eb08bc3c27
    • (+)支持--Banyangarden留言2024年5月23日 (四) 02:18 (UTC)[回复]
    • (!)意見
      1. 真的有必要在引言和正文里两次把所有作者的全名都写上吗?
      2. 我认为格伯鲁和米切尔被Google解雇的事件不应该放在“起源和定义”章节内。弱相关内容。
      3. 一些词句存在错译,例如“2023 AI-related Word of the Year”中的“word”应当取的是广义的含义(因为Stochastic parrot明显是个复合词),不能翻译为“单词”,而应该译为“词”或“词语”。
另外,Science News英语Science News的主编Nancy Shute在该杂志的一篇文章中提出,真正的鹦鹉,及研究它们的科学家,或许会感到被这个概念冒犯,因为近年的动物智能研究认为一些鹦鹉可能有能力理解一些语言的含义(Real parrots, and the scientists who study them, may take offense at that term. ... Now, scientists are discovering that parrots can do much more, ... and sometimes even understanding what we say.),或许可以添加到“争论”章节中。 ——🦝Interaccoonale留言贡献 2024年5月23日 (四) 04:03 (UTC)[回复]
    • 「哈佛引用格式錯誤:此sfn模板連結並未指向任何有效引用。」—WiTo🐤💬 2024年5月23日 (四) 05:33 (UTC)[回复]
    • 中维一般还是可以做到页面标题在第一段段首第一个字就出现吧,虽然「在机器学习中,“随机鹦鹉”(英语:stochastic parrot)是一个理论的比喻...」不是不能接受,但是总给人一种不是非常本地化的感觉?此外(▲)同上,我认为作者全称不用重复提及,我会如此写,仅供参考。
      随机鹦鹉”(英语:stochastic parrot)是机器学习领域中一个理论的比喻,指大型语言模型虽然能够生成合理的文句,但其实不能理解所处理的语句。它由蒂默妮特·格伯鲁、安杰利娜·麦克米伦-梅杰和玛格丽特·米切尔在2021年人工智能研究论文《论随机鹦鹉的危害:语言模型太大有坏处吗?🦜》(On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜)中提出。
      以上,由𝘿𝙖𝙧𝙚𝙙𝙚𝙢𝙤𝙙𝙖𝙞𝙨𝙪𝙠𝙞 𝟭𝟭𝟰𝟱𝟭𝟰—好耶~ 书于 2024年5月23日 (四) 13:49 (UTC)[回复]
    • (-)反对,存在诸多生硬的翻译。一是英文原文来自维基课程教育项目(南加州大学WRIT 340课程作业),诸多叙述质量(先后逻辑,用词,引用来源选择)并不高,请查证各种引用文章后写;二是各类机器学习术语(还有概率论术语,语言学术语)使用不准确。举例,条目根据的paper“Can Language Models Be Too Big?”被翻译为“语言模型太大有坏处吗?”;“环境和金融损失、不可理解性导致的未知而有害的偏见,以及用作欺骗的可能性,又说它们不能明白所学习事物的深层概念”,这段英文wiki原文写的就不行,请阅读原paper和引用的MIT Tech Review后再写,不要直译wiki原文;“stochastic”这是词实际上是反映了概率论的背景,在阐述“随即鹦鹉”该词时除了提及以前的希腊文定义,也要讲明这一点;“机器学习专家林霍尔姆、瓦尔斯特伦、林斯滕和舍恩”,这几位人只是合写了一本介绍性的书籍,算不上有影响力的研究者;“法律、[10]语法、[11]叙事、[12]和人文学”这几类不算是并列关系了;“该论文的作者”,我想英文wiki里指的是这一批引用文章的作者,不是单个论文;Mechanistic Interpretability不叫“机械可理解性”,实际上“Mechanistic refers to the emphasis on trying to understand the actual mecahnisms and algorithms that compose the network”,是机制/机制性的意思;“发现符号算法,模拟大型语言模型的推论过程,借此将它逆向工程”,英文wiki作者的叙述不清楚,需要参考引用文献解释;此参考“Machine Reading, Fast and Slow: When Do Models "Understand" Language?”和叙述不太相关;Othello-GPT的解释不清楚,“将黑白棋棋盘转化为线性表达”,直白的话,这个实验是输入走棋移动序列,然后模型能推测出是在8x8的棋盘上走的,换句话说,这个模型自己在训练时隐式地建立了一个8x8的平面模型,以此试图说明LLM不只是统计数据式的鹦鹉学舌,而是真的理解世界构成;“快捷学习(shortcut learning),即是不使用类似人类的理解,从数据中作出不相关的联系”,这段对shortcut learning(捷径学习)的阐述不清楚,简单的说应该是使用一些捷径特征(像下面举例中的捷径词“不”)进行预测,而不是真正地像人类一样去理解;“难以分辨随机鹦鹉和有理解能力的物体”——> 难以分辨随机鹦鹉式的模型和有理解能力的模型。--桃花影落飞神剑留言2024年5月24日 (五) 17:26 (UTC)[回复]

[编辑]

[编辑]

5月23日[编辑]

[编辑]

[编辑]

[编辑]

[编辑]

[编辑]

5月24日[编辑]

[编辑]

[编辑]

[编辑]

[编辑]

[编辑]

[编辑]


提交新评选提名

[编辑]