<?xml version='1.0' encoding='UTF-8'?>
<?xml-stylesheet href="/rss/stylesheet/" type="text/xsl"?>
<rss xmlns:content='http://purl.org/rss/1.0/modules/content/' xmlns:taxo='http://purl.org/rss/1.0/modules/taxonomy/' xmlns:rdf='http://www.w3.org/1999/02/22-rdf-syntax-ns#' xmlns:itunes='http://www.itunes.com/dtds/podcast-1.0.dtd' xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:dc='http://purl.org/dc/elements/1.1/' xmlns:atom='http://www.w3.org/2005/Atom' xmlns:podbridge='http://www.podbridge.com/podbridge-ad.dtd' version='2.0'>
<channel>
  <title>苏迟但到的主页</title>
  <language>zh-cn</language>
  <generator>microfeed.org</generator>
  <itunes:type>episodic</itunes:type>
  <itunes:explicit>false</itunes:explicit>
  <atom:link rel="self" href="https://kexohproject.pages.dev/rss/" type="application/rss+xml"/>
  <link>https://kexohproject.pages.dev</link>
  <description>
    <![CDATA[<p>你好，欢迎访问个人主页！</p><p>擅长密码学，安全分析，数字水印等技术。</p><p>你可以联系我通过:findmykexin@gmail.com或者知乎私信。</p><p>我的知乎链接：<a href="https://www.zhihu.com/people/su-chi-dan-dao" rel="noopener noreferrer" target="_blank">苏迟但到 - 知乎 (zhihu.com)</a></p><p>我的github链接：<a href="https://github.com/kexinoh" rel="noopener noreferrer" target="_blank">kexinoh</a></p>]]>
  </description>
  <itunes:author>苏迟但到</itunes:author>
  <itunes:image href="https://kexohcdn.gptapi.cyou/kexohproject/production/images/channel-2e54d141ee195646ca12a9d16507a908.jpg"/>
  <image>
    <title>苏迟但到的主页</title>
    <url>https://kexohcdn.gptapi.cyou/kexohproject/production/images/channel-2e54d141ee195646ca12a9d16507a908.jpg</url>
    <link>https://kexohproject.pages.dev</link>
  </image>
  <copyright>©2024</copyright>
  <itunes:category text="Education">
    <itunes:category text="Language Learning"/>
  </itunes:category>
  <itunes:category text="Technology"/>
  <item>
    <title>如何看待 DeepMind 新发布的 AlphaGeometry?</title>
    <guid>JXjdKzQqgB0</guid>
    <pubDate>Fri, 19 Jan 2024 15:22:49 GMT</pubDate>
    <itunes:explicit>false</itunes:explicit>
    <description>
      <![CDATA[<p data-pid="xLicPw2_">我对于Q-star的猜想与deepmind的实际研发工作有很多相似之处。</p><a href="https://www.zhihu.com/question/631459269/answer/3310870885" data-draft-node="block" data-draft-type="link-card" data-image="https://pic2.zhimg.com/v2-b6fe607da96d5c9cae2d7ba660d199b5_180x120.jpg" data-image-width="1286" data-image-height="789" class="internal">消息称OpenAI解雇奥特曼的导火索是可能对人类造成威胁的Q-star，它具体是什么？</a><p data-pid="IyoKv8kJ">我尝试从比较宏观的角度来看待未来AI数学模型的改进方向（可能比较片面，仅做抛砖引玉的作用）。</p><p data-pid="3aANAU4c">在很长时间内数学都被认为人类智商的真正高地，因为里面有着很多思考的过程，而且里面的弯弯绕绕太过于复杂了。</p><p data-pid="YkGWeRaO">而且无论是写数学题还是证明定理，都需要一个东西叫做灵感。</p><p data-pid="ljsIEPyn">灵感到底是什么?</p><p data-pid="u-RsEJXj">我认为可以看作人脑通过过往的数学知识对于最优路径的拟合。</p><p data-pid="7VwDeeEf">而解答数学题的过程其实就是灵感+遍历。我们产生一个又一个灵感，然后再排除一个又一个灵感，直到找到正确的灵感。</p><p data-pid="8FZW_WcR">过去的机器证明大量的工作都在为验证做准备。验证是实现灵感的前提，因为只有可以验证，那么我们才可以通过程序来生成大量的题目，从而完成AI的训练。</p><p data-pid="Zo9s-eHe">在可以预期的未来，随着可验证的数学领域的不断扩展和AI的不断强化，未来也许会有有限域证明机器，数论证明机器，流体力学证明机器等等。我可以相信未来AI可以解决一些目前人类难以想象的难题，也许是哥德巴赫猜想，谁知道呢？</p><p data-pid="T6QWE37s">但是目前的AI架构和数学领域的发展之间还是有一些不同的，这是我本文想说的东西。</p><p data-pid="MmEdzU3R">在数学领域中，人们具有抽象的概念，从而提出了许多新的概念，例如群，环，域，椭圆曲线等等。以及将一些有证明过程合理的总结为定理，从而帮助我们简化证明定理。</p><p data-pid="sRsUe0SU">这个简化过程就类似于将一大堆向量简化为了一个新的向量基，从而使得我们可以证明一些非常有难度的问题。不然每一个证明里面的引理都充分展开，就如同print(&#34;hello world&#34;)一样看上去很简单，但是展开之后的包的体积可能几十M。</p><p data-pid="F0EbApjG">但是AI目前还不具备这种抽象能力。</p><p data-pid="OHW5XLNw">虽然形式上来看，由很多段小的证明和几个分块的证明看上去的效果是一致的。</p><p data-pid="QJY9wLOA">但是通过引理的方式，可以帮助AI节约路径长度，从而提高效率。</p><figure data-size="normal"><noscript><img src="https://pic4.zhimg.com/v2-b4b807982de42cd7ea060c39e91a1773_b.jpg" data-size="normal" data-rawwidth="1575" data-rawheight="1120" data-original-token="v2-4184484dc65e3403c1db8f8d571ff99d" data-default-watermark-src="https://pic1.zhimg.com/v2-8751d0dc6ed1a44658b6a1d7b0b1ff6c_b.jpg" class="origin_image zh-lightbox-thumb" width="1575" data-original="https://pic4.zhimg.com/v2-b4b807982de42cd7ea060c39e91a1773_r.jpg"/></noscript><img src="data:image/svg+xml;utf8,&lt;svg xmlns=&#39;http://www.w3.org/2000/svg&#39; width=&#39;1575&#39; height=&#39;1120&#39;&gt;&lt;/svg&gt;" data-size="normal" data-rawwidth="1575" data-rawheight="1120" data-original-token="v2-4184484dc65e3403c1db8f8d571ff99d" data-default-watermark-src="https://pic1.zhimg.com/v2-8751d0dc6ed1a44658b6a1d7b0b1ff6c_b.jpg" class="origin_image zh-lightbox-thumb lazy" width="1575" data-original="https://pic4.zhimg.com/v2-b4b807982de42cd7ea060c39e91a1773_r.jpg" data-actualsrc="https://pic4.zhimg.com/v2-b4b807982de42cd7ea060c39e91a1773_b.jpg"/><figcaption>示意图</figcaption></figure><p data-pid="BSapc5Zh">引理应该通过人工导入吗？</p><p data-pid="CikQNmSS">虽然在alphago里面会人工导入棋谱，但是alphazero就已经完全重新开始对局了。</p><p data-pid="-NYCo0FG">在AI里面，越多先验，越意味着上限的限制。虽然在短期，充分的先验有利于帮助它证明更难的一些问题，但是同样也会锁死它的上限。</p><p data-pid="MtEp4zT7">因此最终还是要让AI学会对证明过程的打包。</p><p data-pid="SoqQY5jb">让AI学会创建定理并尝试引用自己创建的定理，那么需要重新设计强化学习网络。</p><p data-pid="i77GDckT">一个简单的奖励函数可以设计为当前总共有m个定理，新增了一个定理，可以有效节约1/n的证明步骤。</p><p data-pid="70_zjx1o">当1/m&gt;1/n的就可以认为这个定理存在是必要的。</p><p data-pid="CCNTXlAR">这样的过程可以诱导AI去总结不同情况的共性。</p><p data-pid="2j8dZsTm">（以上奖励函数仅为随手写的）</p><p data-pid="myZGyyHc">虽然从长期来看，抽象思维作为先验的引入可能也会导致AI的水平的下降，但是架构上的先验的效果好处远远大于数据集上的先验好处。</p><p></p>]]>
    </description>
    <itunes:title>New Article Title for iTunes</itunes:title>
  </item>
</channel>
</rss>