{"version":"https://jsonfeed.org/version/1.1","title":"苏迟但到的主页","home_page_url":"https://kexohproject.pages.dev","feed_url":"https://kexohproject.pages.dev/json/","description":"<p>你好，欢迎访问个人主页！</p><p>擅长密码学，安全分析，数字水印等技术。</p><p>你可以联系我通过:findmykexin@gmail.com或者知乎私信。</p><p>我的知乎链接：<a href=\"https://www.zhihu.com/people/su-chi-dan-dao\" rel=\"noopener noreferrer\" target=\"_blank\">苏迟但到 - 知乎 (zhihu.com)</a></p><p>我的github链接：<a href=\"https://github.com/kexinoh\" rel=\"noopener noreferrer\" target=\"_blank\">kexinoh</a></p>","icon":"https://kexohcdn.gptapi.cyou/kexohproject/production/images/channel-2e54d141ee195646ca12a9d16507a908.jpg","favicon":"https://kexohcdn.gptapi.cyou/kexohproject/production/images/favicon-340a2925d02a0386f3b954a032834917.jpg","authors":[{"name":"苏迟但到"}],"language":"zh-cn","items":[{"id":"WQRifUYrti6","title":"消息称OpenAI解雇奥特曼的导火索是可能对人类造成威胁的Q-star，它具体是什么？","content_html":"<p data-pid=\"btJUV5FY\">我来说一下我对于这个算法的理解吧。</p><p data-pid=\"3bp3nUIg\">注：不一定正确的，因为我不是openai内部人员。</p><p data-pid=\"iBUnxRsb\">我认为Q star和LLM模型的最大区别就是支持的问题的复杂度发生了改变，从只能支持有限复杂度变成了支持无限复杂度。</p><p data-pid=\"1xwQhbLC\">在LLM模型中， 对于一个输出再经过了一定长度的网络之后，那么一定会输出答案。</p><p data-pid=\"9Km6b0vz\">但是很明显，有限复杂度的GPT4无法回答出更长复杂度的问题。</p><p data-pid=\"zaye10D5\">因此即使是GPT4也无法在不借助计算器的前提下完成3213546510*251202102。</p><p data-pid=\"0ucwksqx\">类似于数学问题或者更为现实的问题，如果无法使用python建模，那么GPT4输出的答案就会语无伦次。因为GPT4如果可以回答出超过它所支持的复杂度的回答那么就违背了信息论的定理。</p><p data-pid=\"zctuo-NV\">但是我们可以使用langchain来实现上述的乘法，我们让它分解到个位数相乘，然后再分解为个位数相加，最终输出。</p><p data-pid=\"6G0J9LRp\">我们可以采用langchain这种迭代的方式来支持回答更为复杂的回答，但是这种非原生的方式存在效率的问题。</p><p data-pid=\"PB8cZMrz\">每一个网络深度都代表一次抉择，但是抉择99次也不能解决需要计算100次的简单问题。</p><p data-pid=\"Pc62lVjN\">下面为示意图<br/></p><figure data-size=\"normal\"><noscript><img src=\"https://pic1.zhimg.com/v2-d040574cb398f0e37206689d65886b4c_b.jpg\" data-caption=\"\" data-size=\"normal\" data-rawwidth=\"1286\" data-rawheight=\"789\" data-original-token=\"v2-b6fe607da96d5c9cae2d7ba660d199b5\" data-default-watermark-src=\"https://pic3.zhimg.com/v2-c56401e4b90e04a4a1102e5c56b14532_b.jpg\" class=\"origin_image zh-lightbox-thumb\" width=\"1286\" data-original=\"https://pic1.zhimg.com/v2-d040574cb398f0e37206689d65886b4c_r.jpg\"/></noscript><img src=\"data:image/svg+xml;utf8,&lt;svg xmlns=&#39;http://www.w3.org/2000/svg&#39; width=&#39;1286&#39; height=&#39;789&#39;&gt;&lt;/svg&gt;\" data-caption=\"\" data-size=\"normal\" data-rawwidth=\"1286\" data-rawheight=\"789\" data-original-token=\"v2-b6fe607da96d5c9cae2d7ba660d199b5\" data-default-watermark-src=\"https://pic3.zhimg.com/v2-c56401e4b90e04a4a1102e5c56b14532_b.jpg\" class=\"origin_image zh-lightbox-thumb lazy\" width=\"1286\" data-original=\"https://pic1.zhimg.com/v2-d040574cb398f0e37206689d65886b4c_r.jpg\" data-actualsrc=\"https://pic1.zhimg.com/v2-d040574cb398f0e37206689d65886b4c_b.jpg\"/></figure><p data-pid=\"-6Y4gJre\">在Q star的网络中会采用更小的网络宽度和网络深度，但是采用的是寻路算法这种反复答案的迭代来解决很复杂的问题。</p><p data-pid=\"MDy2Xacj\">在Q star的理论中，所有的数学问题（更广泛的观点是认为所有的问题）都是由一组基础的数学命题组成的向量。</p><p data-pid=\"YwLkXE9Y\">而解答过程就是找到这个向量。</p><p data-pid=\"9D8NRPvn\">如果这个向量的长度很长，那么就需要Q star每一步都依靠直觉找到下一步的解法。这个过程就非常类似于人的选择。从而Q star这个算法就非常类似于人类的思维。</p><p data-pid=\"x_vus7MW\">然后就是训练过程，训练过程的话可能是一开始是反复生成5，6步的数学命题，当准确率或者运行时间等指标达到要求，再逐步增大数学命题的向量的长度，并相应的适当的增大网络宽度。</p><p data-pid=\"o5c22eCQ\">我把这个说法给别人说了之后，它们说如何定义定理的价值函数。我个人观点认为它不存在命题的价值函数，所有的命题是等价的，它是命题解答算法，不是命题生成算法。</p><p data-pid=\"BqMMs8kq\">而价值函数应该主要集中在运行时间（即找到答案的长度）这一点，也许一开始的算法会兜兜转转，一个5步才能解决的算法，最后30步才解决，那么它的价值就比较低。</p><p class=\"ztext-empty-paragraph\"><br/></p><p data-pid=\"UTyiZv8F\">所以看上去Q star类似于一个真正的思考算法，它会随着问题的复杂而思考更久，这才是符合第一性原理的算法。</p>","content_text":"我来说一下我对于这个算法的理解吧。\n\n注：不一定正确的，因为我不是openai内部人员。\n\n我认为Q star和LLM模型的最大区别就是支持的问题的复杂度发生了改变，从只能支持有限复杂度变成了支持无限复杂度。\n\n在LLM模型中， 对于一个输出再经过了一定长度的网络之后，那么一定会输出答案。\n\n但是很明显，有限复杂度的GPT4无法回答出更长复杂度的问题。\n\n因此即使是GPT4也无法在不借助计算器的前提下完成3213546510*251202102。\n\n类似于数学问题或者更为现实的问题，如果无法使用python建模，那么GPT4输出的答案就会语无伦次。因为GPT4如果可以回答出超过它所支持的复杂度的回答那么就违背了信息论的定理。\n\n但是我们可以使用langchain来实现上述的乘法，我们让它分解到个位数相乘，然后再分解为个位数相加，最终输出。\n\n我们可以采用langchain这种迭代的方式来支持回答更为复杂的回答，但是这种非原生的方式存在效率的问题。\n\n每一个网络深度都代表一次抉择，但是抉择99次也不能解决需要计算100次的简单问题。\n\n下面为示意图\n\n\n[https://pic1.zhimg.com/v2-d040574cb398f0e37206689d65886b4c_b.jpg][data:image/svg+xml;utf8,&lt;svg\nxmlns=&#39;http://www.w3.org/2000/svg&#39; width=&#39;1286&#39;\nheight=&#39;789&#39;&gt;&lt;/svg&gt;]\n\n在Q star的网络中会采用更小的网络宽度和网络深度，但是采用的是寻路算法这种反复答案的迭代来解决很复杂的问题。\n\n在Q star的理论中，所有的数学问题（更广泛的观点是认为所有的问题）都是由一组基础的数学命题组成的向量。\n\n而解答过程就是找到这个向量。\n\n如果这个向量的长度很长，那么就需要Q star每一步都依靠直觉找到下一步的解法。这个过程就非常类似于人的选择。从而Q star这个算法就非常类似于人类的思维。\n\n然后就是训练过程，训练过程的话可能是一开始是反复生成5，6步的数学命题，当准确率或者运行时间等指标达到要求，再逐步增大数学命题的向量的长度，并相应的适当的增大网络宽度。\n\n我把这个说法给别人说了之后，它们说如何定义定理的价值函数。我个人观点认为它不存在命题的价值函数，所有的命题是等价的，它是命题解答算法，不是命题生成算法。\n\n而价值函数应该主要集中在运行时间（即找到答案的长度）这一点，也许一开始的算法会兜兜转转，一个5步才能解决的算法，最后30步才解决，那么它的价值就比较低。\n\n\n\n\n所以看上去Q star类似于一个真正的思考算法，它会随着问题的复杂而思考更久，这才是符合第一性原理的算法。","date_published":"2023-12-02T12:11:46.000Z","_microfeed":{"web_url":"https://kexohproject.pages.dev/i/openaiq-star-WQRifUYrti6/","json_url":"https://kexohproject.pages.dev/i/WQRifUYrti6/json/","rss_url":"https://kexohproject.pages.dev/i/WQRifUYrti6/rss/","guid":"WQRifUYrti6","status":"published","itunes:title":"New Article Title for iTunes","date_published_short":"Sat Dec 02 2023","date_published_ms":1701519106000}}],"_microfeed":{"microfeed_version":"0.1.2","base_url":"https://kexohproject.pages.dev","categories":[{"name":"Education","categories":[{"name":"Language Learning"}]},{"name":"Technology"}],"subscribe_methods":[{"name":"RSS","type":"rss","url":"https://kexohproject.pages.dev/rss/","image":"https://kexohproject.pages.dev/assets/brands/subscribe/rss.png","enabled":true,"editable":false,"id":"4KlfbtkEfzy"},{"name":"JSON","type":"json","url":"https://kexohproject.pages.dev/json/","image":"https://kexohproject.pages.dev/assets/brands/subscribe/json.png","enabled":true,"editable":false,"id":"DVFm7TYiNSq"}],"description_text":"你好，欢迎访问个人主页！\n\n擅长密码学，安全分析，数字水印等技术。\n\n你可以联系我通过:findmykexin@gmail.com或者知乎私信。\n\n我的知乎链接：苏迟但到 - 知乎 (zhihu.com)\n\n我的github链接：kexinoh","copyright":"©2024","itunes:type":"episodic","items_sort_order":"newest_first"}}