<?xml version='1.0' encoding='UTF-8'?>
<?xml-stylesheet href="/rss/stylesheet/" type="text/xsl"?>
<rss xmlns:content='http://purl.org/rss/1.0/modules/content/' xmlns:taxo='http://purl.org/rss/1.0/modules/taxonomy/' xmlns:rdf='http://www.w3.org/1999/02/22-rdf-syntax-ns#' xmlns:itunes='http://www.itunes.com/dtds/podcast-1.0.dtd' xmlns:googleplay="http://www.google.com/schemas/play-podcasts/1.0" xmlns:dc='http://purl.org/dc/elements/1.1/' xmlns:atom='http://www.w3.org/2005/Atom' xmlns:podbridge='http://www.podbridge.com/podbridge-ad.dtd' version='2.0'>
<channel>
  <title>苏迟但到的主页</title>
  <language>zh-cn</language>
  <generator>microfeed.org</generator>
  <itunes:type>episodic</itunes:type>
  <itunes:explicit>false</itunes:explicit>
  <atom:link rel="self" href="https://kexohproject.pages.dev/rss/" type="application/rss+xml"/>
  <link>https://kexohproject.pages.dev</link>
  <description>
    <![CDATA[<p>你好，欢迎访问个人主页！</p><p>擅长密码学，安全分析，数字水印等技术。</p><p>你可以联系我通过:findmykexin@gmail.com或者知乎私信。</p><p>我的知乎链接：<a href="https://www.zhihu.com/people/su-chi-dan-dao" rel="noopener noreferrer" target="_blank">苏迟但到 - 知乎 (zhihu.com)</a></p><p>我的github链接：<a href="https://github.com/kexinoh" rel="noopener noreferrer" target="_blank">kexinoh</a></p>]]>
  </description>
  <itunes:author>苏迟但到</itunes:author>
  <itunes:image href="https://kexohcdn.gptapi.cyou/kexohproject/production/images/channel-2e54d141ee195646ca12a9d16507a908.jpg"/>
  <image>
    <title>苏迟但到的主页</title>
    <url>https://kexohcdn.gptapi.cyou/kexohproject/production/images/channel-2e54d141ee195646ca12a9d16507a908.jpg</url>
    <link>https://kexohproject.pages.dev</link>
  </image>
  <copyright>©2024</copyright>
  <itunes:category text="Education">
    <itunes:category text="Language Learning"/>
  </itunes:category>
  <itunes:category text="Technology"/>
  <item>
    <title>向GPT问两次相同的问题，GPT的回答完全相同的概率可以估计吗？</title>
    <guid>O6laq4jZ-Q2</guid>
    <pubDate>Mon, 22 Jan 2024 14:03:10 GMT</pubDate>
    <itunes:explicit>false</itunes:explicit>
    <description>
      <![CDATA[<p data-pid="O6Zb8_kW">这个值是可以被精确计算出来的，但是你要拿到具体的模型。</p><p data-pid="9bIPZlNU">在语言模型（如GPT系列）中，&#34;温度&#34;是一个超参数，它控制模型生成文本时的随机性。温度参数在softmax函数的应用中起到关键作用，softmax函数用于将模型的原始输出（通常被称为logits）转化为概率分布。</p><p data-pid="Y5_hWl45">tmax函数获得对应的概率分布p，公式如下：</p><p data-pid="G4byysr4"><img src="https://www.zhihu.com/equation?tex=%24%24p%28i%29+%3D+%5Cfrac%7Be%5E%7Bz%28i%29%2FT%7D%7D%7B%5Csum_j+e%5E%7Bz%28j%29%2FT%7D%7D%24%24" alt="$$p(i) = \frac{e^{z(i)/T}}{\sum_j e^{z(j)/T}}$$" eeimg="1"/> </p><p data-pid="3swhkC_6">这里T就是温度参数。如你所见，当T的值变化时，分母和分子都会受到影响，从而改变概率分布p。</p><p data-pid="j9n1TUGg">如果T接近0（但不能为0，因为这会导致除数为0的问题），模型会变得非常确定性，总是选择最可能的输出。这可能会导致生成的文本过于一致，缺乏多样性。</p><p data-pid="uWaTaDY0">如果T大于1，模型的输出会变得更加随机。当T很大时，所有输出的概率几乎相等，这就像是在所有可能的输出中随机选择。</p><p data-pid="v-YQM7pX">因此，通过调整温度参数，我们可以控制模型生成的文本的多样性和确定性。较低的温度会导致更确定性的输出，而较高的温度会导致更随机的输出。</p>]]>
    </description>
    <itunes:title>New Article Title for iTunes</itunes:title>
  </item>
</channel>
</rss>