关于GPT-4,我们很好奇为什么它的发展如此迅速。我们想了解它在模型方面的改进,并且想知道它使用了多少参数。现在Open已经不再公布这些信息了,尽管他们之前是一个非盈利组织。以前的GPT-2甚至是开源的,但自从微软投资之后,成为了一家私营公司。由于市场竞争激烈,这些信息都成为商业机密,我们无法得知。我甚至不能告诉你参数量是多少。
对于来说,OpenAI的GPT-4肯定具有先发优势。但其他大型技术公司都在拼命追赶这个趋势。只要有能力,它们就会努力训练自己的大型模型。例如,谷歌的BERT、百度的文心一言、阿里的通义千问、Meta的LAMA以及华为的OpenA等等,甚至一些前员工单独创建的AI平台等。市场上已经出现了几十个大型模型,而谷歌 就有七八个大模型。
其实,这些底层的大模型都追求通用性,就像小孩子们接受的通识教育一样。然而,如果你想训练一个针对某个专业领域的人工智能,你可以选择自己进行训练,比如像金融巨头bloomberg这样的大公司。但是对于中小型公司来说,他们可能没有这个实力。
因此,他们可以基于已经训练好的大模型进行二次训练,类似于给刚刚接受通识教育的小孩子提供专业课程,让他们成为该领域的专家。另外,他们也可以直接调用这些大模型的API接口,将其作为自己服务的一部分。这种可延展性非常强,未来可能会渗透到整个市场。就是从这里开始的。
最后让我们看一看默拉智能调用的GPT模型和API的费用对比表格:
模型名称 | 资费(output) | 速率限制 | token令牌限制 (含上下文) |
gpt-3.5-turbo | $0.002 / k | 90K / min | 4K |
gpt-3.5-turbo-0613 | $0.002 / k | 90K / min | 4K |
gpt-3.5-turbo-16k | $0.004 / k | 180K / min | 16K |
gpt-3.5-turbo-16k-0613 | $0.004 / k | 180K / min | 16k |
gpt-4 | $0.06 / k | 200K / min | 8K |
gpt-4-0613 | $0.06/ k | 200K / min | 8K |
gpt-4-32k | $0.12 / k | 150K / min | 32K |
gpt-4-32k-0613 | $0.12 / k | 150K / min | 32K |