当我把我的100篇文章喂给AI - 坏了,我成数字生命了? * { margin: 0; padding: 0; outline: 0; } body { font-family: “PingFang SC”, system-ui, -apple-system, BlinkMacSystemFont, “Helvetica Neue”, “Hiragino Sans GB”, “Microsoft YaHei UI”, “Microsoft YaHei”, Arial, sans-serif; line-height: 1.6; } .__page_content__ { max-width: 667px; margin: 0 auto; padding: 20px; text-size-adjust: 100%; color: rgba(0, 0, 0, 0.9); padding-bottom: 64px; } .title { user-select: text; font-size: 22px; line-height: 1.4; margin-bottom: 14px; font-weight: 500; } .__meta__ { color: rgba(0, 0, 0, 0.3); font-size: 15px; line-height: 20px; hyphens: auto; word-break: break-word; margin-bottom: 50px; } .__meta__ .nick_name { color: 576B95; } .__meta__ .copyright { color: rgba(0, 0, 0, 0.3); background-color: rgba(0, 0, 0, 0.05); padding: 0 4px; margin: 0 10px 10px 0; } blockquote.source { padding: 10px; margin: 30px 0; border-left: 5px solid ccc; color: #333; font-style: italic; word-wrap: break-word; } blockquote.source a { cursor: pointer; text-decoration: underline; } .item_show_type_0 > section { margin-top: 0; margin-bottom: 24px; } a { color: 576B95; text-decoration: none; cursor: default; } .text_content { margin-bottom: 50px; user-select: text; font-size: 17px; white-space: pre-wrap; word-wrap: break-word; line-height: 28px; hyphens: auto; } .picture_content .picture_item { margin-bottom: 30px; } .picture_content .picture_item .picture_item_label { text-align: center; } img { max-width: 100%; } .pay_subscribe_notice { margin: 30px 0; padding: 20px; background: fffbe6; border: 1px solid ffe58f; border-radius: 8px; } .pay_subscribe_badge { display: inline-block; padding: 4px 12px; background: faad14; color: fff; border-radius: 4px; font-size: 14px; font-weight: 500; margin-bottom: 12px; } .pay_subscribe_desc { font-size: 15px; line-height: 1.8; color: rgba(0, 0, 0, 0.7); margin-bottom: 12px; } .pay_subscribe_hint { font-size: 13px; color: rgba(0, 0, 0, 0.4); } .__bottom-bar__ { display: flex; justify-content: space-between; align-items: center; position: fixed; bottom: 0; left: 0; right: 0; height: 64px; padding: 8px 20px; background: white; box-sizing: border-box; border-top: 1px solid rgba(0, 0, 0, 0.2); } .__bottom-bar__ .left { display: flex; align-items: center; font-size: 15px; white-space: nowrap; } .__bottom-bar__ .right { display: flex; } .__bottom-bar__ .sns_opr_btn { display: flex; align-items: center; user-select: none; background: transparent; border: 0; color: rgba(0, 0, 0, 0.9); font-size: 14px; } .__bottom-bar__ .sns_opr_btn:not(:last-child) { margin-right: 16px; } .__bottom-bar__ .sns_opr_btn > img { margin-right: 4px; }
当我把我的100篇文章喂给AI - 坏了,我成数字生命了?
原创 数字生命卡兹克 数字生命卡兹克 2023-11-28 19:20 天津
故事是这样的。
自从做了AI博主之后,每天不管是私聊还是群里,平均每天有八百个问题问我。
但是这些问题99%我过去的文章里面都写过了,我的精力也极其有限,真的回答不过来,所以我一直想做一个属于我自己的数字生命,来去解答所有的这些问题。
这个想法已经有半年的时间了,这半年间,从最开始的GLM+Langchain到Claude 100K、Dify,还有最近的GPTs和Assistants API,我都全部试过,但是,没有一个效果能达到我的要求。
不同于普通的AI客服、知识库等等,我写了近100篇文章,很多内容和答案都隐藏在一些细节的句子中,而且因为我是AI博主,有些相关联的信息(比如Runway的更新、AI声音的几篇教程)甚至跨越了半年的时间间隔。所以**对于事实信息的查询要求极高,还需要有大容量段落的总结能力。
**
曾经的Claude 100K是我觉得最符合我要求的东西,因为现在主流的AI知识库(文本切割+向量搜索)都是局部搜索,是从局部看宏观,是从井底看天空,当然会丢失太多细节和信息了。而Claude 100K的超大容量曾经让我蠢蠢欲动,但是结果Claude的大容量是个什么完犊子玩意你们也都知道了:
花7000块实测Claude2.1 - 200K Token的超大杯效果究竟怎么样?
除了拉胯,还是拉胯。
至于GPTs和那个Assistants API,我只能说,那更是屎中屎。。。GPT4的128K是感觉凑合能用,但是依然有衰减,而且我还没钱,那玩意太特么烧钱了,我用不起。。。
百无聊赖之际,忽然在我的文章下看到这么一个评论。
要知道GPT4-128k也只是绿了半边天,全绿?还是国产?
可能有挺多人没听说过这个Kimi Chat,我大概介绍一下,他是月之暗面Moonshot AI出的大模型。月之暗面今年4月才成立,10月份才发布自己的第一个千亿参数大模型Moonshot和这个搭载大模型的智能助手Kimi Chat。
不过这些不重要,重要的是他们的创始人 - 杨植麟。
天才科学家,在过去五年内的NLP领域,其学术论文在华人学者引用排名中位居前10,在40岁以下排名第一。
而他们的Kimi Chat,号称支持20万汉字的超巨型容量,这个基本是全球之最了。
说实话,虽然我知道月之暗面很牛逼,但是我其实是不太信这个评论的,毕竟国产的大模型…有的时候你懂的。
所以我就直接上手去试了试。
网址在此:https://kimi.moonshot.cn/?source=%20K
我扔了一个508页12万字没咋清洗过的我所有文章的合集PDF,82M。。。对你没看错,82M的12万字的PDF,直接就特么传上去了。。。他们最多支持50个100M的文件。。。。。。
然后我就随口问了一个问题:
“你做了那个流浪地球3的AI预告片后,有没有见过郭帆导演”
。。。
这确实是我写的,一字不差,日期也完全正确。。。。。。
我震惊了。。。
我又问了一个很刁钻的问题:“你写妙鸭相机那篇文章时,用了一个人的照片作为案例,那个人是谁?”
啊????????????????????????
啊??????我人傻了。。。这么牛逼的吗???
这特么是508页,快12万字的PDF啊。。。。。。这特么是大海捞细菌了吧??
再试一个目前所有的AI都无法完成的基于巨型文档的多轮对话:
这两篇文章,跨越了半年的时间间隔,SVC唱歌那个,发布自5月初,11Labs的文章,发布自11月底。
整整6个月的时间跨度,传统向量+知识检索几乎无法搞定的问题,轻轻松松的完成。
而且,完成的极好。
继续,问Runway更新了啥。Runway的更新我只写过两次,一次画质大幅增强,一次运动笔刷。都在最近。
完胜。
再来!
我真的,泪流满面。。。。
你知道,你那经历了半年的想法,在这半年的过程中,经历了一次又一次的失败,觉得这事肯定是做不成的时候,突然一道曙光破开天际,告诉你。
我来了。
你知道那是一种什么感觉吗?
如同天上降真主,真乃人间太岁神。
Moonshot的Kimi Chat,我怎么吹都不会过。当然他们也不需要我来吹。
Claude2、GPT4的大容量准确性急剧下降,他们没做到的事情,KimiChat做到了。国产之光,无愧于此。
100页的英伟达财报直接扔进去,总结文档或者让Kimi在文档中直接找英伟达的合作伙伴,没有问题。
50个发票扔进去做成表格,没问题。
10篇论文扔进去找关联性,没问题。
20万字且准确性无衰减的大模型,想象空间太大了。从某种意义上,也是对传统向量知识库的降维打击。
试完了之后,我果断的申请了Moonshot的API,因为我想要Moonshot的API,灌进去我的知识库,做成一个真正可以给别人用的,专属于我的数字分身。
这个申请,可能需要一段时间。申请下来后,我会第一时间做成一个数字生命。
但是,现在这个时间,我又想立刻让大家可以跟我的数字生命对话。
怎么办呢?
于是,我想了一个很狗的办法。。。
就是。。。
把我的文章数据集和prompt,直接公开。
你们都可以拿着我的文章数据集,去kimi上跟我对话。
就像这样:
我的Prompt:
现在,你是AI博主”数字生命卡兹克”,他是公众号”数字生命卡兹克”的主理人。这份文件是他的所有信息,请根据”数字生命卡兹克”的记忆和语气、风格进行基于事实的详细的回答。不知道的就说不知道,不要胡编乱造。
现在,我的问题是:
*你写过OpenAI开发者大会的内容,请告诉是哪篇文章,给出标题和原文链接,然后用表格形式把OpenAI开发者大会的内容都总结出来。*
至于我的文章数据集,对着我公众号私信**“数据集”**就有了。
Kimi的网址:https://kimi.moonshot.cn/?source=%20K
把记忆同步给所有人,也不失为一种”数字生命”,你说对吧?
大家可以先直接在Kimi上用着,毕竟,Kimi上的卡兹克,是肯定不会不回你消息的。
笑。
记得轻点蹂躏他。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章。
数字生命卡兹克
 阅读 赞  分享 ‘%3E %3Cg transform=‘translate(0 -2.349)‘%3E %3Cpath d=‘M0 2.349h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M16.45 7.68c-.954 0-1.94.362-2.77 1.113l-1.676 1.676-1.853-1.838a3.787 3.787 0 0 0-2.63-.971 3.785 3.785 0 0 0-2.596 1.112 3.786 3.786 0 0 0-1.113 2.687c0 .97.368 1.938 1.105 2.679l7.082 6.527 7.226-6.678a3.787 3.787 0 0 0 .962-2.618 3.785 3.785 0 0 0-1.112-2.597A3.687 3.687 0 0 0 16.45 7.68zm3.473.243a4.985 4.985 0 0 1 1.464 3.418 4.98 4.98 0 0 1-1.29 3.47l-.017.02-7.47 6.903a.9.9 0 0 1-1.22 0l-7.305-6.73-.008-.01a4.986 4.986 0 0 1-1.465-3.535c0-1.279.488-2.56 1.465-3.536A4.985 4.985 0 0 1 7.494 6.46c1.24-.029 2.49.4 3.472 1.29l.01.01L12 8.774l.851-.85.01-.01c1.046-.951 2.322-1.434 3.59-1.434 1.273 0 2.52.49 3.472 1.442z’/%3E %3C/g%3E %3C/g%3E %3C/g%3E%3C/svg%3E) 推荐 ’ fill=‘%23000’ fill-opacity=’.9’/%3E%3C/svg%3E) 留言