ChatGPT进阶教程,3分钟翻译完一本书

原创 AI进化论-花生 花叔 2024-10-20 20:05

原文地址: https://mp.weixin.qq.com/s/SEjFljt7P30xOehjmtMjnw

互动数据

  • 阅读:2313
  • 点赞:13
  • 转发:169
  • 喜欢:9
  • 留言:1

公众号最近更新得很少,有两部分原因:

  • 一是AI的基本原理就是那些,尤其是Prompt技巧方面,在讲完之后我觉得需要额外补充的不多;

  • 二是最近Cursor 让我具备了编程写代码的能力,去创造一个新的产品,或者自动化工作流实现一个复杂的工作对我而言有更强的吸引力。

我非常建议在AI领域获得了一定基础的同学该去试试AI编程,我也有大量的YouTube/B站视频在做对应的教学:

1. Cursor入门介绍&写插件演示

https://www.bilibili.com/video/BV17oHjexEro/

2. Cursor高级技巧与实战

https://www.bilibili.com/video/BV1YAtReqEkH/

3. 用Cursor做一个带注册登录功能的AI网站

https://www.bilibili.com/video/BV17dxEeBEqU/

4. 用Cursor写一个完整的AI native App

https://www.bilibili.com/video/BV1Hu2EYkEg4/

5. 用Cursor写本地自动化脚本

https://www.bilibili.com/video/BV1wKtgeZE6q/

6. 用Cursor写文章

https://www.bilibili.com/video/BV1S7H9e2EA7/

自动化书籍翻译

AI时代的纺织女工

我今天想通过这个自动化完成一本英文书籍翻译的例子,来让你了解使用AI完成自动化工具的魅力。

我估计很多人都有尝试过在和ChatGPT聊天的时候,给它发个长文,文章链接或者pdf文档的方式,希望他一次性完成翻译。但是ChatGPT确实是做不到这件事的,有两个原因:

  • 现在ChatGPT及大多数AI的上下文长度大概是128k,也就是大约6.4万汉字或单词,更长的内容ChatGPT是读取不了,至少不是真正在读的;

  • 而且,比这个上下文长度限制更夸张的是,其实AI单次输出的token最大长度一般只有4096,也就是2000字左右,要他一次性输出更长的内容他是真做不到。

所以,怎么办呢?多数人的方式应该是自己分割长度,几段几段地发送给ChatGPT,让他完成之后再自己进行拼接。想象一下你可能要苦苦地等待输出,再拼接100次!有没有AI时代的女工的感觉?

但实际上,你完全可以通过调用OpenAI API的方式,让GPT循环重复地完成它需要做的事,一次性完成你想要完成的任务,比如翻译一本《老人与海》,我只需要执行python文件,然后等待3分钟就好了。

什么是API和API key

这里给不了解编程的同学简单介绍下,所谓API(Application Programming Interface,应用程序编程接口)是一种让应用程序之间按预先定义的规则和协议进行互相通信和交互的工具。

应用间API的调用是件非常常见,但我们平时没有感知的事,比如当你用各种天气应用查看查看天气预报时,天气应用可能在后台使用API从天气服务提供商(如和风天气、OpenWeatherMap等)获取实时天气数据和预报。又比如你在携程查找酒店,通过内置地图查看酒店地点时,也是携程使用地图服务提供商的API获取地图图面和地点的地理信息。但是你自己平时使用时可能毫无感知,因为作为消费者,我们需要的只是服务,而不需要开发层面的知识。

API key(密钥)是调用API时需要传输的身份密钥,用于验证身份以及API提供方对调用方计费等。OpenAI API key则顾名思义就是OpenAI针对自己所提供的ChatGPT等服务,在接受开发者/用户接口调用时所需的密钥。

API的调用不在ChatGPT Plus会员的免费范围之内,需要按使用量进行付费,像OpenAI的你需要在这里预先充值才可以:OpenAI充值入口https://platform.openai.com/settings/organization/billing/overview

当然,现在OpenAI只支持海外的信用卡进行申请,如果你没有的话,可以先尝试使用国内其他公司(如通义千问、deepseek等)的API服务,或者通过👉Wildcard:https://bewildcard.com/?code=AIHS 申请一张境外信用卡去进行充值。

书籍翻译的解决思路

在使用脚本去调用OpenAI翻译时,其实也会遇到下述几个问题:

1、AI的上下文有限,通常的128K没法直接读完一本书,更别提一般每次输出只有4098的token数了,所以需要把书籍进行分割;

2、你需要写更好的prompt去达到一定的翻译质量,避免机翻感,这需要对LLM和翻译工作都有一定的理解;

3、全书来说,如果分割翻译的话,很容易出现同一个词/名字,前后翻译不一致的问题,以及翻译风格很容易受AI随机性的影响。

如果前面我的专栏文章看得认真的话,也会发现有很容易的解决方案。

下面我把这个Python脚本直接附在上面,你可以理解下实现的逻辑,也可以直接拿来就用(不知道怎么运行的话找ChatGPT问问就好)。

one more thing,我现在做了个叫「AI编程:从入门到精通」的知识星球,致力于帮1000个人做出自己的第一个网站,上架人生首款app,感兴趣的可以看看。

👇点击阅读原文有惊喜