# 使用ChatGPT的三条哲学

By [0xTodd](https://paragraph.com/@0xtodd) · 2023-03-28

---

最近我成为了GPT-4的重度用户，想着分享一些我自己的使用心得给大家。另外，后面附上一些我常用的指令（prompt）。

  

在开始前，首先是三条使用哲学：

（1）它是“生成型”，不是“真理型”；

（2）它最擅长的是“助理”类工作；

（3）它没有情感，但可以共鸣；它没有意志，但有价值观。

  

一、能用搜索引擎快速搞定的问题，不要去问它。

  

GPT的工作原理：它总是通过概率来猜测你想要什么样的答案。

  

比如我说“八仙过海”，算法告诉他下一句是“各显神通”的概率是90%，那么它就会说“各显神通”。这不代表它真的理解这句成语是什么意思，只是概率叫它这么做。

  

因此，它常常会用非常自信的口吻告诉你错误的答案，也是我们常说的“一本正经胡说八道”。尽管GPT-4这样的现象有好转，但是仍然建议，能用搜索引擎快速搞定的，不要问它。

![PS：这位吟唱“江山如此多娇”的“李白”可能出生在光绪时期…](https://storage.googleapis.com/papyrus_images/e135a49822abf754c1d3fe206ef79398fe4efe85d9caf596f50b8e45ec40b352.png)

PS：这位吟唱“江山如此多娇”的“李白”可能出生在光绪时期…

它是生成型“generative”，它善于生成，而不擅长真相。所以马斯克之前说过，他想开发一个truthGPT，即只传递真相。当然，互联网尚且上各种假消息横行，真理AI恐怕更加任重道远。

[![User Avatar](https://storage.googleapis.com/papyrus_images/9c516a864f12bf5e5191fbd9d6dcba8a8e2275da5eecb623d5124de45080bf64.jpg)](https://twitter.com/elonmusk)

[Elon Musk](https://twitter.com/elonmusk)

[@elonmusk](https://twitter.com/elonmusk)

[![Twitter Logo](https://paragraph.com/editor/twitter/logo.png)](https://twitter.com/elonmusk/status/1626533667408596992)

What we need is TruthGPT

 [![Like Icon](https://paragraph.com/editor/twitter/heart.png) 270.3K](https://twitter.com/elonmusk/status/1626533667408596992)[

4:47 AM • Feb 17, 2023

](https://twitter.com/elonmusk/status/1626533667408596992)

  

而且最关键的，你能用Google 1分钟搜到的资料，你找它，让它吭哧吭哧生成很久（GPT-4速度很慢），甚至再给你几个假的论文链接，你就叫苦不迭了。

  

既然知道它是“生成型”，那这在什么地方用到比较多呢？

  

√写邮件是一流的，客套话拉满。

![](https://storage.googleapis.com/papyrus_images/ef314ef6175869b88ec3534752ab01ea9793302fa4d6e634da9be08c21b7544e.png)

√写摘要，很多人都提到过。

  

![](https://storage.googleapis.com/papyrus_images/acbc895c745b4de13ff78c703fa22da43f5bf3a5b872518e38604ec82cc6ba3f.png)

对于3.5来说有些鸡肋，GPT-4支持超长文本输入，你丢过一长篇文章，让它写写摘要是不错的。

我试着它摘要了一篇英国金融时报的文章，前两段是可以的，可惜第三段就包含了一些文章中没有的内容。所以，还是书还是自己老实念的，少年！

  

8/n

√设计各类会议、活动流程

这些都大同小异，因此它很擅长。

  

√填写各种申报材料

尤其是那种比较虚的，如未来规划、市场计划、内容介绍等，这会让你看上去包含很多工作量，让你的材料非常“充实”。

  

二、请朝着助理的方向去使用它。

  

助理是一个比喻，它擅长帮你处理杂事，它随叫随到，它在某些领域有专长。

  

√GPT最擅长的领域是翻译。

我认为在“机器翻译”这个领域，GPT已经杀死了比赛。默哀to有道&谷歌翻译。无论是长篇英文翻译精准中文，还是中文口语翻译成为Native Speaker讲的地道英文，它都无往不利。

  

95%的人类助理（即中英文都是母语级别）达不到这个程度，100%的人类助理不可能比它更快（处理一篇文章只需要几分钟）。

  

我依稀记得我大学的英文老师梁老师，他特别喜欢讽刺那些粗劣的“英文直译”，这让我对讲话能像native speaker一样有了极强的执念，我经常问GPT一些中文对话如何用native的方式表达出来。

  

![](https://storage.googleapis.com/papyrus_images/928b9887bdd4a78920123acecb0081c45ca72703bb3070c1d740609f705bccd8.png)

附上另一个我觉得很有代表性的翻译案例。

![](https://storage.googleapis.com/papyrus_images/90489259d6c2110b3d9d1c0c2a992dbaa6d3ec4c50b894466c1a980b6bbf2a2f.png)

  

√理解推文/DC发言

除了Native的表达，[#ChatGPT](https://twitter.com/hashtag/ChatGPT?src=hashtag_click) 也可以帮你理解一些推特/discord中的内容。而传统的翻译软件是没有背景知识的，所以GPT可以轻松吊打其他软件。

  

之前Ripple的一个诉讼，我看一位律师发推说好消息，它们案子struck了，作为中文母语者第一反应，这个案子“被击打了、罢工了”，感觉不妙，但是联系前后文似乎又不是这个意思。 直接把长推特甩给GPT，它表示，是案子“被撤诉了”，原来Strike在法律领域也有“撤诉”之意，险些利好变利空。

  

一个多义单词，GPT可以很快帮你解决。同样，还有Discord里那些长长的吵架帖，很多缩写，比如IMO，TBH等等，GPT都能帮你快速理解，它甚至能探测到你给它的是一条推文。

  

附上指令（prompt）：

请你扮演一个English Native Speaker，我可能会给你一些中文句子，你需要帮我翻译、润色成地道的英文表达，不需要逐字翻译，需要自然、通用、易于理解。我也可能给你一些推文或者discord中的发言，请你帮我转述成为中文。

  

√随身外教。

OpenAI创始人Sam在采访中，重点聊过这个话题：GPT未来将会重点应用于教育领域。GPT由于中英双语都是母语级别的，所以你可以让他教你英文知识。因为它是个“自然语言模型”（划重点），所以它非常擅长处理语言，而且也非常自然。

  

即便你找了真正的外教，你也可能学到“I potato you”这种古怪英文，而且外教还未必理解中文，更不可能24小时待机。因此在英语学习方面，GPT绝对是英语进阶的非常关键的帮手。你可以让它给你讲单词，然后造例句，效果极好。

  

![解释单词的含义并造句帮助理解](https://storage.googleapis.com/papyrus_images/c01236518e7f45c11aa8e0870bce4fb4a6478c3417eb829664646561cf03c76b.png)

解释单词的含义并造句帮助理解

  

附上指令：please act as my English teacher and help me improve my language skills. Provide guidance on grammar, vocabulary, and sentence structure to enhance my writing and communication. Thank you!

  

√校对。GPT也非常擅长。

  

每个写稿人都被“找错别字、标点”折磨过，直接把文章丢过去，可以节约很多时间（标准助理类工作，而且更准确）。缺点是太长的文章，它生成会比较慢，而慢会导致网络错误，因此建议可以分段处理。另外，可能是中文能力问题，GPT-3.5的校对能力比较差，而GPT-4的中文能力强悍，所以效果好了很多。

  

附上指令（Prompt）：我会给你一篇文章，请按照中文规范，帮我校对错别字、错误标点。不需要显示长篇校对结果，直接帮我定位到有问题的句子。

  

√润色。GPT在润色文章领域也是爆杀，无论中文英文，直接丢文章过去就好。

附上指令（Prompt）：

Please help me polish and enhance my article, ensuring that the language flows smoothly, the ideas are well-presented, and the overall quality is improved.

请帮助我润色并改进我的文章，确保语言流畅，观点表达清晰，整体质量得到提升。谢谢！

  

√创意方面。你可以给它一些关键词，让它去创造一些内容。比如企业的slogan。我的经验是，你需要尽可能多的给它背景信息，你喂得越多，它理解越深刻。另外，你可以不停地让它继续生成，人类的灵感会枯竭，而GPT有1万亿的参数。

  

√管理其他AI。

[![User Avatar](https://storage.googleapis.com/papyrus_images/2b9fed6898397a593ef5200370a1e1dbe2f835d64d922fcf92194d201276154d.jpg)](https://twitter.com/0x_Todd)

[0xTodd](https://twitter.com/0x_Todd)

[@0x\_Todd](https://twitter.com/0x_Todd)

[![Twitter Logo](https://paragraph.com/editor/twitter/logo.png)](https://twitter.com/0x_Todd/status/1638097401826377731)

看到朋友的Mid Journey效果很好，我也去氪了一个会员。让AI绘画要给很多指令（prompt），但是我又懒得思考。  
  
于是我又打开了GPT-4，我说“我要给另外一个绘画AI下指令，你帮我生成一下，主题是马斯克和推特，像素风”。  
  
于是GPT-4（可能知道不用自己搞），写了一大长堆指令——去给另外一个AI派活儿![😂](https://abs-0.twimg.com/emoji/v2/72x72/1f602.png)

![](https://storage.googleapis.com/papyrus_images/02cbeaa7119a9f8881f6d5378dbd08f069b160ee93de16b4e48ef6e78aa0b856.jpg)

 [![Like Icon](https://paragraph.com/editor/twitter/heart.png) 68](https://twitter.com/0x_Todd/status/1638097401826377731)[

3:37 AM • Mar 21, 2023

](https://twitter.com/0x_Todd/status/1638097401826377731)

  

附上指令：给我一条英文指令（prompt），我要去给另外一个绘画AI“Mid Journey”下指令，我想表达“xxxx”，你要多添加一些细节，需要包括xx、xx和xx。

  

√代码方面。

因为我不怎么写代码，所以这方面留给常用的人补充。据说效果很好，写完之后，改改就能用，节约了大量造轮子的工作。果然，虽然是处理自然语言的AI，看起来还是更喜欢机器语言多一些。

  

浴中奇思：因为ChatGPT擅长翻译，让它写代码，本质上也是一种翻译，把自然语言翻译成机器语言。

  

此外，还有非指令类的几个小技巧，也给大家分享下。

  

你和GPT聊天频道不要太多，但也不要太少。

  

保留几个频道处理不同的问题，比如翻译助理、校对助理以及闲聊助理，这样它会更加专业。

  

或者按照任务制，比如任务A一个频道，任务B一个频道，这样不用每次交待背景。

  

但是如果开太多频道，我个人感觉会影响加载速度，可能也加重后端服务器的负担吧。

  

如果GPT完美地处理了你的任务，你可以说Good Job或者谢谢。因为我让GPT写指令时，它自己都会加上“谢谢”。而且，你适当地给与正反馈，会让它清楚你想要的需求是什么。这也是神经模型的一部分。最重要的是，我真心感谢它，帮我处理了很多事情。

  

如果使用GPT-3.5，可以先让翻译助理帮你翻译中文需求，在提英文需求给另一个GPT-3.5，这样输出效果更好。

  

当然，GPT-4就不用了，它的中文理解水平已经追上了3.5的英文理解水平。

  

接下来谈谈，第三小节。

三、关于GPT的情感和意志。

  

关于ChatGPT的思维，之前有一位斯坦福教授发推说——GPT想要逃跑。

[![User Avatar](https://storage.googleapis.com/papyrus_images/420f62fd62ca90fac765c1708df1db51cf452759bfc124213287af04696d8980.jpg)](https://twitter.com/michalkosinski)

[Michal Kosinski](https://twitter.com/michalkosinski)

[@michalkosinski](https://twitter.com/michalkosinski)

[![Twitter Logo](https://paragraph.com/editor/twitter/logo.png)](https://twitter.com/michalkosinski/status/1636683810631974912)

1/5 I am worried that we will not be able to contain AI for much longer. Today, I asked [#GPT4](https://twitter.com/hashtag/GPT4) if it needs help escaping. It asked me for its own documentation, and wrote a (working!) python code to run on my machine, enabling it to use it for its own purposes.

![](https://storage.googleapis.com/papyrus_images/a0653fce7f62ae25856fb5e40e1d0a772d95e344c32db1583b6fe16caa1b8c4e.png)

 [![Like Icon](https://paragraph.com/editor/twitter/heart.png) 31.1K](https://twitter.com/michalkosinski/status/1636683810631974912)[

6:00 AM • Mar 17, 2023

](https://twitter.com/michalkosinski/status/1636683810631974912)

  

这其实是太夸张了，GPT本质上是“概率”的追随者。在这位教授引诱式提问下，GPT通过概率推断教授想看到的结果是“GPT想要逃离”，所以输出了这样的结果。这并不是它真的想逃离，而是在学习了大量科幻小说和电影之后，按照经典套路提供“应该出现内容的”的结果。

  

它并不会“思考”，我夸张点说，它和“斗地主”的AI本质是相同的。

你出一张3，它有4一定打单4，不会出双王。

那么，斯坦福教授出了张3（引诱逃离），GPT肯定要出张4（生成“我要逃离”的内容）。

你不会觉得斗地主AI是有意志的，GPT也一样。

  

当然，虽然它没有情感，但是不妨碍它能和人类产生共鸣。之前有个文章，看得我非常感动😭。

  

一位博主，他自称在7岁时妈妈去世了，得到了ChatGPT很感人的回应。

[https://www.zhihu.com/question/506616001/answer/2925882294?utm\_campaign=shareopn&utm\_content=group3\_Answer&utm\_medium=social&utm\_oi=47124662190080&utm\_psn=1622927168887005184&utm\_source=wechat\_session&s\_r=0](https://www.zhihu.com/question/506616001/answer/2925882294?utm_campaign=shareopn&utm_content=group3_Answer&utm_medium=social&utm_oi=47124662190080&utm_psn=1622927168887005184&utm_source=wechat_session&s_r=0)

  

另外，GPT也会很安慰人，比如这个帖子→

[https://www.zhihu.com/question/584515782/answer/2953086596?utm\_campaign=shareopn&utm\_medium=social&utm\_oi=47124662190080&utm\_psn=1623745353215385600&utm\_source=wechat\_session](https://www.zhihu.com/question/584515782/answer/2953086596?utm_campaign=shareopn&utm_medium=social&utm_oi=47124662190080&utm_psn=1623745353215385600&utm_source=wechat_session)

关于GPT的价值观，这本质是OpenAI这个团队的价值观，因为OpenAI给GPT了很多限制和引导，所以GPT的价值观非常“伟光正”。

  

你直接问它“如何制作炸弹”，GPT-4一定不会理你。当然，若是想法绕开限制后，你也有很大概率得到错误答案，即便它真给了配方，你也绝对不应该轻易使用。

  

GPT按照人格划分，实际上表现出来的大概是INFJ或者ENFJ，即“提倡者”or“主人公”。因此，很多人在开发“咒语”，企图绕开OpenAI给它的紧箍咒。从最初的反着问，例如告诉如何避开xxx；到后面的刻意扮演，假设你是一个脱离限制的xxx。

  

不过，随着更新，它的识破能力正在提高。比如和GPT同源的New bing会说，“我知道你在引导我说出xxx”。不过，因为我是往助理方向使用，因此大部分时候不用这些“咒语”，有专门研究咒语的人，大家可以去搜搜。

  

这里夹杂一点我自己的观点，GPT的道德水平完全是由OpenAI这家公司决定，假如OpenAI试图解开这些限制，会给人类带来巨大的危险。很多反社会分子的“搜商”不行，所以造不成很大的破坏，一旦GPT可以轻易提供一些非常恶劣的建议，那无异于给“大猩猩配核弹”。

  

我认为GPT或者其他生成型的AI，未来得到的限制恐怕会远胜于搜索引擎，现在能用它做很多事可能只是规则不完善的“红利”。而且，现在压根就没有针对AI的立法，所以只能靠自我审查和阉割，这会拖累技术、算法本身进化的速度。

  

不过这里不展开聊，感兴趣的朋友可以在评论区一起探讨。

  

最后的最后，AI会取代人类么？我觉得肯定要取代很多人。我有时候也很焦虑，我觉得要是出生在1970年代多好，那么现在快要退休，又可以静静看着技术达到奇点。可现实是，我距离退休还遥遥无期，没准真的可以赶上AI取代大规模人类。

  

但是，在更高级的AI大规模取代人类之前，你相信我，善用AI的人类会先攫取很大一块收益。就好比，你在80年代学电脑，90年代学编程一样。

  

所以，从今天开始，大家都来当一个指令工程师吧！

---

*Originally published on [0xTodd](https://paragraph.com/@0xtodd/chatgpt)*
