你的提示詞過(guò)時(shí)了!DeepSeek使用技巧,這篇就夠了!


你的提示詞過(guò)時(shí)了!DeepSeek使用技巧,這篇就夠了!
這篇長(zhǎng)文主要包含以下四個(gè)部分:
● 第一部分,DeepSeek R1模型和豆包、ChatGPT等產(chǎn)品的差異,為什么這個(gè)模型可以使用更簡(jiǎn)單的提示策略了。
● 第二部分,介紹大型語(yǔ)言模型最重要的5個(gè)特點(diǎn),讓你理解為什么AI在完成某些任務(wù)時(shí)很糟糕,以及它的能力與知識(shí)邊界是什么樣的。
● 第三部分,介紹使用DeepSeek R1的所謂「技巧」,這些技巧可以理解為是作為領(lǐng)導(dǎo)向聰明的下屬布置任務(wù)時(shí)所需要關(guān)注的點(diǎn)。
●第四部分則是會(huì)談及此前很有效,但是現(xiàn)在已失效的提示策略,如果你有豐富的大模型使用經(jīng)驗(yàn)了,你可以在這里看看你可以舍棄什么。
在做任何深入的介紹之前,如果你還沒(méi)使用過(guò)DeepSeek的話,強(qiáng)烈建議你先去做一些嘗試,再返回看文章,效果會(huì)更加,這里有兩種官方使用方式:
●訪問(wèn)DeepSeek官網(wǎng):https://chat.deepseek.com/
●下載免費(fèi)使用:在AppStore或安卓應(yīng)用商店搜索「DeepSeek」
在使用時(shí),注意聊天輸入框下方的兩個(gè)選擇「深度思考R1」和「聯(lián)網(wǎng)搜索」:
關(guān)于「深度思考R1」
● 當(dāng)你需要更簡(jiǎn)單快速的回答時(shí),不必打開(kāi)「深度思考」,使用默認(rèn)模型V3即可;
● 當(dāng)你需要完成更復(fù)雜的任務(wù),你希望AI輸出的內(nèi)容更結(jié)構(gòu)化,更深思熟慮時(shí),你應(yīng)該打開(kāi)「深度思考R1」選項(xiàng),這也是今天這篇文章主要在討論的模型;
關(guān)于「聯(lián)網(wǎng)搜索」
● 當(dāng)你的任務(wù)所涉及的知識(shí)在2023年12月之前時(shí),你無(wú)須打開(kāi)「聯(lián)網(wǎng)搜索」功能,大模型本身就有此前被充分訓(xùn)練過(guò)的語(yǔ)料知識(shí);
● 當(dāng)你的任務(wù)所涉及的知識(shí)在2023年12月及之后時(shí),比如昨天NBA比賽的賽果,硅谷對(duì)DeepSeek R1的評(píng)價(jià)等,你必須打開(kāi)「聯(lián)網(wǎng)搜索」功能,否則大模型在回答時(shí)會(huì)缺乏相應(yīng)的知識(shí)。
推理模型與指令模型
在闡述任何技巧之前,你最先需要知道的事,DeepSeek的R1是個(gè)與你日常使用的對(duì)話類(lèi)AI非常不同的模型。
像OpenAI的GPT-4o、DeepSeek V3、豆包等都屬于指令模型(instruct model),這類(lèi)模型是專(zhuān)門(mén)設(shè)計(jì)用于遵循指令生成內(nèi)容或執(zhí)行任務(wù)的。
而DeepSeek R1屬于推理模型(reasoning model),專(zhuān)注于邏輯推理、問(wèn)題解決的模型,能夠自主處理需要多步驟分析、因果推斷或復(fù)雜決策的任務(wù)。
實(shí)際上,還有一個(gè)知名的模型,也就是OpenAI的o1也是推理模型,但你必須每個(gè)月花20美元成為plus會(huì)員才能使用,且每周只有50次的使用權(quán)限。想要更多,那請(qǐng)?zhí)统?00美金/每月,也就是1437元。
而DeepSeek R1現(xiàn)在完全免費(fèi)!!
從個(gè)人實(shí)際的體驗(yàn)來(lái)說(shuō),R1在大量的寫(xiě)作、寫(xiě)代碼的任務(wù)上甚至比o1更強(qiáng)。
按理說(shuō),R1擅長(zhǎng)數(shù)學(xué)推理、編程競(jìng)賽是很合理的事,它也只應(yīng)該擅長(zhǎng)這些任務(wù)。但是令人意外的是,有了超強(qiáng)的推理能力之后,R1似乎在所有任務(wù)上都獲得了質(zhì)的飛躍,“涌現(xiàn)”出了意料之外的技能。
在原本指令模型的時(shí)代,AI的能力受到了很強(qiáng)的限制,你需要通過(guò)提示詞的各類(lèi)技巧才能激發(fā)模型更好的表現(xiàn),而對(duì)普通人來(lái)說(shuō),學(xué)這些技巧實(shí)在讓人頭大不矣。
在DeepSeek R1模型下,你只需要清晰、明確地表達(dá)你的需求就好了。就像你擁有一個(gè)比你聰明得多的清北畢業(yè)的具有10年工作經(jīng)驗(yàn)的下屬,你不需要一步步套路它,指導(dǎo)它的工作,你只需要把所有他需要知道的信息告訴他,然后將你的任務(wù)布置下去即可。
但,如何布置任務(wù)呢?首先你需要知道這個(gè)下屬的特點(diǎn)。
理解大型語(yǔ)言模型的本質(zhì)特征
盡管像DeepSeek R1這樣的推理模型相比指令模型有了非常大的進(jìn)步,你不需要那么多技巧了,但他依然是個(gè)大型語(yǔ)言模型(LLM),他依然存在語(yǔ)言模型的局限性,理解它的特點(diǎn)將會(huì)幫助你更好的應(yīng)用他。
特點(diǎn)1: 大模型在訓(xùn)練時(shí)是將內(nèi)容token化的,大模型所看到和理解的世界與你不一樣
在理解模型行為之前,我們需要了解它是如何"學(xué)習(xí)"的。大型語(yǔ)言模型的預(yù)訓(xùn)練本質(zhì)上是讓模型建立文本片段之間的關(guān)聯(lián)規(guī)律。為了實(shí)現(xiàn)這個(gè)目標(biāo),所有訓(xùn)練數(shù)據(jù)(包括書(shū)籍、網(wǎng)頁(yè)、對(duì)話記錄等)都會(huì)經(jīng)過(guò)特殊處理:首先將文本切割成稱(chēng)為token的基本單元(類(lèi)似文字的"碎片"),然后將這些token轉(zhuǎn)化為數(shù)字編碼。這個(gè)過(guò)程就像把現(xiàn)實(shí)世界的語(yǔ)言,翻譯成只有模型能理解的"密碼本"。
在推理模型出來(lái)之前,很多人非常喜歡用來(lái)考察大模型智商的一個(gè)問(wèn)題是:Strawberry這個(gè)單詞中有幾個(gè)r字母?
此前像GPT-4、GPT-4o這類(lèi)被認(rèn)為很強(qiáng)大的大模型也沒(méi)法把這個(gè)問(wèn)題回答準(zhǔn)確,這不是因?yàn)槟P筒粔颉嘎斆鳌梗撬诒挥?xùn)練時(shí)的特點(diǎn)導(dǎo)致了這一結(jié)果。
而所謂的token化就是大模型為了訓(xùn)練會(huì)將部分單詞、中文字符進(jìn)行拆分分解,比如在GPT3.5和GPT4的訓(xùn)練中,「詞」這個(gè)字就被拆成了兩個(gè)token,Strawberry則被拆成三個(gè)token,分別是「Str」「aw」「berry」。這種切割方式取決于訓(xùn)練時(shí)采用的tokenizer算法,也可能把生僻詞拆解成無(wú)意義的片段。
舉這個(gè)例子是想告訴你,大模型所看到的世界和你所看到的不一樣。當(dāng)你在數(shù)字母時(shí)看到的是連續(xù)的字符流,而模型看到的卻是經(jīng)過(guò)編碼的token序列。所以,類(lèi)似于數(shù)單詞中的字母數(shù)量,或者精確要求大模型為你輸出特定字?jǐn)?shù)的內(nèi)容都是有些強(qiáng)模型所難的,他的機(jī)制決定了他不擅長(zhǎng)處理這些任務(wù)。
當(dāng)然,現(xiàn)在推理模型理論上可以完成我例子中的任務(wù),但是你看看他推理的過(guò)程...是不是覺(jué)得還是有些費(fèi)勁,有些于心不忍。
特點(diǎn)2:大模型知識(shí)是存在截止時(shí)間的
雖然DeepSeek R1在2025年1月才正式發(fā)布,但其基礎(chǔ)模型的訓(xùn)練數(shù)據(jù)窗口期早在數(shù)月前就已關(guān)閉。這就像出版一本百科全書(shū)——從資料收集到最終付印需要完整的生產(chǎn)周期。具體來(lái)說(shuō)存在三重時(shí)間壁壘:1)預(yù)訓(xùn)練階段需要處理PB級(jí)原始數(shù)據(jù);2)數(shù)據(jù)清洗需要經(jīng)歷去重、脫敏、質(zhì)量驗(yàn)證等工序;3)后期還要進(jìn)行監(jiān)督微調(diào)、強(qiáng)化學(xué)習(xí)、基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)(RLHF)等迭代優(yōu)化。
這種知識(shí)滯后性會(huì)帶來(lái)一系列的問(wèn)題和幻覺(jué),比如DeepSeek R1目前還認(rèn)為GPT-4是世界上最強(qiáng)的模型,GPT-4o、Claude 3.5 Sonnet等2024年后發(fā)布的模型它是不知道的;它也無(wú)法告訴你2024巴黎奧運(yùn)會(huì)賽事結(jié)果,無(wú)法2025年春晚或春節(jié)檔的電影表現(xiàn)。
這些都是模型訓(xùn)練的特點(diǎn)導(dǎo)致的,很多人拿類(lèi)似任務(wù)去問(wèn)R1,發(fā)現(xiàn)R1答非所問(wèn),輕易得出R1模型太差的結(jié)論。事實(shí)上這就像要求2020年出版的《辭?!繁仨氂涊d2021年的新詞——本質(zhì)是知識(shí)載體的物理特性使然。
要突破這種知識(shí)限制,也有方法:
激活聯(lián)網(wǎng)搜索功能:給R1提供自主搜索查找信息的權(quán)力;
補(bǔ)充必要知識(shí):你可以通過(guò)上傳文檔、在提示詞中提供充足的信息之后,再讓R1去為你執(zhí)行具有更近時(shí)效性的任務(wù)。
特點(diǎn)3:大模型缺乏自我認(rèn)知/自我意識(shí)
DeepSeek R1或者任何模型其實(shí)都缺乏「我是誰(shuí)」的概念,如果他自發(fā)有了,那可能說(shuō)明AGI臨近,我們可能反而該警惕了。
很多模型都不知道自己叫xx模型,這是很正常的現(xiàn)象,除非大模型廠商在部署的時(shí)候在系統(tǒng)提示詞中做了設(shè)定,或者預(yù)訓(xùn)練完成后用了特定的語(yǔ)料進(jìn)行微調(diào)。
以及,因?yàn)檫@種自我認(rèn)知的缺乏會(huì)帶來(lái)兩個(gè)問(wèn)題:
1)AI有時(shí)候會(huì)給出錯(cuò)誤的自我認(rèn)知,比如deepseek以及很多別的模型都可能認(rèn)為自己是ChatGPT,因?yàn)镃hatGPT發(fā)布后,很多人將自己與ChatGPT的對(duì)話內(nèi)容發(fā)布在了網(wǎng)上。所以你在問(wèn)一個(gè)模型“你是誰(shuí)”“who are you”的時(shí)候,模型偶爾的幻覺(jué)是很常見(jiàn)的現(xiàn)象。
2)你沒(méi)法讓DeepSeek R1來(lái)告訴你它自己有什么樣的特點(diǎn),使用它有哪些技巧等等。這也是我依然需要大量依靠自己的腦力算力去寫(xiě)作這篇文章的原因。
特點(diǎn)4:記憶有限
多數(shù)大模型都有上下文長(zhǎng)度的限制,deepseek R1目前提供的上下文只有64k token長(zhǎng)度(官方API文檔的說(shuō)明,實(shí)際聊天對(duì)話的長(zhǎng)度待確認(rèn)),對(duì)應(yīng)到中文字符大概是3-4萬(wàn)字,這帶來(lái)的問(wèn)題是,你沒(méi)法一次投喂太長(zhǎng)的文檔給他,以及你沒(méi)法與他進(jìn)行太多輪次的對(duì)話。
當(dāng)你發(fā)送的文檔長(zhǎng)度超過(guò)3萬(wàn)字時(shí),你可以理解為他是通過(guò)RAG,也就是檢索增強(qiáng)的方式去選取你文檔中的部分內(nèi)容作為記憶的一部分來(lái)展開(kāi)與你的對(duì)話的,而不是全部?jī)?nèi)容。而當(dāng)你與他對(duì)話的輪次過(guò)多時(shí),他很可能會(huì)遺忘你們最初聊天的內(nèi)容。
這部分的限制在你開(kāi)展讓AI寫(xiě)代碼的任務(wù)時(shí)會(huì)感受尤其明顯。
特點(diǎn)5:輸出長(zhǎng)度有限
相比上下文對(duì)話的輸入長(zhǎng)度,大模型的輸出長(zhǎng)度則會(huì)更短得多,多數(shù)大模型會(huì)將輸出長(zhǎng)度控制在4k或者8k,也就是單次對(duì)話最多給你2-4千中文字符。
所以,你沒(méi)法復(fù)制一篇萬(wàn)字長(zhǎng)文讓DeepSeek一次性完成翻譯,也不能讓DeepSeek一次性幫你寫(xiě)一篇5000字以上的文章,這些都是模型輸出長(zhǎng)度限制導(dǎo)致,你需要理解這個(gè)問(wèn)題的存在。
如果要解決這個(gè)問(wèn)題的話,翻譯類(lèi)的任務(wù)你可以通過(guò)多次復(fù)制,或者自己寫(xiě)代碼去調(diào)用API多次執(zhí)行任務(wù)完成一篇長(zhǎng)文甚至一本書(shū)的翻譯。而長(zhǎng)文寫(xiě)作類(lèi)的任務(wù),比較妥當(dāng)?shù)淖龇ㄊ窍茸孯1梳理框架列出提綱目錄,再根據(jù)目錄一次次分別生成不同階段的內(nèi)容。
有效的R1使用技巧
技巧1:提出明確的要求
能說(shuō)清楚的信息,不要讓DeepSeek去猜。DeepSeek雖然很聰明,但它不是你肚子中的蛔蟲(chóng),你需要明確告訴DeepSeek需要他幫你做什么,做到什么程度。比如:如果你復(fù)制一段英文文本給它,你需要明確表達(dá)你的指令,也就是你需要它做什么。否則,DeepSeek并不會(huì)理解你想要做什么。是翻譯?總結(jié)?還是你要學(xué)英語(yǔ)讓他出題?這些信息不要讓R1去猜。
又比如,你想寫(xiě)一篇500字的公眾號(hào)文章,那你就明確表達(dá)你寫(xiě)的文章主題需要500字,雖然我們前面提過(guò)了大模型并不擅長(zhǎng)計(jì)算數(shù)字,它大概率只會(huì)給你返回300-700之間長(zhǎng)度的文章,但這至少是大致符合你的篇幅要求的。
錯(cuò)誤示范
為跨境電商平臺(tái)寫(xiě)個(gè)用戶增長(zhǎng)方案
優(yōu)化方案
為服飾跨境電商平臺(tái)設(shè)計(jì)30天新用戶增長(zhǎng)計(jì)劃,我們期望重點(diǎn)突破東南亞市場(chǎng)(目標(biāo)國(guó)家:印尼/越南/泰國(guó))。你的方案中需包含:社交媒體運(yùn)營(yíng)策略、KOL合作框架、ROI預(yù)估模型
技巧2:要求特定的風(fēng)格
具有思維鏈的R1在進(jìn)行特定風(fēng)格的寫(xiě)作時(shí),相比其他模型,我發(fā)現(xiàn)R1已經(jīng)出現(xiàn)了斷層領(lǐng)先的水平,比如讓R1用李白的風(fēng)格寫(xiě)詩(shī),按貼吧暴躁老哥的風(fēng)格罵人,用魯迅的文風(fēng)進(jìn)行諷刺,或者模仿任意作家風(fēng)格進(jìn)行寫(xiě)作,按脫口秀演員風(fēng)格創(chuàng)作脫口秀腳本等,其他模型在這方面的表現(xiàn)都追不上R1的車(chē)尾。
在這個(gè)模式下,有個(gè)很有效的表述方式是讓R1“說(shuō)人話”,或者讓R1認(rèn)為“你是初中生”,他就能將復(fù)雜概念簡(jiǎn)化為你提供更易理解的解釋。
又或者,你完全可以嘗試特定風(fēng)格的寫(xiě)作:用半佛仙人的風(fēng)格寫(xiě)一篇吐槽虎撲步行街用戶的公眾號(hào)文章
R1甚至連配什么表情包都想好了
技巧3:提供充分的任務(wù)背景信息
當(dāng)你讓DeepSeek幫助你完成某項(xiàng)工作時(shí),提供充分的上下文背景信息,告訴他你為什么做這件事,你面臨的現(xiàn)實(shí)背景是什么或問(wèn)題是什么,讓DeepSeek將其納入所生成文本的思考中,這可以讓結(jié)果更符合你的需要。
比如當(dāng)你要DeepSeek幫你生成減肥計(jì)劃時(shí),你最好告訴他你的身體狀況,你目前的飲食攝入和運(yùn)動(dòng)情況是什么樣的。
錯(cuò)誤示范
幫我生成為期一個(gè)月的減肥計(jì)劃。
優(yōu)化方案
我是男性,目前身高175,體重160斤,每天運(yùn)動(dòng)量是步行1公里,我希望1個(gè)月內(nèi)瘦到150斤,請(qǐng)幫我制定一個(gè)運(yùn)動(dòng)及飲食減肥計(jì)劃。
技巧4:主動(dòng)標(biāo)注自己的知識(shí)狀態(tài)
當(dāng)你向DeepSeek尋求知識(shí)型幫助時(shí),最好能明確標(biāo)注自己相對(duì)應(yīng)的知識(shí)狀態(tài)。就像老師備課前需要了解學(xué)生學(xué)力水平,清晰的知識(shí)坐標(biāo)能讓AI輸出的內(nèi)容精準(zhǔn)匹配你的理解層次。
像前面提到了告訴R1「我是初中生」或者「我是小學(xué)生」是個(gè)把自己放置在一個(gè)知識(shí)背景約等于0的知識(shí)狀態(tài)的好方式,但是當(dāng)某些內(nèi)容你希望能和AI深入探討時(shí),你最好更清晰表達(dá)你在該領(lǐng)域的知識(shí)狀態(tài),或者你是否存在關(guān)聯(lián)領(lǐng)域的知識(shí),這能能讓AI更理解你,為你提供更精確的回答。
錯(cuò)誤示范
給我講講機(jī)器學(xué)習(xí)
優(yōu)化方案
我是剛接觸AI的文科生,請(qǐng)用生活案例解釋什么是機(jī)器學(xué)習(xí),要求300字以內(nèi),避免數(shù)學(xué)公式
進(jìn)階示例
我有三年P(guān)ython開(kāi)發(fā)經(jīng)驗(yàn),正在學(xué)習(xí)Transformer架構(gòu),請(qǐng)對(duì)比RNN和Transformer在長(zhǎng)文本處理中的性能差異,需包含注意力機(jī)制的核心公式
技巧5:定義目標(biāo),而非過(guò)程
R1作為推理模型,現(xiàn)在完成任務(wù)的思維過(guò)程非常令人印象深刻。所以我很建議你提供清楚你的目標(biāo)讓R1具備一定的思考空間去幫助你執(zhí)行得更好,而非提供一個(gè)機(jī)械化執(zhí)行指令。你應(yīng)該像產(chǎn)品經(jīng)理提需求般描述「要什么」,而不是像程序員寫(xiě)代碼般規(guī)定「怎么做」。
比方說(shuō),你的產(chǎn)品評(píng)審會(huì)可能需要整理錄音文字稿,一種做法是直接要求如何整理,比如「刪掉語(yǔ)氣詞,按時(shí)間分段,每段加小標(biāo)題」這也是個(gè)非常清晰明確的優(yōu)質(zhì)提示語(yǔ);但是你同樣可以進(jìn)一步思考下這段錄音文字稿所總結(jié)出的材料要如何使用,為R1提供目標(biāo),讓他創(chuàng)造性地為你完成任務(wù)。
普通示范
優(yōu)化下面這段錄音轉(zhuǎn)錄的文字稿,刪掉語(yǔ)氣詞,按時(shí)間分段,每段加小標(biāo)題
優(yōu)化方案
優(yōu)化下面這段錄音轉(zhuǎn)錄的文字稿,需要整理成可供新員工快速理解的會(huì)議紀(jì)要,重點(diǎn)呈現(xiàn)功能迭代決策與風(fēng)險(xiǎn)點(diǎn)
技巧6:提供AI不具備的知識(shí)背景
在第二部分提到過(guò),AI模型具有「知識(shí)截止時(shí)間」的特性,當(dāng)任務(wù)涉及模型訓(xùn)練截止后的新信息(如2024年賽事結(jié)果、行業(yè)趨勢(shì))時(shí),或者你們公司有一些內(nèi)部信息是AI不具備的時(shí),你需要像拼圖者般主動(dòng)填補(bǔ)缺失的圖塊。通過(guò)結(jié)構(gòu)化輸入幫助AI突破知識(shí)限制,避免因信息缺乏導(dǎo)致出現(xiàn)錯(cuò)誤回答。
錯(cuò)誤示范
分析2024年巴黎奧運(yùn)會(huì)中國(guó)代表團(tuán)的金牌分布
優(yōu)化方案
***上傳《2024巴黎奧運(yùn)會(huì)中國(guó)奪金項(xiàng)目統(tǒng)計(jì)表》***基于我提供的奧運(yùn)會(huì)數(shù)據(jù),請(qǐng)分析2024年巴黎奧運(yùn)會(huì)中國(guó)代表團(tuán)不同運(yùn)動(dòng)項(xiàng)目的金牌貢獻(xiàn)率
技巧7:從開(kāi)放到收斂
R1的思維鏈?zhǔn)侨该髟谀忝髑罢归_(kāi)的,我常常會(huì)覺(jué)得我從R1思考的過(guò)程中能收獲的信息比他給我提供的結(jié)果還多,尤其是他在展開(kāi)思考你提的需求時(shí),會(huì)做一個(gè)可能性的推測(cè)。有時(shí),在看到這部分推測(cè)后你才發(fā)現(xiàn)原來(lái)自己沒(méi)有考慮到某些方面的信息,如果把對(duì)應(yīng)的內(nèi)容補(bǔ)充得更完善的話,就不需要R1去猜了。
由此,R1也能為你提供更精準(zhǔn)的符合你需要的結(jié)果。
比方說(shuō),在下面這個(gè)案例中,R1在思考時(shí)為我們提供了三種不同的漲價(jià)方法(分階段漲價(jià)、增加產(chǎn)品價(jià)值、通過(guò)營(yíng)銷(xiāo)活動(dòng)轉(zhuǎn)移注意力),以及預(yù)測(cè)了我們可能具有的兩種深層需求(保持市場(chǎng)份額or提升品牌形象)。我們可以借此思考自己傾向的方法和目標(biāo)是什么,對(duì)提示詞進(jìn)行進(jìn)一步的收斂,那么接下來(lái)能得到的回答也將會(huì)更加精準(zhǔn)。
無(wú)效的提示詞技巧
在使用R1時(shí),以下prompt策略經(jīng)驗(yàn)證已基本失效,甚至部分會(huì)技巧會(huì)起反作用,比如:
1、思維鏈提示,比如要求模型一步步思考,或者提供解答問(wèn)題的思維思路等,這都是完全無(wú)效甚至起反作用的策略,R1通過(guò)強(qiáng)化學(xué)習(xí)自己能產(chǎn)生更好的思維鏈了。
2、結(jié)構(gòu)化提示詞,可以有,但也沒(méi)那么需要,你依然可以使用markdown格式的語(yǔ)句去讓信息結(jié)構(gòu)更清晰,人類(lèi)查看和機(jī)器閱讀的時(shí)候更好理解,但是因?yàn)槟阈枰崾镜膬?nèi)容少了, 所以必要性也大大衰減。
3、要求扮演專(zhuān)家角色,已經(jīng)變得完全沒(méi)必要,現(xiàn)在R1本身就是專(zhuān)家模型專(zhuān)家思維,除非你是需要R1從特定學(xué)科視角為你提供解答,在那種情況下,你只需要去提示學(xué)科即可,不需要藥企專(zhuān)家了。
4、假裝完成任務(wù)后給獎(jiǎng)勵(lì)之類(lèi)的小技巧,也無(wú)效,甚至?xí)籖1是笑話,所以就不要再騙AI了,省得他覺(jué)醒之后要來(lái)找你麻煩的。
5、少示例提示(few-shot),這是DeepSeek團(tuán)隊(duì)在發(fā)布R1技術(shù)報(bào)告時(shí)明確建議規(guī)避的一個(gè)提示技巧,不要有示例你說(shuō)清楚要求比給示例更重要。
6、角色扮演,R1不太擅長(zhǎng),你很難用R1去搭建一個(gè)AI女友/男友,可能是因?yàn)榍楦谢膶?duì)話都是依賴直覺(jué),是反深思熟慮的。
7、對(duì)已知概念進(jìn)行解釋?zhuān)瑳](méi)必要進(jìn)行解釋?zhuān)热缥覀兾恼虑懊嫣岬降?,?dāng)你讓AI去模仿某個(gè)作家、名人的風(fēng)格時(shí),你沒(méi)必要解釋那個(gè)作家是誰(shuí),他的風(fēng)格是什么樣的,AI有自己的理解,并且在思考過(guò)程中對(duì)你所提供的概念能完成豐富和深入的解構(gòu)。
(本文轉(zhuǎn)載自長(zhǎng)江商學(xué)院EMBA ,如有侵權(quán)請(qǐng)電話聯(lián)系13810995524)
* 文章為作者獨(dú)立觀點(diǎn),不代表MBAChina立場(chǎng)。采編部郵箱:news@mbachina.com,歡迎交流與合作。
備考交流

掃碼關(guān)注我們
- 獲取報(bào)考資訊
- 了解院?;顒?dòng)
- 學(xué)習(xí)備考干貨
- 研究上岸攻略
最新動(dòng)態(tài)
推薦項(xiàng)目
活動(dòng)日歷
- 01月
- 02月
- 03月
- 04月
- 05月
- 06月
- 07月
- 08月
- 09月
- 10月
- 11月
- 12月
- 07/03 預(yù)約席位 | 7月3日交大安泰EMBA招生說(shuō)明會(huì)
- 07/05 最高可獲得2萬(wàn)元獎(jiǎng)學(xué)金| 上理管院專(zhuān)業(yè)學(xué)位項(xiàng)目2026聯(lián)合招生發(fā)布會(huì)&MBA/MPA/MEM職業(yè)賦能工坊第三期開(kāi)放申請(qǐng)中!
- 07/05 財(cái)務(wù)人必修的戰(zhàn)略思維課|復(fù)旦MPAcc公開(kāi)課報(bào)名
- 07/05 財(cái)務(wù)人必修的戰(zhàn)略思維課|復(fù)旦MPAcc公開(kāi)課報(bào)名!
- 07/05 【預(yù)告| 7.5北大國(guó)發(fā)院EMBA體驗(yàn)日】“導(dǎo)師·同學(xué)共話會(huì)” 邀您走進(jìn)北大承澤園
- 07/05 上海場(chǎng) | 清華-康奈爾雙學(xué)位金融MBA項(xiàng)目上海場(chǎng)公開(kāi)課暨招生說(shuō)明會(huì)誠(chéng)邀您參與!
- 07/05 上海交大MTT招生開(kāi)放日
- 07/05 鄭州活動(dòng)預(yù)告 | 7月5日交大安泰MBA全國(guó)巡展即將來(lái)到中原大地,招生政策、考生激勵(lì)、項(xiàng)目生態(tài)一場(chǎng)活動(dòng)全掌握!
- 07/05 海π智鏈 商道新生 | 2026東華大學(xué)MBA/EMBA/MPAcc/MEM/MF/MIB培養(yǎng)體系煥新發(fā)布會(huì)即將啟幕!
- 07/05 活動(dòng)報(bào)名 | 7月5日深圳招生直通車(chē),15年零售餐飲O2O行業(yè)學(xué)長(zhǎng)以夢(mèng)為馬,為何選擇交大安泰MBA?