国产日韩欧美久久久精品图片|国产综合有码无码中文字幕|国产一区二区综合视频|国产亚洲精品电影网站在线观看|国产精品一区在线

機(jī)械社區(qū)

 找回密碼
 注冊會(huì)員

QQ登錄

只需一步,快速開始

搜索
樓主: 極限思維
打印 上一主題 下一主題

各位設(shè)計(jì)師,請盡快擁抱AI時(shí)代,盡快,盡快!

[復(fù)制鏈接]
11#
發(fā)表于 2025-3-11 21:51:28 | 只看該作者
不用計(jì)算什么的,真的成了畫圖狗了。
12#
發(fā)表于 2025-3-12 08:01:53 | 只看該作者
謝謝分享
回復(fù)

使用道具 舉報(bào)

13#
發(fā)表于 2025-3-12 08:12:17 | 只看該作者
還是那句話,盡信書不如無書,AI只是工具,能學(xué)到多少利用多少都看自己
14#
發(fā)表于 2025-3-12 08:35:03 | 只看該作者
大語言模型是如何利用全網(wǎng)數(shù)據(jù)進(jìn)行訓(xùn)練的,能不能用淺顯易懂的例子說明一下,比如你是怎么學(xué)習(xí)GB 150-2011這標(biāo)準(zhǔn)的?

chatGPT4:
大語言模型的訓(xùn)練過程并不是指通過直接 "學(xué)習(xí)" 或下載特定文件或標(biāo)準(zhǔn)。模型的訓(xùn)練是通過接觸大量的文本數(shù)據(jù),來學(xué)習(xí)語言的結(jié)構(gòu)、模式、語法和語義。這些數(shù)據(jù)可能包含各種各樣的來源,比如書籍、網(wǎng)站、文章和其他公開可用的文本。

以下用淺顯的方法來解釋這個(gè)過程:

數(shù)據(jù)收集:在訓(xùn)練初期,模型會(huì)接觸到非常海量的文本,這些文本涵蓋多個(gè)領(lǐng)域和主題。這些數(shù)據(jù)是在訓(xùn)練前已經(jīng)收集好的,并不是實(shí)時(shí)網(wǎng)絡(luò)抓取。

特征學(xué)習(xí):通過分析這些文本,模型會(huì)識(shí)別出一些語言特征。例如,它會(huì)了解句子的結(jié)構(gòu),詞語的用法,還有段落的組織方式。這些特征幫助模型理解如何生成合理的文本。

模式識(shí)別:模型通過大量的示例學(xué)習(xí)規(guī)律和模式,譬如某些詞語通常在一起出現(xiàn),某類文體的句式特點(diǎn)等。這樣,它就能根據(jù)輸入的上下文生成符合邏輯的回答。

對(duì)于非常具體的像GB 150-2011這樣的標(biāo)準(zhǔn),模型可能在訓(xùn)練數(shù)據(jù)中接觸到與它相關(guān)的介紹、討論或引用,但并不是直接去學(xué)習(xí)或存儲(chǔ)該文檔。模型會(huì)通過學(xué)習(xí)語言的表達(dá)習(xí)慣來了解如何表述與該標(biāo)準(zhǔn)相關(guān)的內(nèi)容。如果模型在訓(xùn)練數(shù)據(jù)中接觸較多與該標(biāo)準(zhǔn)相關(guān)的信息,它的相關(guān)性可能更強(qiáng)。

總的來說,模型的能力是基于所接受的廣泛語料,而不是逐字逐句地記住特定文檔。不過,它能模擬生成內(nèi)容響應(yīng)有關(guān)的請求,因?yàn)樗私庹Z言運(yùn)作的基本規(guī)律和常識(shí)。

點(diǎn)評(píng)

它就能根據(jù)輸入的上下文生成的回答并不一定符合邏輯,更多的時(shí)候它不理會(huì)上下文在那胡說八道。  發(fā)表于 2025-3-12 14:10
15#
發(fā)表于 2025-3-12 08:35:36 | 只看該作者
那是不是有什么自動(dòng)化的清理數(shù)據(jù)的的程序,因?yàn)槲依斫饪咳斯砬謇砦谋竞屯段箶?shù)據(jù)是項(xiàng)無法完成的巨量工作,特別是考慮你需要各行各業(yè)的專業(yè)人士來清理數(shù)據(jù),確保數(shù)據(jù)質(zhì)量。
chatGPT4:
確實(shí),對(duì)于訓(xùn)練大語言模型來說,自動(dòng)化的數(shù)據(jù)清理和處理是非常重要且必要的,因?yàn)樘幚淼臄?shù)據(jù)量極其龐大,人工逐一清理是不可行的。以下是一些典型的自動(dòng)化數(shù)據(jù)清理和處理的方法:

數(shù)據(jù)收集與初步篩選:自動(dòng)化程序會(huì)從多種公開可用的來源中收集數(shù)據(jù),然后使用基本過濾器來移除顯而易見的低質(zhì)量數(shù)據(jù),如包含惡意內(nèi)容或格式損壞的文本。

去重和格式規(guī)范化:使用自動(dòng)腳本刪除重復(fù)內(nèi)容,并規(guī)范化文本格式,比如統(tǒng)一編碼格式、去除多余的空白和HTML標(biāo)簽等。

語言檢測:通過自動(dòng)語言檢測工具篩選出目標(biāo)語言的文本,以避免將其他不相關(guān)語言的文本誤用。

垃圾內(nèi)容過濾:使用機(jī)器學(xué)習(xí)模型或規(guī)則基礎(chǔ)的方法來檢測和過濾廣告、噪聲數(shù)據(jù)或其他非人類生成的內(nèi)容。

敏感信息移除:設(shè)計(jì)特定的工具來去除潛在的敏感信息,如個(gè)人身份信息(PII)或者其他需要保密的信息。

主題分類和標(biāo)記:利用自然語言處理技術(shù)對(duì)文本進(jìn)行分類和標(biāo)記,以便于后續(xù)的專業(yè)性篩選和處理。

質(zhì)量評(píng)估模型:開發(fā)基于模型的質(zhì)量評(píng)估工具,自動(dòng)化評(píng)估文本的質(zhì)量并根據(jù)得分篩選數(shù)據(jù)。

樣本審查和迭代改進(jìn):從自動(dòng)清理后的數(shù)據(jù)中抽取樣本,進(jìn)行人工審查。這幫助識(shí)別可能的誤判和改進(jìn)自動(dòng)化篩選程序。

通過使用這些自動(dòng)化工具和技術(shù),訓(xùn)練數(shù)據(jù)的質(zhì)量和多樣性可以得到有效控制。這不僅提高了數(shù)據(jù)處理的效率,也確保了模型在訓(xùn)練過程中接觸到更準(zhǔn)確和有用的內(nèi)容。
16#
發(fā)表于 2025-3-12 08:36:07 | 只看該作者
如果想讓模型精確掌握GB 150-2011的內(nèi)容,需要人工干預(yù)模型的學(xué)習(xí)過程嗎,比方用示例來校核。
chatGPT4:
為了讓模型精確掌握特定標(biāo)準(zhǔn),如GB 150-2011,需要采取一定的措施,確保模型不僅獲取相關(guān)信息,還能理解其中的細(xì)節(jié)和要求。以下是一些方法,可以幫助提高模型對(duì)特定標(biāo)準(zhǔn)的掌握程度:

數(shù)據(jù)標(biāo)注:將GB 150-2011相關(guān)的文本進(jìn)行精確標(biāo)注,標(biāo)示出關(guān)鍵的部分、定義和要求。這有助于模型識(shí)別并理解重要的信息。

示例解析:提供相關(guān)的實(shí)際應(yīng)用示例和案例分析,幫助模型了解如何在現(xiàn)實(shí)中應(yīng)用標(biāo)準(zhǔn)。這對(duì)提高模型的理解力非常有幫助。

領(lǐng)域特定訓(xùn)練:使用GB 150-2011及其應(yīng)用場景的相關(guān)數(shù)據(jù)進(jìn)行專門的訓(xùn)練。通過在這個(gè)領(lǐng)域內(nèi)的擴(kuò)展學(xué)習(xí)資料來豐富模型的知識(shí)。

專家審查及反饋:如果可能,結(jié)合領(lǐng)域?qū)<覍?duì)模型的輸出進(jìn)行審查和反饋,以校正理解誤差,并指導(dǎo)模型學(xué)習(xí)正確的信息。

細(xì)化評(píng)估:設(shè)計(jì)專門的評(píng)估機(jī)制,通過問答和應(yīng)用情境測試模型對(duì)GB 150-2011的掌握程度,借此調(diào)整和優(yōu)化訓(xùn)練參數(shù)。

逐步學(xué)習(xí):逐步增加復(fù)雜度,從基礎(chǔ)部分(如術(shù)語和基本概念)開始,讓模型逐步掌握復(fù)雜的內(nèi)容。

結(jié)合這些方法,人工干預(yù)可以有效地提高模型對(duì)特定標(biāo)準(zhǔn)的理解和掌握能力。但在實(shí)際應(yīng)用中,人工干預(yù)的程度需根據(jù)具體的需求和資源來平衡。通過自動(dòng)化工具和專家參與,模型可以在精確度和廣泛性之間找到適合的結(jié)合。

點(diǎn)評(píng)

誰告訴你大模型看了GB150,就一定輸出正確的回答。誰告訴你的。  發(fā)表于 2025-3-12 14:11
17#
發(fā)表于 2025-3-12 08:36:32 | 只看該作者
也就是說像你這樣的模型,如果想要在某一領(lǐng)域表現(xiàn)的更加出色,是需要針對(duì)性的做更專業(yè)的訓(xùn)練。這是不是就是所謂的微調(diào)?
chatGPT4:
是的,您說得對(duì)。所謂的微調(diào)(fine-tuning)是一種在預(yù)訓(xùn)練模型的基礎(chǔ)上,進(jìn)行針對(duì)性訓(xùn)練的過程,以提高該模型在特定領(lǐng)域或特定任務(wù)上的表現(xiàn)。預(yù)訓(xùn)練模型通常在大量的通用數(shù)據(jù)上進(jìn)行訓(xùn)練,具備廣泛的語言和知識(shí)能力,但為了能在某一領(lǐng)域取得更優(yōu)異的表現(xiàn),常需要進(jìn)行微調(diào)。以下是有關(guān)微調(diào)的幾個(gè)關(guān)鍵點(diǎn):

特定領(lǐng)域數(shù)據(jù):微調(diào)通常需要收集該領(lǐng)域的專用數(shù)據(jù)集。這些數(shù)據(jù)用于更新模型,使其在該領(lǐng)域的表現(xiàn)更優(yōu)。

保留通用能力:由于微調(diào)是在預(yù)訓(xùn)練模型之上進(jìn)行的,因此模型可以保留其通用的語言能力,同時(shí)在特定領(lǐng)域表現(xiàn)更佳。

任務(wù)定制:微調(diào)過程中,訓(xùn)練的目標(biāo)可以根據(jù)特定任務(wù)進(jìn)行調(diào)整,比如分類、問答或生成任務(wù)等。因此,微調(diào)不僅適用于增加領(lǐng)域知識(shí),也可以提升任務(wù)性能。

適應(yīng)專業(yè)術(shù)語和細(xì)微差別:對(duì)于技術(shù)或術(shù)語密集的領(lǐng)域,通過微調(diào),模型可以更好地理解和使用專業(yè)術(shù)語,抓住文本中的細(xì)微差別。

訓(xùn)練資源:微調(diào)通常需要的計(jì)算資源和時(shí)間比初始模型訓(xùn)練要少,這是因?yàn)槲⒄{(diào)過程中主要是對(duì)模型的某些層或參數(shù)進(jìn)行更新。

通過微調(diào),一個(gè)已經(jīng)具備廣泛能力的模型能夠適應(yīng)特定的領(lǐng)域需求,從而提供更準(zhǔn)確、更可靠的結(jié)果。因此,在想要提升特定領(lǐng)域表現(xiàn)時(shí),微調(diào)是一種非常有效的方法。

點(diǎn)評(píng)

微調(diào)對(duì)大模型根本沒有任何作用,這已經(jīng)被業(yè)內(nèi)證實(shí)了。你還用這種文字生成概率模型在自己騙自己。  發(fā)表于 2025-3-12 14:12
18#
發(fā)表于 2025-3-12 08:36:58 | 只看該作者
一個(gè)已經(jīng)發(fā)布的大語言模型,比如你這樣的,能通過用戶的反饋來實(shí)現(xiàn)自我改進(jìn)嗎?
chatGPT4:
目前,通過用戶反饋來實(shí)現(xiàn)自我改進(jìn)仍然是一個(gè)具有挑戰(zhàn)性的問題。大多數(shù)發(fā)布的大語言模型,包括我這樣的,通常不是直接通過用戶交互進(jìn)行自我學(xué)習(xí)或自我改進(jìn)。然而,開發(fā)者可以使用用戶反饋來間接改善模型性能。這里有一些常見的方法:

反饋收集:開發(fā)者可以收集用戶反饋,包括用戶在使用模型時(shí)遇到的問題、滿意度評(píng)估以及建議等。這些反饋對(duì)于了解模型在真實(shí)環(huán)境中的表現(xiàn)非常有價(jià)值。

數(shù)據(jù)更新:基于用戶反饋,開發(fā)者可以識(shí)別出哪些領(lǐng)域或問題上模型表現(xiàn)不足,并尋找相關(guān)的補(bǔ)充數(shù)據(jù)集進(jìn)行再訓(xùn)練或微調(diào)。

錯(cuò)誤分析:通過分析用戶反饋中頻繁出現(xiàn)的錯(cuò)誤或不足,開發(fā)者可以找到模型的薄弱點(diǎn),加以改進(jìn)。

迭代開發(fā):根據(jù)用戶反饋,開發(fā)團(tuán)隊(duì)可以迭代地更新模型和產(chǎn)品,以提供性能更優(yōu)、用戶體驗(yàn)更好的版本。

主動(dòng)學(xué)習(xí):在某些情況下,可以使用主動(dòng)學(xué)習(xí)的方法,選擇最有價(jià)值的反饋信息來更新和優(yōu)化模型。

需要注意,對(duì)于已經(jīng)發(fā)布的模型來說,直接通過用戶交互進(jìn)行自我改進(jìn)存在技術(shù)和隱私方面的挑戰(zhàn)。通常,改進(jìn)過程是通過開發(fā)團(tuán)隊(duì)的干預(yù)、數(shù)據(jù)集擴(kuò)展和再訓(xùn)練來實(shí)現(xiàn)的,而不是模型在用戶交互過程中自動(dòng)進(jìn)行的。保持用戶信息的安全和隱私也是進(jìn)行這種改進(jìn)的一個(gè)重要考慮因素。

點(diǎn)評(píng)

樂死了,你看點(diǎn)論文也比看大模型在那胡說強(qiáng)。  發(fā)表于 2025-3-12 14:13
19#
發(fā)表于 2025-3-12 08:37:23 | 只看該作者
你這樣的開源模型應(yīng)該是可以通過微調(diào),來構(gòu)建一個(gè)專業(yè)領(lǐng)域的模型,比如內(nèi)科醫(yī)生AI,我的理解對(duì)吧?
chatGPT4:
是的,你的理解是正確的。開源的大語言模型可以通過微調(diào)(fine-tuning)來適應(yīng)特定領(lǐng)域的需求,例如構(gòu)建一個(gè)專業(yè)的內(nèi)科醫(yī)生AI。微調(diào)是一種在特定領(lǐng)域數(shù)據(jù)集上進(jìn)一步訓(xùn)練現(xiàn)有大模型的方法。這可以提高模型在該領(lǐng)域的專門知識(shí)和表現(xiàn)能力。以下是微調(diào)過程的一般步驟:

準(zhǔn)備數(shù)據(jù):收集與特定領(lǐng)域相關(guān)的數(shù)據(jù)集,比如醫(yī)學(xué)文獻(xiàn)、臨床病例和醫(yī)學(xué)問答等,確保數(shù)據(jù)質(zhì)量和多樣性。

數(shù)據(jù)預(yù)處理:清理和格式化數(shù)據(jù),以適應(yīng)模型的輸入要求。如文本規(guī)范化、去除無關(guān)信息等。

選擇模型:選擇一個(gè)適合的開源語言模型作為基礎(chǔ),如GPT或BERT變種等。

微調(diào)模型:使用領(lǐng)域特定的數(shù)據(jù)集對(duì)模型進(jìn)行微調(diào)。這包括調(diào)整模型的參數(shù),使其能在特定領(lǐng)域更準(zhǔn)確地理解和生成文本。

評(píng)估和驗(yàn)證:對(duì)微調(diào)后的模型進(jìn)行測試,評(píng)估其準(zhǔn)確性和實(shí)用性。可以使用領(lǐng)域?qū)<业姆答亖磔o助評(píng)估。

部署和監(jiān)控:將微調(diào)后的模型部署在實(shí)際應(yīng)用中,并持續(xù)監(jiān)控其表現(xiàn),以便根據(jù)用戶反饋和新數(shù)據(jù)調(diào)整模型。

這樣的微調(diào)能夠顯著提高模型在某一專業(yè)領(lǐng)域的表現(xiàn),使其在該領(lǐng)域的應(yīng)用中更具實(shí)用價(jià)值和專業(yè)性。不過,需要注意的是,進(jìn)行領(lǐng)域微調(diào)時(shí)需要謹(jǐn)慎處理數(shù)據(jù)隱私和模型偏見問題。

點(diǎn)評(píng)

臨床醫(yī)生只看醫(yī)學(xué)文獻(xiàn),就能給病人治病嗎。你看完機(jī)械設(shè)計(jì)手冊,就敢出來接活嗎。  發(fā)表于 2025-3-12 14:14
20#
發(fā)表于 2025-3-12 08:37:51 | 只看該作者
模型訓(xùn)練用的數(shù)據(jù)集是個(gè)什么樣的東西,能舉個(gè)例子嗎?是不是這樣的文件,比如,1+1是輸入,2是輸出,然后把這個(gè)當(dāng)成一條數(shù)據(jù)喂給模型。重復(fù)類似的數(shù)據(jù),10以內(nèi)的加減法,然后模型就學(xué)會(huì)了泛化10以內(nèi)的加減法。是不是有點(diǎn)類似人類學(xué)習(xí)時(shí)的習(xí)題集?
chatGPT4:
你的理解很接近。訓(xùn)練數(shù)據(jù)集確實(shí)類似于人類學(xué)習(xí)時(shí)使用的習(xí)題集,但對(duì)于語言模型和其他機(jī)器學(xué)習(xí)模型來說,格式和內(nèi)容可能會(huì)有所不同,具體取決于訓(xùn)練目標(biāo)和模型類型。

對(duì)于一個(gè)語言模型來說,數(shù)據(jù)集通常由大量的文本構(gòu)成。這些文本可以是書籍、文章、對(duì)話記錄等。在微調(diào)過程中,數(shù)據(jù)集可能會(huì)更加專門化,例如專業(yè)領(lǐng)域的研究論文、問答對(duì)、對(duì)話集等。這些文本數(shù)據(jù)幫助模型學(xué)習(xí)語言規(guī)律、語法結(jié)構(gòu)以及特定領(lǐng)域的知識(shí)。

如果我們以數(shù)學(xué)計(jì)算為例,如你提到的加減法,數(shù)據(jù)集可以設(shè)計(jì)成問題-答案對(duì)。例如:

輸入: "什么是1加1?"

輸出: "2"

輸入: "4減2等于多少?"

輸出: "2"

通過訓(xùn)練,這樣的問題-答案對(duì)幫助模型學(xué)習(xí)如何處理類似的數(shù)學(xué)問題。

不僅如此,模型可以被訓(xùn)練為理解語義和上下文,比如:

輸入: "在6個(gè)蘋果中拿走2個(gè),會(huì)剩下多少?"
輸出: "4個(gè)蘋果"
當(dāng)然,模型訓(xùn)練的核心在于數(shù)據(jù)的多樣性和覆蓋度,以確保模型能夠泛化到新的、未見過的輸入,并能夠可靠地生成準(zhǔn)確的輸出。在語言模型的訓(xùn)練中,目標(biāo)不僅僅是記住答案,而是要理解語言表達(dá)背后的結(jié)構(gòu)和邏輯。

點(diǎn)評(píng)

大模型就不存在“理解”這種思維,它是文字生成概率模型。這就是本質(zhì)  發(fā)表于 2025-3-12 14:08

本版積分規(guī)則

小黑屋|手機(jī)版|Archiver|機(jī)械社區(qū) ( 京ICP備10217105號(hào)-1,京ICP證050210號(hào),浙公網(wǎng)安備33038202004372號(hào) )

GMT+8, 2025-5-3 01:14 , Processed in 0.066757 second(s), 24 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

© 2001-2017 Comsenz Inc.

快速回復(fù) 返回頂部 返回列表
主站蜘蛛池模板: 亚洲午夜精品一区三区五区97| 日韩av无码久久一区二区浪潮| 中文字幕v亚洲日本在线| 亚洲国产精品久久久久婷婷老年| 亚洲无线看天堂av| av无码制服丝袜国产日韩| 亚洲男女羞羞无遮挡久久丫| 亚洲国产成人极品综合| 图片小说视频一区二区| 日本最新免费二区三区| 日韩一区二区免费毛片| 亚洲中文字幕无码一去台湾 | 国产激情盗摄一区| 久久九九精品亚洲一区二区| 青草伊人久久综在合线亚洲| 伊人久久大香线蕉av网禁呦| 一区二区三区久 av| 又爽又色禁片1000视频免费看| 欧美精品中文字幕亚洲专区| 精品av中文字幕在线毛片| 精品人妻伦九区久久aaa片| 台湾一区二区三区视频| 国产午夜福利短视频| 免费观看黄网站| 一区二区黑人粗大爽| 国产一区二中文字幕在线看| 一区二区三区一片黄理论片| 国产日韩综合一区| 少妇毛片一区二区三区视频播放| 把女邻居弄到潮喷的性经历| 久久久免费无码成人影片| 久久动漫精品一区| 亚洲熟女av一区二区三区色堂| 欧美一区二区在| 久久国产精品免费一区二区三区| 国产精品亚洲mnbav网站| 波多野结衣在线精品视频 | 久久99精品久久久久久| 欧美做爰一区二区三区| 国内高清久久久久久| 欧美日本免费一区二区三区|