學(xué)習(xí)啦 > 新聞資訊 > 科技 > 人工智能邏輯推理論文(2)

人工智能邏輯推理論文(2)

時(shí)間: 坤杰951 分享

人工智能邏輯推理論文

  人工智能邏輯推理論文篇二

  人工智能中不確定性推理方法比較

  一、引言

  許多比較復(fù)雜的人工智能系統(tǒng)往往含有復(fù)雜性、不完全性、模糊性和不確定性。不確定性是智能系統(tǒng)開發(fā)實(shí)現(xiàn)中的一個(gè)本質(zhì)特征,不確定性推理是解決傳統(tǒng)的專家系統(tǒng)知識(shí)的脆弱性和推理的單調(diào)性的一個(gè)重要手段。眾所周知,確定性推理存在許多的缺點(diǎn)和不足,在運(yùn)動(dòng)的規(guī)律下,精確性往往是相對(duì)的;不精確性才是必然的。不確定理論是概率論、可信性理論、信賴性理論的統(tǒng)稱,目前專家學(xué)者在研究和實(shí)驗(yàn)的基礎(chǔ)上提出不少確定推理的模型,如基于概率論的主觀Bayes方法、基于模糊集的可能性理論、Dem Pster-Shafer的證據(jù)理論方法、粗糙集方法、數(shù)據(jù)挖掘的方法、模糊邏輯推理等,本文對(duì)一些常用的基本理論,推理方法進(jìn)行了總結(jié)。

  二、主觀bayes方法s

  (一)簡(jiǎn)介。主觀Bayes方法是由R.O.Duda等人在1976年提出的,是對(duì)Bayes公式修正形成的一種不確定推理模型,并在地礦勘探專家系統(tǒng)PROSPECTOR中得到了成功的應(yīng)用。

  (二)優(yōu)勢(shì)與缺點(diǎn)。1.主觀bayes方法中的計(jì)算公式是在概率論的基礎(chǔ)上發(fā)展起來的,具有堅(jiān)實(shí)的數(shù)學(xué)理論基礎(chǔ)。2.知識(shí)的靜態(tài)強(qiáng)度LS與LN是由專家根據(jù)自己的領(lǐng)域經(jīng)驗(yàn)知識(shí)給出的,避免了大量的統(tǒng)計(jì)工作。它既用LS給出證據(jù)E對(duì)結(jié)論H的支持強(qiáng)度,還同時(shí)使用LN支持E對(duì)H的必要性程度,全面客觀的反映了證據(jù)與結(jié)論之間的因果聯(lián)系,提高了推出結(jié)論的正確性。3.主觀bayes方法不僅給出在證據(jù)E肯定存在和肯定不存在的前提條件下由H的先驗(yàn)概率更新為后驗(yàn)概率的方法,而且還給出了在證據(jù)E不確定的前提下將前驗(yàn)概率更新為后驗(yàn)概率的方法。

  (三)缺點(diǎn)。1.Bayes公式的應(yīng)用條件是很嚴(yán)格的,它要求各事件相互獨(dú)立,若證據(jù)間存在依賴關(guān)系,此方法不成立。2.一個(gè)事件或命題的概率是在大量的統(tǒng)計(jì)數(shù)據(jù)的基礎(chǔ)上計(jì)算出來的,盡管有時(shí) 比 相對(duì)容易得到,但要想得到這些數(shù)據(jù)仍是一件相對(duì)困難的工作。

  三、基于證據(jù)理論的證據(jù)推理方法

  (一)簡(jiǎn)介。證據(jù)理論最早是基于德姆斯特的研究,他試圖用一個(gè)概率范圍而不是單個(gè)的概率值去模擬不確定性。莎弗進(jìn)一步的研究方向用于處理不確定、不精確以及間或不準(zhǔn)確的信息。在證據(jù)理論中,引入信任函數(shù)來度量不確定性,并引用似然函數(shù)來處理由于“未知”引起的不準(zhǔn)確,并且不必事先得到所表示知識(shí)的先驗(yàn)概率。

  (二)不確定性的表示。1.概率分配函數(shù)。設(shè)函數(shù)m滿足

  ;

  ,則稱m是 上的概率分配函數(shù), 被稱為A的基本概率函數(shù)。

  2.信任函數(shù)。對(duì)于任意的A包含于 有

  表示在當(dāng)前的環(huán)境下,對(duì)假設(shè)集A的信任程度,也是其值為A的所有子集的基本概率之和。

  3.似然函數(shù)。對(duì)任意的A包含于 有:

  表示對(duì)A為非假的信任度。

  4.類概率函數(shù)。

  類概率函數(shù)可以用來度量證據(jù)A的不確定性。

  (三)優(yōu)勢(shì)與缺點(diǎn)

  Dempster-Shafer理論和主觀貝葉斯方法之間的基本區(qū)別就是在于對(duì)不確定的處理。在未知時(shí),主觀貝葉斯方法必須按等量概率的原則進(jìn)行分配,也被稱為是無差別原理。應(yīng)用無差別原理在兩種前提條件下會(huì)發(fā)生極端情況,即必須為反面假設(shè)的情況分配一個(gè)概率,這樣最終會(huì)導(dǎo)致荒謬的結(jié)論,極大地影響了推

  斷結(jié)果的準(zhǔn)確性。然而,Dempster-Shafer理論 并不強(qiáng)迫為未知或者反面假設(shè)分配一個(gè)信任概率。相反,只需要為那些信任的 環(huán)境中的子集分配一個(gè)m。對(duì)于沒有分配信任的特殊子集被認(rèn)為是不被信任的,它們只是僅僅與環(huán)境有關(guān)。從而極大的改善主觀bayes方法推出荒謬結(jié)論的情況。

  四、結(jié)束語(yǔ)

  不確定推理是高級(jí)智能系統(tǒng)開發(fā)實(shí)現(xiàn)中的一個(gè)重要研究領(lǐng)域,不確定性推理原理 應(yīng)用到科研和工業(yè)生產(chǎn)中都取得了初步的成效。另一方面,確定性推理也是解決傳統(tǒng)的專家系統(tǒng)知識(shí)的脆弱性和推理單調(diào)性的一個(gè)非常重要的手段,不確定性推理經(jīng)過多年的 發(fā)展已經(jīng)建立了完整的體系和成熟的研究方法,今后必然會(huì)有更廣闊的應(yīng)用場(chǎng)所。當(dāng)然,不確定性推理也存在著一些不足,對(duì)于不同的問題沒有通用的問題表示的方法,也沒有通用的問題計(jì)算的模型。這些都有待于今后的改進(jìn)和完善。

人工智能邏輯推理論文相關(guān)文章:

1.人工智能邏輯論文

2.人工智能心得體會(huì)論文

3.人工智能經(jīng)典論文

4.人工智能學(xué)術(shù)論文

5.人工智能邏輯論文(2)

6.人工智能應(yīng)用領(lǐng)域論文

2444006