保險行業(yè)的自然語言處理(NLP)可以從混合機器學(xué)習(xí)/符號方法中受益,以提高可擴展性,同時運用高級符號推理。
保險文件和保單:復(fù)雜的用例
眾所周知,高達(dá)87%的數(shù)據(jù)科學(xué)項目未能從概念驗證到生產(chǎn);保險領(lǐng)域的自然語言處理(NLP)項目也不例外。他們必須克服不可避免地與這個空間及其錯綜復(fù)雜相關(guān)的一些困難。
最主要的困難來自:
保險相關(guān)文件的復(fù)雜布局。
缺乏帶有相關(guān)注釋的大量語料庫。
布局的復(fù)雜性是如此之大,以至于相同的語言概念可以根據(jù)其在文檔中的存放位置而極大地改變其含義和價值。
以下看一個簡單的例子:假如嘗試構(gòu)建一個引擎來識別政策中是否存在“恐怖主義”覆蓋范圍,將不得不分配一個不同的值,無論它被放置在:
(1)申報頁面的分限額部分。
(2)政策的“排除”章節(jié)。
(3)增加一個或多個保險的背書。
(4)為該承保范圍添加特定內(nèi)容的背書。
缺乏高質(zhì)量、大小合適的帶注釋的保險文件語料庫,這與注釋此類復(fù)雜文件的固有難度以及注釋數(shù)萬份保單所需的工作量直接相關(guān)。
而這只是冰山一角。除此之外,還必須考慮保險概念正?;谋匾浴?/p>
語言規(guī)范化:保險語言中一種無形但強大的力量
在處理數(shù)據(jù)庫時,概念的規(guī)范化是一個很好理解的過程。因為它是應(yīng)用推理和提高注釋過程速度的關(guān)鍵,它對于保險領(lǐng)域的NLP也是至關(guān)重要的。
規(guī)范化概念意味著在相同的標(biāo)簽語言元素下分組,這可能看起來很不同。雖說有許多例子,但最重要的例子來自針對自然災(zāi)害的保險單。
在這種情況下,不同的子限制將應(yīng)用于不同的洪水區(qū)。洪水風(fēng)險最高的地區(qū)一般被稱為“高風(fēng)險洪水區(qū)”。這個概念可以表示為:
(1)一級洪水區(qū)
(2)洪水風(fēng)險區(qū)(SFHA)
(3)洪水區(qū)A
等等
事實上,任何保險承保范圍都可以有很多術(shù)語,這些術(shù)語可以組合在一起,根據(jù)特定的地理區(qū)域及其固有風(fēng)險,最重要的自然災(zāi)害承保范圍甚至有兩層或三層的區(qū)別(I、II和III)。
將其乘以能找到的所有可能的元素,變體的數(shù)量很快就會變得很大。這招致機器學(xué)習(xí)注釋器和自然語言處理(NLP)引擎在嘗試檢索、推斷甚至標(biāo)記正確信息時都陷入困境。
新型的語言聚類:混合方法
解決復(fù)雜自然語言處理(NLP)任務(wù)的更好方法是基于混合(機器學(xué)習(xí)/符號)技術(shù),該技術(shù)通過基于機器學(xué)習(xí)的微語言聚類改進保險工作流程的結(jié)果和生命周期,然后由符號引擎繼承。
雖說在無監(jiān)督學(xué)習(xí)方法中使用傳統(tǒng)的文本聚類來推斷語義模式,并將具有相似主題的文檔、具有相似含義的句子等組合在一起,但混合方法有很大的不同。使用預(yù)定義的規(guī)范化值,通過在標(biāo)記數(shù)據(jù)上訓(xùn)練的機器學(xué)習(xí)算法在粒度級別上建立微語言聚類。一旦推斷出微語言聚類,它就可以用于進一步的機器學(xué)習(xí)活動或用于基于符號層驅(qū)動推理邏輯的混合管道。
這符合傳統(tǒng)的編程黃金法則:“分解問題”。解決復(fù)雜用例(就像保險領(lǐng)域中的大多數(shù)用例一樣)的第一步是將其分解成更小、更容易接受的塊。
混合語言聚類可以完成哪些任務(wù),可擴展性怎樣?
符號引擎一般被標(biāo)記為極其精確但不可擴展,因為在處理訓(xùn)練階段未見的情況時,它們不具備機器學(xué)習(xí)的靈活性。
然則,這種類型的語言聚類通過運用機器學(xué)習(xí)來識別概念,進而解決這個問題,這些概念隨后被傳遞到管道中接下來的符號引擎的復(fù)雜和精確邏輯。
可能性是無窮無盡的:比如,符號步驟可以根據(jù)概念所屬的文檔段改變機器學(xué)習(xí)識別的內(nèi)在價值。
下面是一個使用“分段”(將文本分割成相關(guān)區(qū)域)的符號過程來了解怎樣使用機器學(xué)習(xí)模塊傳遞的標(biāo)簽的示例。
想象一下,模型需要理解是否某些保險范圍被排除在100頁保單之外。
機器學(xué)習(xí)引擎將首先將“藝術(shù)”(Arts)覆蓋范圍的所有可能變體聚集在一起:
“精美藝術(shù)”(Fine Arts)
“藝術(shù)作品”(Workof Arts)
“藝術(shù)品”(Artistic Items)
“珠寶”(Jewelry)
等等。
緊接著,管道的符號部分將檢查“排除”部分是否提到了“藝術(shù)”(Arts)標(biāo)簽,進而了解該保險是否被排除在保單之外,亦或是否被覆蓋(作為次級限額清單的一部分)。
考慮到這一點,機器學(xué)習(xí)注釋者無須擔(dān)心根據(jù)“藝術(shù)”(Arts)變體在策略中的位置為所有“美術(shù)”變體指定不同的標(biāo)簽:他們只需要為其變體注釋“藝術(shù)”(Arts)的規(guī)范化值,這將作為一個微語言集群。
復(fù)雜任務(wù)的另一個有用示例是數(shù)據(jù)聚合。假如混合引擎意在提取特定覆蓋范圍的子限制,以及覆蓋規(guī)范化問題,則需要處理額外的復(fù)雜層:用于聚合的語言項目的順序。
考慮一下,手頭的任務(wù)不僅是提取特定覆蓋范圍的子限制,而且還提取其限定符(每次事件、聚合等)。這三個項目可以按幾個不同的順序排列:
Fine Arts $100,000 Per Item
Fine Arts Per Item $100,000
Per Item $100,000 Fine Arts
$100,000 Fine Arts
Fine Arts $100,000
在聚合數(shù)據(jù)的同時運用所有這些排列可以明顯增加機器學(xué)習(xí)模型的復(fù)雜性。另一方面,混合方法將讓機器學(xué)習(xí)模型識別歸一化標(biāo)簽,然后讓符號推理根據(jù)來自機器學(xué)習(xí)部分的輸入數(shù)據(jù)識別正確的順序。
這只是兩個例子,表明可以在可擴展的機器學(xué)習(xí)算法之上應(yīng)用無限數(shù)量的復(fù)雜符號邏輯和推理,以識別規(guī)范化的概念。
更易于構(gòu)建和維護的可擴展的工作流程
除了可擴展性之外,符號推理還為整個項目工作流程帶來了其他好處:
無需為復(fù)雜任務(wù)實施不同的機器學(xué)習(xí)工作流,需要實施和維護不同的標(biāo)簽。另外,重新訓(xùn)練單個機器學(xué)習(xí)模型比重新訓(xùn)練多個模型更快,并且資源消耗更少。
考慮到業(yè)務(wù)邏輯的復(fù)雜部分是以符號方式處理的,故此對數(shù)據(jù)注釋者來說,將人工注釋添加到機器學(xué)習(xí)管道要容易得多。
考慮到上述相同的原因,測試人員也更容易直接為機器學(xué)習(xí)標(biāo)準(zhǔn)化過程提供反饋。另外,考慮到工作流的機器學(xué)習(xí)部分對語言元素進行了規(guī)范化,用戶將有一個較小的標(biāo)簽列表來標(biāo)記文檔。
符號規(guī)則不需要常常更新:常常更新的是機器學(xué)習(xí)部分,它也可以從用戶的反饋中受益。
結(jié)語
保險領(lǐng)域復(fù)雜項目中的機器學(xué)習(xí)可能會受到影響,因為推理邏輯很難壓縮為簡單的標(biāo)簽;這也使注釋者的生活更加困難。
文本位置和推論可以極大地改變具有相同語言形式的概念的實際含義。
在純粹的機器學(xué)習(xí)工作流程中,邏輯越復(fù)雜,一般需要越多的訓(xùn)練文檔來實現(xiàn)生產(chǎn)級準(zhǔn)確度 。
出于這個原因,機器學(xué)習(xí)需要數(shù)千(甚至數(shù)萬)個預(yù)先標(biāo)記的文檔來構(gòu)建有效的模型。
采用混合方法可以降低復(fù)雜性:機器學(xué)習(xí)和用戶的注釋建立語言集群/標(biāo)簽,然后這些將用作符號引擎實現(xiàn)其目標(biāo)的起點或構(gòu)建塊。
用戶的反饋一旦得到驗證,就可用于重新訓(xùn)練模型,而無需更改最精細(xì)的部分(可由工作流的符號部分進行處理)。