研究領域

研究領域

Research Fields
智慧法學暨數位鑑別實驗室(Legal Intelligence and Forensics Examination Lab, LIFE Lab)於 2021 年成立於淡江大學資訊工程學系,創辦人為吳孟倫博士。因應我國政府將人工智慧定為未來發展重要方向之一,本實驗室特針對人工智慧領域中,較少受到關注卻極為重要的的研究主題「法律」作為研究方向。透過大數據分析、深度類神經網路、自然語言處理等技術,協助人類處理法律事務中較為瑣碎的部分,花費更少的時間,做出更精確的決策。 影像處理與識別技術,為本實驗室發展的另一個方向。正所謂「一畫勝千言」(A picture is worth a thousand words),我們讓電腦具備「看」的能力,使其能在毫秒內掌握一張圖片中的重要資訊,代替人工快速判讀大量影像。
本實驗室近年來以智慧型監控系統、智慧型法學系統、與計量影像審美學為主要研究領域的重心,內容詳述如下:
(1) 智慧型監控系統:智慧型監控(Intelligent Video Surveillance, IVS)主要是從監控影片(Surveillance Video)中,挖掘出可疑的異常事件,將監控系統從被動的事後蒐證,提前到事前預防。其相關的應用領域非常的廣泛,像是:大樓保全監控、人次計數、特定事件檢索…等。過去的研究成果中,包含異常事件偵測,以及影片濃縮系統。在異常偵測事件中,我們讓機器從影片中,自動學習出屬於該場域的異常事件,而不需使用者去定義何謂異常事件。在影片濃縮系統中,則是考慮到使用者判讀影像的精力有限,而透過摘要的方式,將來自不同時間點的人事物,依照異常程度合併到影片的前段或後段,縮短影片長度,而不遺漏任何影片中的內容。

物件偵測技術

使用人工智慧技術將影片中的物件偵測出來,取得其座標、大小,以及所屬類別。機器人等系統得以透過偵測結果做出適當反應。

異常偵測技術

針對監視錄影器的畫面做自動分析,不須使用者定義,自動學習場景樣態,並主動發現可疑之移動物體。

軌跡分析技術

藉由分析移動物體的軌跡,我們可以知道畫面中行人的常走路徑,以及預測動向,藉以做適當的布置與安排。

(2) 智慧型法學系統:法律學的應用,是人工智慧研究中較少被觸及到的領域。在律師事務所中常常面臨許多繁瑣、重複性高而花時間的事情,若能透過資訊系統代勞,則能讓法務人員專注於重要而有價值的事物。透過強化的法學資料檢索系統,能讓法務人員避免遺漏重要法律資訊或過去案例,而影響正確判斷,或者在相同案件中,與過去的判決不一致。透過自然語言處理與資料探勘技術,從過去大量法律文件中,找出判斷依據,幫助法務人員節省辦案時間,並提升決策準確度。

引用法條推薦

如果臨時遇到罕用的案件,處理會相對吃力。為了避免法條的引用有所疏忽,掛一漏萬, 我們以開發智慧型法條引用推薦系統為目標, 針對不同的案件類型, 指導使用者引用所需法條。 這項功能亦能夠隨著時間更新,對應到新法的使用上。

自然語言處理

法律案件的處理大部分都是基於文字之上的, 因此讓電腦理解人類的語言是一大必要功夫。 然而,法律用語有其專業性, 且部分與日常生活詞彙重疊, 因此打造法律事務專用的自然語言處理系統, 也需要專業性。

判決勝負預測

當事人在不同的法律案件下,勝敗率可能性往往不同, 實務上不能以相等的心力去辦理。 勝敗機率的判斷需要經驗,且不能遺漏重大的要件影響判斷。 為了能夠讓當事人以及相關法律人士合理分配時間與心力於法律案件上, 我們透過人工智慧的方式,預測法律案件之勝敗, 讓使用者能夠預見勝敗可能性。

(3) 計量影像審美學:現今人工智慧技術的一大議題,在於其能夠解決具體的理性問題,對於抽象的藝術等感性問題的理解能力較差。計量影像審美學 (Computational Image Aesthetics) 的目標即在於研究如何讓電腦能夠理解抽象的美的概念,並將其運用來解決現實生活中的各項問題,例如照片篩選排序、輔助相機使用者拍攝較佳的照片,以及輔助產品設計師預測產品外觀是否受使用者青睞等。

自動拍照機器人

讓電腦具備審美的能力,模仿專業攝影師的取景行為,在人類不方便操作的場景下,為人類代勞做取景拍攝,並拍攝出有意義的照片。

即時拍照指引

現今手機相機越來越先進,但缺乏拍照經驗的人不一定能拍出好照片。我們透過機器學習讓電腦即時教導使用者如何構圖,以及調整色調。

可解釋性指引

若讓電腦判斷照片好壞的過程,變成可解釋的(Interpretable),那麼遇到分類為不好的場景之時,就可以向使用者說明使用何種操作可以改善畫面。

未來的研究將以端到端影像深度學習、自然語言處理與電腦視覺技術整合、輕量化深度學習、及行動智慧APP應用開發為主要研究領域的重心,內容詳述如下:

(1) 端到端影像深度學習:過去電腦視覺技術欲偵測物體,需要使用 Sliding Window 方法,將影像分割為不同大小的子圖而個別判讀其內容,此種方法速度較慢。而較新的端到端 (End-to-end) 技術乃直接將整張影像判讀,而直接輸出整張影像中內含所有物件的座標、大小,以及所屬物件類別名稱。相較於過去的技術,端到端的方式偵測物體較快速,但須使用的神經網路層數較多,且需要更多標記資料,且在同樣硬體條件下,需要更多的訓練時間。在特定情況下,受限於資料集中標記的座標,某些物體若出現於不合理的位置,會較難被偵測到。我們期望針對當前端到端影像深度學習技術尚不成熟的部分做改進,讓此技術的應用達到更佳。

(2) 自然語言處理與電腦視覺技術整合:當今機器學習較為熱門的技術,分為自然語言處理技術,以及電腦視覺技術兩者。這兩項技術的任務不同,因此過去較少交集,研究人員也是各做各的,而一般理解上也認為需要創造兩套以上系統才能解決各自問題,然而此種 思考模式顯然不符合人類的思考樣態。近日新文獻中,有學者提出將影像編碼為自然語言,讓上述兩個技術領域可以互通,亦即讓電腦具備以自然語言的角度去理解影像內容。我們期待透過此種技術的研發,讓電腦能夠更接近人的思考方式,從而逐步達到單一模型、多項應用的目標。

(3) 輕量化深度學習:當前最有效的人工智慧技術為深度學習,但需要的耗能較大,比較無法提供小型的智慧型裝置使用。我們將通盤檢討目前深度學習的運作模式,理解哪些功能較不重要,並透過小幅犧牲準確度,換取有效的效能提升。若是能將現今的深度學習技術,以省能源、合理運算量的模式重新實現,就能有開發更多的應用,進一步提高產學合作的機會。

(4) 行動智慧APP應用開發:手機APP開發亦為目前的一個研究重點,我們將開發三種系統:(i)手機拍照美學指引系統,我們將設計一個APP,分析手機鏡頭上的即時影像,透過我們的機器學習模型,告知使用者可以改善哪些構圖與色調,讓照片能夠更符合美學標準,拍出來的成品更容易獲得青睞。(ii)影像內容敘述APP,透過電腦視覺技術與自然語言處理的整合,我們期待開發出一個影像內容敘述APP,讓手機能夠針對攝影鏡頭上的內容作判讀,告知使用者當前所看到的畫面事件為何。(iii)法條引用推薦系統,透過大數據分析與專家知識,讓使用者在APP中輸入我們所分析出的常見條件後,告知使用者所面臨事件的相關法條,讓使用者得以知悉所面臨案件之大致輪廓。