Advisor: Prof. Chin-Shyurng Fahn

TEL: 02-2733-3141 # 7425

Location: RB307-3

Designer: Yu-Ta Lin

一個提昇自然場景影像之文字偵測與擷取效能的適應性方法

 

  影像與視訊中的文字往往包含了大量的訊息,而文字資訊萃取技術已被廣泛地應用在多媒體索引以及智慧型運輸系統上面。欲準確地從影像及視訊中偵測與擷取文字並不簡單,因為文字的大小、方向以及排列方式皆不固定。在本論文中,我們提出了一個基於連通元件的文字偵測與擷取方法。首先利用Canny 邊緣檢測以及線性連通元件標記法準確地求得文字的候選區塊,再利用一些文字的特性來做初步的過濾,以大幅減少候選區塊的數量以及後續分類器判斷的時間還有提昇正確率。接著將剩下的候選區塊交由Adaboost 演算法所訓練出來的強分類器作判斷並且合併屬於同一個字的字母。與其它機器學習演算法相比,Adaboost演算法在收斂的速度上佔了很大的優勢,因此我們可以時常更新我們的訓練樣本以應付各種的情形,同時並不會花費太大的成本;最後,我們採用了一個適應性門檻值的二值化方法來做文字抽取的動作,即使在不平衡的光源底下依然可以成功地抽取出文字。根據實驗結果顯示:我們所提方法的文字召回率以及準確率都高於95%,並且整體系統的執行效能也令人滿意。