JP2019191776A - 情報管理装置及び情報管理方法 - Google Patents

情報管理装置及び情報管理方法 Download PDF

Info

Publication number
JP2019191776A
JP2019191776A JP2018081892A JP2018081892A JP2019191776A JP 2019191776 A JP2019191776 A JP 2019191776A JP 2018081892 A JP2018081892 A JP 2018081892A JP 2018081892 A JP2018081892 A JP 2018081892A JP 2019191776 A JP2019191776 A JP 2019191776A
Authority
JP
Japan
Prior art keywords
character string
unit
information
character
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018081892A
Other languages
English (en)
Inventor
友里 木谷
Yuri Kitani
友里 木谷
真理子 庭野
Mariko Niwano
真理子 庭野
和浩 高萩
Kazuhiro Takahagi
和浩 高萩
亘 太田
Wataru Ota
亘 太田
小山 雅弘
Masahiro Koyama
雅弘 小山
渡志夫 谷口
Toshio Taniguchi
渡志夫 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2018081892A priority Critical patent/JP2019191776A/ja
Publication of JP2019191776A publication Critical patent/JP2019191776A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Character Input (AREA)
  • Character Discrimination (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】速報性が高い情報を容易に活用することができる情報管理装置及び情報管理方法を提供することである。【解決手段】実施形態の情報管理装置は、文字列認識部と、スクリーニング部と、解析分類部とを持つ。文字列認識部は、速報性が高い情報を含む映像又は画像内から文字列が表示される情報表示領域内に表示されている文字列を文字認識処理によって取得する。スクリーニング部は、前記文字列認識部によって取得された前記文字列において、前記文字列内の重複文字及び重複文字列の削除と、前記文字列の長さの判定とのいずれか行う。解析分類部は、前記スクリーニング部による処理後の文字列を、予め設定されたキーワードに基づいて、前記文字列認識部によって取得された前記文字列をいずれかの種別に分類し、前記文字列と、前記種別とを対応付けて記憶部に記憶する。【選択図】図2

Description

本発明の実施形態は、情報管理装置及び情報管理方法に関する。
地震、津波、異常気象等の災害に関する緊急情報の伝達手段としては、防災無線システムや、緊急メール等の様々なシステムが運用されている。一方、緊急情報については、テレビ放送やラジオ放送等の放送メディアも、速報等の形態で放送を行っている。従来、これらの放送メディアから災害等に関する緊急情報を収集する技術として、所定のキーワードを含む音声や映像等の入力情報が得られると、得られた入力情報を記憶装置に蓄積する技術があった。しかしながら、従来技術では、緊急情報のように速報性が高い情報を、取得した状態のままで記憶装置に保存しているため、後日活用するためには多くの時間や手間がかかってしまう場合があった。
特開2007−266800号公報 特開2003−255979号公報 特開2013−31009号公報
本発明が解決しようとする課題は、速報性が高い情報を容易に活用することができる情報管理装置及び情報管理方法を提供することである。
実施形態の情報管理装置は、文字列認識部と、スクリーニング部と、解析分類部とを持つ。文字列認識部は、速報性が高い情報を含む映像又は画像内から文字列が表示される情報表示領域内に表示されている文字列を文字認識処理によって取得する。スクリーニング部は、前記文字列認識部によって取得された前記文字列において、前記文字列内の重複文字及び重複文字列の削除と、前記文字列の長さの判定とのいずれか行う。解析分類部は、前記スクリーニング部による処理後の文字列を、予め設定されたキーワードに基づいて、前記文字列認識部によって取得された前記文字列をいずれかの種別に分類し、前記文字列と、前記種別とを対応付けて記憶部に記憶する。
実施形態における情報管理システム100のシステム構成を示す図。 第1の実施形態における情報管理装置の機能構成を表す概略ブロック図。 第1の実施形態における情報管理装置の処理の流れを示すフローチャート。 第1の実施形態における設定情報テーブルの一例を示す図。 第1の実施形態における文字列認識部が行う画像処理を説明するための図。 第1の実施形態における分類結果の一例を示す図。 第1の実施形態におけるスクリーニング部が行う文字動作判定処理の流れを示すフローチャート。 第1の実施形態における文字列認識部による処理を説明するための図。 第2の実施形態における情報管理装置の機能構成を表す概略ブロック図。 第2の実施形態における情報管理システムの処理の流れを示すシーケンス図。 第2の実施形態における情報管理システムの処理の流れを示すシーケンス図。
以下、実施形態の情報管理装置及び情報管理方法を、図面を参照して説明する。
図1は、実施形態における情報管理システム100のシステム構成を示す図である。情報管理システム100は、速報性が高い文字情報を含む映像又は画像情報から文字列を抽出し、画像情報と、文字列と、文字列から判明した内容に関する情報とを対応付けて管理、活用するためのシステムである。文字情報は、例えば緊急避難警報等の警報又は注意報に関する情報や、選挙に関する情報や、市場(マーケット)に関する情報等を示す。速報性が高い文字情報を含む映像又は画像とは、例えば放送波(L字テロップや字幕等)、CCTV(Closed-circuit Television)カメラ映像、ネットTVの映像、災害時又は事故時に提供される緊急情報等のように特定の場所に文字情報を含む映像又は画像である。
情報管理システム100は、画像取得装置10、情報管理装置20、管理サーバ30、パーソナルコンピュータ40及び端末装置50を備える。
画像取得装置10は、外部から画像情報を受信し、受信した画像情報に基づいて映像又は画像を復号する装置である。画像取得装置10は、例えばチューナーや映像受信装置である。画像取得装置10がチューナーである場合、画像取得装置10はアンテナを介してテレビ放送の放送波を画像情報として受信する。また、画像取得装置10が映像受信装置である場合、画像取得装置10はネットワークを介して監視カメラや映像を保持している装置から送信された映像データ又は画像データを画像情報として受信する。ネットワークは、例えばインターネットや無線LAN(Local Area Network)である。
情報管理装置20は、画像取得装置10によって復号された映像又は画像から文字列を抽出し、予め設定されたキーワードに基づいて、抽出した文字列をいずれかの種別に分類し、少なくとも文字列と、分類種別とを対応付けて管理する装置である。情報管理装置20は、管理サーバ30、パーソナルコンピュータ40及び端末装置50からの要求に応じて、管理している情報を要求元の装置に提供する。情報管理装置20は、パーソナルコンピュータ等の情報処理装置を用いて構成される。
管理サーバ30は、例えば国の機関(例えば国交省)や地方公共団体の機関によって保有される。管理サーバ30は、例えば情報管理装置20によって提供される情報を取得し、取得した情報に基づいてユーザに対し警報等を出力する。
パーソナルコンピュータ40は、情報管理装置20によって提供される情報を取得し、取得した情報に基づいてユーザに対し警報等を出力する。パーソナルコンピュータ40は、情報管理システム100の管理者、防災に関わる人物及び地域の住人等によって操作される。
端末装置50は、情報管理装置20によって提供される情報を取得し、取得した情報に基づいてユーザに対し警報等を出力する。パーソナルコンピュータ40は、情報管理システム100の管理者、防災に関わる人物及び地域の住人等によって操作される持ち運び可能な装置である。
(第1の実施形態)
第1の実施形態は、CCTVカメラ映像のように常時取得される映像又は画像から文字列を抽出する実施形態である。
図2は、第1の実施形態における情報管理装置20の機能構成を表す概略ブロック図である。情報管理装置20は、バスで接続されたCPU(Central Processing Unit)やメモリや補助記憶装置などを備え、情報管理プログラムを実行する。情報管理装置20は、情報管理プログラムの実行によって、設定部201、キャプチャ部202、画像蓄積部203、文字列認識部204、スクリーニング部205、解析分類部206、分類結果記憶部207、提供部208、編集部209を備える装置として機能する。なお、情報管理装置20の各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。情報管理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。情報管理プログラムは、電気通信回線を介して送信されてもよい。
設定部201は、画像取得装置10、キャプチャ部202及びスクリーニング部205に対して処理に関する設定を行う機能部である。処理に関する設定とは、各機能部が処理を行う上で定められた条件である。例えば、設定部201は、画像情報を取得するための設定を画像取得装置10に対して行う。また、例えば、設定部201は、映像又は画像の取得間隔及びマスク位置の設定をキャプチャ部202に対して行う。本実施形態におけるマスク位置は、画像情報の取得元に応じて設定可能である。なお、マスク位置は、映像又は画像内において文字列が表示される情報表示領域以外の領域をマスクするように設定される。
キャプチャ部202は、画像取得装置10によって復号された映像又は画像を取得する機能部である。例えば、キャプチャ部202は、設定部201によって設定された取得間隔で映像又は画像を取得する。なお、キャプチャ部202は、映像が取得された場合には、映像を画像に変換する。キャプチャ部202は、設定部201によって設定されたマスク位置に基づいて、マスク処理を行うことによって画像内の情報表示領域以外の領域をマスクする。
画像蓄積部203は、キャプチャ部202によってマスク処理が施された画像を蓄積する機能部である。画像蓄積部203が蓄積する画像は、速報性が高い情報を含む画像である。画像蓄積部203は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。
文字列認識部204は、画像蓄積部203に記憶されている画像に対して文字認識処理を行うことによって情報表示領域内に表示されている文字列を取得する機能部である。
スクリーニング部205は、文字列認識部204によって取得された文字列に対して、文字列内の重複文字又は重複文字列の削除と、文字列の長さの判定とのいずれかを行う機能部である。
解析分類部206は、スクリーニング部205による処理後の文字列を、予め設定されたキーワードに基づいて分類する機能部である。解析分類部206は、予め設定されたキーワードに基づいて、文字列をいずれかの種別に分類し、少なくとも文字列と、分類種別とを対応付けて分類結果として分類結果記憶部207に記憶する。
分類結果記憶部207は、分類結果を記憶する機能部である。分類結果記憶部207は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。
提供部208は、要求に応じて、分類結果記憶部207に記憶されている分類結果のうち、要求されている分類結果を要求元に対して提供する機能部である。提供部208は、例えば分類結果を含むWEBページの画面のデータ(例えばHTML(HyperText Markup Language)データ)を生成し、要求元に対してデータを提供する。
編集部209は、管理者等のユーザの操作に応じて、分類結果記憶部207に記憶されている分類結果のうち文字列を編集する機能部である。
図3は、第1の実施形態における情報管理装置20の処理の流れを示すフローチャートである。
ステップS101において、情報管理装置20の設定部201は、画像取得装置10及びキャプチャ部202に対して処理に関する設定を行う。例えば、設定部201は、事前に管理者の指示に従って設定情報(映像又は画像のいずれを取得するのか、対象機器、URL(Uniform Resource Locator)等)を画像取得装置10に対して設定する。画像取得装置10は、例えばURLが設定された場合には、設定されたURLにアクセスして画像情報を取得する。この際、画像取得装置10は、設定された内容に応じて映像又は画像のいずれかを含む画像情報を取得する。画像取得装置10は、例えば対象機器としてチューナー1が設定された場合には、チューナー1として動作する。画像取得装置10は、取得した画像情報を復号することによって映像又は画像を取得し、取得した映像又は画像をキャプチャ部202に出力する。
また、例えば、設定部201は、図4に示す設定情報テーブルを用いて、画像取得装置10の設定に応じて取得間隔及びマスク位置の設定をキャプチャ部202に対して行う。
図4は、設定情報テーブルの一例を示す図である。
図4に示すように、設定情報テーブルには、設定例、種別、映像/画像、取得間隔、取得情報源及び文字認識範囲の各値が登録されている。設定例の値は、画像情報の取得元を表す。図4に示す例では、設定例は、△△放送、○○放送、○○事務所カメラ及び△△ネット放送である。種別の値は、画像情報の取得元の種別を表す。図4に示す例では、種別は、放送波、監視カメラ、インターネット及び動画等である。映像/画像の値は、画像情報が映像であるのか画像であるのかを表す。取得間隔の値は、映像又は画像を取得する間隔を表す。取得情報源の値は、映像又は画像の取得元を表す。文字認識範囲の値は、情報表示領域の範囲を表す。図4に示す例では、領域1〜5で示される領域が、情報表示領域の範囲である。そして、領域1〜5で示される領域以外の領域が、マスクの対象となる領域である。
図4において、画像取得装置10がチューナー1になった場合には、取得間隔(映像から画像をキャプチャする間隔)が2秒であり、領域1で示される範囲(画像の上部と左部)以外の領域がマスクの対象となる領域であることが表されている。また、取得情報源が30秒に1回文章が変わる電光掲示板を監視する○○事務所カメラに変更された場合には、取得間隔が10秒であり、領域4で示される範囲(電光掲示板が映る位置)以外の領域がマスクの対象となる領域であることが表されている。
図3の説明に戻り、ステップS102において、キャプチャ部202は、設定部201によって設定された取得間隔で、画像取得装置10から映像又は画像を取得する。なお、キャプチャ部202は、映像の場合には映像を静止画像に変換して取得する。
ステップS103において、キャプチャ部202は、設定部201によって設定されたマスク位置に応じて、取得した画像に対してマスク処理を行う。これにより、画像内の情報表示領域以外の領域がマスクされる。キャプチャ部202は、マスク処理後の画像を画像蓄積部203に蓄積する。
ステップS104において、文字列認識部204は、画像蓄積部203に記憶されているマスク処理後の画像に対して画像処理を行う。
図5は、文字列認識部204が行う画像処理を説明するための図である。
図5(A)は情報表示領域内に含まれる文字情報と背景とを示す図である。まず文字列認識部204は、情報表示領域内に含まれる文字情報の色(以下「文字色」という。)を把握する。例えば、文字列認識部204は、文字情報の画素値を文字色として把握する。図5(A)において、情報表示領域内に含まれる文字情報は、“避難情報 ○○県△△市で避難者100人”である。文字色は、設定部201によって予め設定されていてもよい。
次に、文字列認識部204は、文字色以外の色を、情報表示領域内の背景色に近い又は同じ色に変換する。例えば、文字列認識部204は、情報表示領域内において文字色の次に多い画素値を背景色として把握し、文字色以外の色を、情報表示領域内の背景色に近い又は同じ色に変換する。ここで、文字色以外の色とは、記号(図5(A)の場合、太陽の記号)の色や下線の色等である。また、背景色に近い色とは、背景色を表す画素値との差が予め定められた範囲内の画素値である。
図5(B)は、文字色以外の色を情報表示領域内の背景色に近い又は同じ色に変換した後の情報表示領域を示す図である。図5(B)に示すように、文字列認識部204が、文字色以外の色を情報表示領域内の背景色に近い又は同じ色に変換することにより、文字色と背景色以外の色を減らすことができる。
そして、文字列認識部204は、文字色と、背景色に近い又は同じ色との間の色を閾値として二値化処理を行う。
図5(C)は、二値化処理後の情報表示領域を示す図である。図5(C)に示すように、二値化処理後は、文字色と、背景色に近い又は同じ色とが明確に分けられる。図5(C)では、二値化処理後に文字色が黒、背景色に近い又は同じ色が白となっているが、文字列認識部204は二値化処理後に文字色が白、背景色に近い又は同じ色が黒になるように二値化処理を行ってもよい。文字列認識部204は、背景色と文字色が最初からはっきり異なる場合には図5(B)に示す処理を省略して直接二値化処理を行っても良い。ここで、背景色と文字色が最初からはっきり異なる場合とは、文字色の画素値と、背景色の画素値とがある閾値以上の差を有している場合である。また、文字列認識部204は、二値化処理ではなく文字色を基準にグレイスケール変換を行っても良い。
図3に戻り、ステップS105において、文字列認識部204は、二値化処理を行った後に、OCR(Optical Character Reader)による文字認識処理を行うことによって情報表示領域内の文字列を取得する。文字列認識部204は、取得した文字列の情報と、マスク処理後の画像とをスクリーニング部205に出力する。
ステップS106において、スクリーニング部205は、文字列認識部204から出力された文字列の情報に基づいて、文字動作判定処理を行う。文字動作判定処理とは、映像中の文字がどのような動きをしているのかを判定する処理である。映像中の文字は、媒体や時間帯により様々な動きで変化している。例えば、テレビ放送のL字テロップでは、番組が変わるごとに文章の動きが変更される可能性があり、その場合適切なタイミングでの文章切出しが難しくなる。もし、スクリーニング部205は、同じテロップがまだ動いていない場合には、検出した文字は重複文字になるため登録しない。
そこで、スクリーニング部205は、文字動作判定処理により映像中の文字が、(第1のパターン)常にスクロールしている/1画面中に1文章が納まるか、(第2のパターン)常にスクロールしている/1画面中に1文章が納まらないか、(第3のパターン)停止/移動または変化を繰り返しているかのいずれのパターンに属するのかを判定する。ただし、(第1のパターン)及び(第2のパターン)の1文章の切れ目は空白又は記号[○、/、読点、句点など]によって表されるものとする。以下、1文章の切れ目を文章切れ目と記載する。文字動作判定処理の具体的な動作については図7で説明する。
ステップS107において、スクリーニング部205は、文字動作判定処理により判定したパターンに応じて、1文範囲特定及び保存画像の選択を行う。具体的には、スクリーニング部205は、(第1のパターン)と判定した場合、文章切れ目の前後各文字列数文字(例えば、前後各文字列5文字)を記録する。次に、スクリーニング部205は、記録した文字列が移動し、記録した文字列の文章切れ目が現れなくなるまでマスク処理後の画像を取得する。そして、スクリーニング部205は、記録した文字列の文章切れ目が現れなくなったマスク処理後の画像と、取得した文字列の情報の1つ前のマスク処理後の画像と、取得した文字列の情報(文章切れ目から次の文章切れ目まで)を選択する。
また、スクリーニング部205は、(第2のパターン)と判定した場合、文章切れ目の前後各文字列数文字(例えば、前後各文字列5文字)を記録する。なお、(第2のパターン)の場合、1画面中に1文が収まっていないため、スクリーニング部205は以下のような処理を行う。文字列認識部204によって、同一の情報表示領域内において、所定の時間にわたって文字認識処理が繰り返し実行されることによって、情報表示領域内の文字列が更新される。そして、スクリーニング部205は、文字列認識部204から文字認識処理により取得された複数の文字列を取得し、取得した複数の文字列において各文字列における重複部分を削除し、重複しない文字列を組み合わせることによって1文の文字列を正しく再現する。次に、スクリーニング部205は、対象文章の文章切れ目前後各所定の文字数(例えば、5文字)が半分以上無くなるまでマスク処理した後の画像を取得する。そして、スクリーニング部205は、取得したマスク処理後の画像と、取得した文字列の情報とを選択する。
また、スクリーニング部205は、(第3のパターン)と判定した場合、取得した文字列の情報同士を比較する。例えば、スクリーニング部205は、時刻tに取得した文字列の情報と、時刻t−1に取得した文字列の情報とを比較する。次に、スクリーニング部205は、文字列の情報同士の比較を文字列の情報が変化するまで繰り返す。そして、スクリーニング部205は、文字列の情報が変化したあと、1度目に文字列の情報と同じになった時、文字列は停止していると判断し、マスク処理後の画像と、取得した文字列の情報を選択する。
ステップS108において、スクリーニング部205は、取得した文字列の情報に基づいて、認識したテロップが、同じ内容のテロップであった場合には、文字列内の重複文字の削除を行う。ここで、過去に同様のテロップが発生していたら、過去のテロップの表示フラグを変更することで対応し、記録は残す。スクリーニング部205は、マスク処理後の画像と、文字列内の重複文字の削除後の文字列情報とを解析分類部206に出力する。
ステップS109において、解析分類部206は、スクリーニング部205から出力された文字列情報を、予め設定されたキーワードに基づいていずれかの種別に分類する。キーワードは、地名であってもよいし、特定のワード(例えば、洪水、大雨等の防災に関するワード)であってもよい。キーワードは事前に登録する他、手動または自動で設定されてもよい。手動で設定する場合、管理者が特定の地域について詳細を知りたい時や、特定の事象について特に監視したいとき、新たにキーワードの追加・削除や分類の追加・削除を行う。また、過去の情報に基づいて、自動で設定する場合、分類結果記憶部207にある程度分類結果が蓄積された時、解析分類部206は自動で読み取り文字列の検証を行う。解析分類部206は、文字列の中で、同じ分類の中にのみ現れる単語、かつ、同じ分類中に一定の割合以上現れる単語を分類キーワードとして自動で登録する。なお、割合は任意で設定可能である。
ステップS110において、解析分類部206は、分類結果を分類結果記憶部207に蓄積する。図6は、解析分類部206が分類結果記憶部207に蓄積する分類結果の一例を示す図である。図6に示すように、解析分類部206は、解析した結果を基に、ID、文章ID、日時、情報種別、場所、自称、画像パス、関連データ、参照元、表示フラグ及び最終更新日時の各値を分類結果記憶部207に分類結果として蓄積する。IDの値は、分類結果を一意に識別するための識別情報である。文章IDの値は、例えば一定時間以内に同じ文字列を分類結果記憶部207に蓄積する際に同じ文章IDとして登録し、古いデータは非表示にする。また、一つの文で複数の情報種別として登録された時や、編集前と編集後の文章でも同じ文章IDを登録する。これにより、分類結果を後から解析することに使用できる。
日時の値は、文字列の情報を蓄積した日時である。情報種別の値は、キーワードより特定した分類の内容を表す。場所の値は、キーワードより特定した場所を表す。事象の値は、文字認識により得られた内容を表す。画像パスの値は、マスク処理後の画像のパスである。関連データの値は、映像又は画像に割り当てられた情報を表す。参照元の値は、情報の入手元である。表示フラグの値は、編集前、編集後、重複文字列等の表示又は非表示の有無を示すフラグである。最終更新日時の値は、編集が行われた最終の更新日時である。
図7は、第1の実施形態におけるスクリーニング部205が行う文字動作判定処理の流れを示すフローチャートである。
ステップS201において、スクリーニング部205は、読み取った文字列を変数Xに入力する。
ステップS202において、スクリーニング部205は、次に読み取った文字列を変数Yに入力する。
ステップS203において、スクリーニング部205は、変数Xに入力した文字列と、変数Yに入力した文字列とを比較する。変数Xに入力した文字列と、変数Yに入力した文字列と同じである場合(ステップ203−同じ)、スクリーニング部205はステップS204の処理を行う。一方、変数Xに入力した文字列と、変数Yに入力した文字列と異なる場合(ステップ203−異なる)、スクリーニング部205はステップS205の処理を行う。
ステップS204において、スクリーニング部205は、(第3のパターン)の動きと判定する。その後、スクリーニング部205は、文字動作判定処理を終了する。
ステップS205において、スクリーニング部205は、比較回数を計測する。比較回数が第1の回数以上(例えば、5回以上)である場合(ステップ205−第1の回数以上)、スクリーニング部205はステップS207の処理を行う。一方、比較回数が第1の回数未満(例えば、5回未満)である場合(ステップ205−第1の回数未満)、スクリーニング部205はステップS206の処理を行う。
ステップS206において、スクリーニング部205は、変数Yに入力した文字列を変数Xに入力する。その後、スクリーニング部205は、ステップS202以降の処理を実行する。
ステップS207において、スクリーニング部205は、変数Yに入力した文字列を変数Xに入力する。
ステップS208において、スクリーニング部205は、次に取得した文字列を変数Yに入力する。
ステップS209において、スクリーニング部205は、変数Yに含まれる文字列を確認する。そして、変数Yに含まれる文字列が、所定の文字分(例えば、3文字)以上の空白、又は、事前に指定された記号のいずれかを含む場合(ステップ209−含む)、スクリーニング部205はステップS211の処理を行う。一方、変数Yに含まれる文字列が、所定の文字分(例えば、3文字)以上の空白、又は、事前に指定された記号の両方を含まない場合(ステップ209−含まない)、スクリーニング部205はステップS210の処理を行う。
ステップS210において、スクリーニング部205は、(第2のパターン)の動きと判定する。その後、スクリーニング部205は、文字動作判定処理を終了する。
ステップS211において、スクリーニング部205は、ステップS209の処理における変数Yに含まれる文字列の確認回数を計測する。変数Yに含まれる文字列の確認回数が第2の回数以上(例えば、5回以上)である場合(ステップ211−第2の回数以上)、スクリーニング部205はステップS212の処理を行う。一方、変数Yに含まれる文字列の確認回数が第2の回数未満(例えば、5回未満)である場合(ステップ211−第2の回数未満)、スクリーニング部205はステップS207の処理を行う。
ステップS212において、スクリーニング部205は、(第1のパターン)の動きと判定する。その後、スクリーニング部205は、文字動作判定処理を終了する。
なお、スクリーニング部205は判定後も、文字列が入力されるたびに図7のステップS202に戻り、文字列の動きに変化がないかを確認する。図7中の判定回数と次の画像の取得頻度は対象映像に合わせて変更できる。
次に、編集部209による処理について具体的に説明する。
編集部209は、要求に応じて、分類結果記憶部207に記憶されている分類結果における文字認識内容を編集するための編集画面を、自装置又は他の装置に表示させる。編集部209は、編集画面を介して文字認識内容の編集指示がなされると、編集指示に応じて分類結果記憶部207に記憶されている文字認識内容を、修正後の文字認識内容に修正する。そして、編集部209は、修正前の文字認識内容と、修正後の文字認識内容とを対応付けて分類結果記憶部207に記憶することによって文字認識内容を編集する。
以上のように構成された情報管理装置20によれば、速報性が高い情報を含む映像又は画像内から文字列を取得し、取得した文字列の情報を、キーワードに対応付けて分類する。これにより、管理者は、分類した状態で文字列を確認できるため、災害時や事故発生時等の緊急時でも速報性のある情報を必要な時に必要な項目で確認することができる。また、事後に報告書等を作成する際にも、全てのデータを確認することなく容易に活用することが可能となる。そのため、速報性が高い情報を容易に活用することが可能になる。
また、情報表示領域内は、文字強調のための背景色変化や飾りがついていたり、背景画像が映りこんでいたりすることにより文字認識精度が低下してしまう場合がある。そこで、文字列認識部204は、文字認識処理を行う前に、文字背景に対して画像処理を行う。そのため、認識精度を向上させることができる。
(第1の実施形態における変形例)
画像取得装置10と、情報管理装置20とは1つの筐体に備えられてもよい。
切り出した画像中の文字列は、画像が不鮮明であることやノイズが入っていることにより、読み取り精度が悪くなることがある。これを向上させるために以下の機能を実装することができる。文字列認識部204は、文字輪郭が不鮮明な場合や、ノイズが多い場合、その画像は不鮮明画像と認定し、事前に設定された映像取得間隔に関わらず、次の画像の切出しを行う。
本実施形態では、文字列認識部204が、文字列の色を、設定部201による設定に基づいて把握する構成を示したが、文字列認識部204は情報表示領域内に含まれる文字列の色をOCRにより把握するように構成されてもよい。具体的には、文字列認識部204は、画像蓄積部203に記憶されているマスク処理後の画像をOCRにより文字認識処理を行う。そして、文字列認識部204は、文字認識処理の結果、認識した文字の色(画素値)を文字列の色として把握する。
解析分類部206は、分類結果記憶部207を参照し、編集部209から特定の文字を別の文字へ編集した記録に基づいて、認識間違いの特徴を抽出し、次に同じ文字が入力された際に自動で修正して登録するように構成されてもよい。例えば、編集部209により「太雨」という文字が「大雨」と修正された記録が複数回記録されている場合、解析分類部206は文字認識処理時の「大雨」の優先度を向上させるとともに、「太雨」と入力された時には自動で「大雨」に修正する。ただし、その後自動で「大雨」と変換したものを、編集にて「太雨」と変換する記録が発生した場合には自動修正を停止する。
文字列認識部204は、分類結果記憶部207を参照し、出力頻度の高い文字列、編集部209による編集結果に基づいて、文字列を取得するように構成されてもよい。図8は、文字列認識部204による処理を説明するための図である。図8に示す文字認識確率は、文字列認識部204がOCRにより画像内の情報表示領域を読み取った際に得られる文字認識の確率である。図8に示す優先度加点は、分類結果記憶部207に記憶されている文字列の割合に応じた加点である。例えば、分類結果記憶部207に文字認識内容として記憶されている割合が高い文字列ほど加点が高くなる。図8に示す例では、文字認識内容として“豪雨”の値が分類結果記憶部207に記憶されている割合が最も高く、次に“大雨”の値が分類結果記憶部207に記憶されている割合が高く、そして“太雨”の値が分類結果記憶部207に記憶されている割合が最も低いことが示されている。
図8に示す編集結果に応じた加点は、編集部209により分類結果記憶部207に記憶されている文字列の編集に応じた加点である。例えば、分類結果記憶部207に“太雨”から“大雨”に修正された履歴がある場合には、“太雨”に対してマイナスの点数を加点し、“大雨”に対してプラスの点数を加点する。図8に示す文字認識結果は、文字認識確率と、優先度加点と、編集結果に応じた加点とを総合した結果である。
図8を例に説明すると、文字列認識部204が文字認識処理により情報表示表域内から読み込んだ文字列が「大雨」である確率が48%、「太雨」である確率が50%、「豪雨」である確率が2%であったとする。また、「大雨」、「太雨」、「豪雨」の中で分類結果記憶部207に文字認識内容として記憶されている割合が最も高い文字列が「豪雨」、次に割合が高い文字列が「大雨」、最も割合が低い文字列が「太雨」であり、それぞれの優先度加点が、「豪雨」が+5点、「大雨」が+3点、「豪雨」が+0点とする。また、編集部209により“太雨”から“大雨”に修正された履歴があり、編集結果に応じた加点が「豪雨」が+0点、「大雨」が+10点、「豪雨」が−10点とする。
上記の条件の場合、文字列認識部204は、文字認識結果として「大雨」を61点、「太雨」を40点、「豪雨」を7点とし、文字認識処理の結果として情報表示領域内の文字列を「大雨」と判断する。
このように、出力頻度の高い文字列を自動で抽出することで、単語のみでなく、特定単語に伴う頻度の高い助詞からも優先度を推測することができる。また、過去に出てきた割合が高い文字列や管理者によって修正がなされた文字列等に応じた点数を含めて、文字認識処理の最終的な文字認識結果を得るため、より正確な文字列を取得することができる。
(第2の実施形態)
第2の実施形態は、不定期なタイミングで取得される映像又は画像から文字列を抽出する実施形態である。
図9は、第2の実施形態における情報管理装置20の機能構成を表す概略ブロック図である。図9に示すように、第2の実施形態では、情報管理システム100は、画像取得装置10に代えて画像取得装置10aを備え、新たにセンサ受信部60を備える。
センサ受信部60は、システム停止時から稼働し、Jアラートや地震速報、台風位置、対象地域の雨量等のセンサ情報を監視する。センサ受信部60は、アラームの受信、設定閾値を超える等の事象が発生した場合に、情報の出力が開始される可能性があると判断し、画像取得装置10a、設定部201及びキャプチャ部202aを自動で起動させる。
画像取得装置10aは、システム停止時には休止状態であり、センサ受信部60からの指示に応じて起動する。画像取得装置10aは、画像取得装置10と同様の処理を行う装置である。
情報管理装置20aは、バスで接続されたCPUやメモリや補助記憶装置などを備え、情報管理プログラムを実行する。情報管理装置20aは、情報管理プログラムの実行によって、設定部201、キャプチャ部202a、画像蓄積部203、文字列認識部204a、スクリーニング部205、解析分類部206、分類結果記憶部207、提供部208、編集部209を備える装置として機能する。なお、情報管理装置20aの各機能の全て又は一部は、ASIC(Application Specific Integrated Circuit)やPLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されてもよい。情報管理プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。コンピュータ読み取り可能な記録媒体とは、例えばフレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置である。情報管理プログラムは、電気通信回線を介して送信されてもよい。
情報管理装置20aは、キャプチャ部202及び文字列認識部204に代えてキャプチャ部202a及び文字列認識部204aを備える点で情報管理装置20と構成が異なる。情報管理装置20aは、他の構成については情報管理装置20と同様である。そのため、情報管理装置20a全体の説明は省略し、キャプチャ部202a及び文字列認識部204aについて説明する。なお、情報管理装置20aの各機能部は、システム停止時には休止状態であり、所定の条件が満たされたことに応じて随時稼働状態になる。
キャプチャ部202aは、キャプチャ部202と同様の処理を行う機能部である。キャプチャ部202aは、センサ受信部60からの指示に応じて起動する。また、キャプチャ部202aは、情報表示領域を確認し、情報表示領域が指定した状態(位置/色)に変化することを認識した場合、所定の条件が満たされたと判定して文字列認識部204aを起動させる。また、キャプチャ部202aは、文字列認識部204aを起動させた後、情報表示領域の色又は形が変化した時、情報管理装置20の各機能部を休止状態にする。
文字列認識部204aは、文字列認識部204と同様の処理を行う機能部である。文字列認識部204aは、キャプチャ部202aからの指示に応じて起動する。また、文字列認識部204aは、文字認識処理により取得した文字列に、事前に指定された単語(例えば、「台風」「地震」「洪水」「避難」等の防災に関する単語)が含まれることを確認した場合、所定の条件が満たされたと判定して残りの機能部全てを起動させる。
図10及び図11は、第2の実施形態における情報管理システム100の処理の流れを示すシーケンス図である。なお、図10及び図11の処理開始時には、センサ受信部60は稼働状態であり、画像取得装置10a及び情報管理装置20aは休止状態であるとする。
ステップS301において、センサ受信部60は、センサ情報を監視する。センサ受信部60は、アラームの受信、設定閾値を超える等の事象が発生した場合にステップS302及び303の処理を行う。
ステップS302において、センサ受信部60は、装置を起動させるための起動信号を生成する。センサ受信部60は、生成した起動信号を画像取得装置10aに送信する。
ステップS303において、センサ受信部60は、生成した起動信号を設定部201及びキャプチャ部202aに送信する。
ステップS304において、画像取得装置10aは、センサ受信部60から送信された起動信号の受信に応じて起動する。
ステップS305において、設定部201及びキャプチャ部202aは、センサ受信部60から送信された起動信号の受信に応じて起動する。
ステップS306において、設定部201は画像取得装置10a及びキャプチャ部202aに対して設定を行う。例えば、設定部201は、事前に管理者の指示に従って設定情報(映像または画像、対象機器、URL等)を画像取得装置10aに対して設定する。また、例えば、設定部201は、図4に示す設定情報テーブルを用いて、画像取得装置10aに応じて取得間隔及びマスク位置の設定をキャプチャ部202aに対して行う。
ステップS307において、画像取得装置10aは、画像情報を受信する。
ステップS308において、画像取得装置10aは、受信した画像情報に基づいて映像又は画像を復号する。画像取得装置10aは、復号した映像又は画像を情報管理装置20aに送信する。
ステップS309において、キャプチャ部202aは、取得情報源に応じて、映像又は画像に対してマスク処理を行う。キャプチャ部202aは、マスク処理後の画像を画像蓄積部203に蓄積する。
ステップS310において、キャプチャ部202aは、情報表示領域を確認する。キャプチャ部202aは、情報表示領域が、指定した状態(位置/色)に変化することを認識した場合、所定の条件が満たされたと判定して文字列認識部204aを起動させる。具体的には、キャプチャ部202aは、起動信号を生成し、生成した起動信号を文字列認識部204aに出力する。一方、キャプチャ部202aは、情報表示領域が指定した状態(位置/色)に変化してない場合、情報表示領域が指定した状態(位置/色)に変化するまでステップS309の処理を実行する。
ステップS311において、文字列認識部204aは、キャプチャ部202aから送信された起動信号の受信に応じて起動する。
ステップS312において、文字列認識部204aは、画像蓄積部203に記憶されているマスク処理後の画像に対して画像処理を行う。
ステップS313において、文字列認識部204aは、画像処理後に、OCRによる文字認識処理を行うことによって情報表示領域内の文字列を取得する。
ステップS314において、文字列認識部204aは、文字認識処理により取得した文字列に、事前に指定された単語が含まれるか否かを確認する。文字認識処理により取得した文字列に、事前に指定された単語が含まれる場合、文字列認識部204aはステップS315の処理を実行する。一方、文字認識処理により取得した文字列に、事前に指定された単語が含まれない場合、文字列認識部204aは事前に指定された単語が含まれるまで取得した文字列を保持した状態で待機する。
ステップS315において、文字列認識部204aは、起動信号を生成し、生成した起動信号を残りの各機能部(スクリーニング部205、解析分類部206、提供部208及び編集部209)に出力する。これにより、スクリーニング部205、解析分類部206、提供部208及び編集部209は起動する。
ステップS316において、スクリーニング部205は、文字列認識部204aから出力された文字列の情報に基づいて、文字動作判定処理を行う。
ステップS317において、スクリーニング部205は、文字動作判定処理により判定したパターンに応じて、1文範囲特定及び保存画像の選択を行う。
ステップS318において、スクリーニング部205は、取得した文字列の情報に基づいて、文字列内の重複文字及び重複文字列の削除を行う。スクリーニング部205は、マスク処理後の画像と、文字列内の重複文字の削除後の文字列情報とを解析分類部206に出力する。
ステップS319において、解析分類部206は、スクリーニング部205から出力されたマスク処理後の画像と、文字列内の重複文字の削除後の文字列情報とを、予め設定されたキーワードに基づいて分類する。
ステップS320において、解析分類部206は、分類結果を分類結果記憶部207に蓄積する。
ステップS321において、提供部208は、分類結果記憶部207に蓄積されている分類結果を、必要に応じて管理サーバ30、パーソナルコンピュータ40及び端末装置50のいずれかに提供する。
ステップS322において、キャプチャ部202aは、情報表示領域を確認する。キャプチャ部202aは、情報表示領域が、指定した状態(位置/色)から他の状態に変化することを認識した場合、ステップS323の処理を行う。一方、情報表示領域が、指定した状態(位置/色)から変化していない場合、キャプチャ部202aは、情報表示領域が、指定した状態(位置/色)から他の状態に変化するまでの間、ステップS309の処理を継続する。
ステップS323において、キャプチャ部202aは、情報管理装置20内の各機能部を停止させるための停止信号を生成する。キャプチャ部202aは、生成した停止信号を他の機能部(設定部201、文字列認識部204a、スクリーニング部205、解析分類部206、提供部208及び編集部209)に送信する。これにより、設定部201、文字列認識部204a、スクリーニング部205、解析分類部206、提供部208及び編集部209は、休止状態になる。また、キャプチャ部202aは、自機能部を休止状態にする。
以上のように構成された情報管理装置20aによれば、第1の実施形態における情報管理装置20と同様の効果を得ることができる。
また、情報管理装置20aは、常に起動している必要はなく、速報性が高い情報が出力されるタイミングで起動される。これにより、不要な画像を取得することがなくなる。したがって、意味のないデータや画像が画像蓄積部203に蓄積され、画像蓄積部203内の容量圧迫を招くことを軽減することができる。
(第1の実施形態及び第2の実施形態に共通の変形例)
情報管理装置20及び情報管理装置20aと、センサ受信部60とは一体の装置として構成されてもよい。
スクリーニング部205が図7のステップS203の処理で行う文字列の比較は、完全一致である必要はない。例えば、スクリーニング部205は、文字列が所定の割合(例えば、8割)以上一致している場合に、同じ文字列と判断するように構成されてもよい。また、所定の割合は、設定部201によってあらかじめ設定される。なお、所定の割合は、出力情報源毎に設定されてもよい。
提供部208は、分類結果記憶部207に記憶されている文字列のうち、任意の時刻から任意の時刻までで最も出現頻度の高い文字列を提供する。例えば、災害時のTVテロップに適用した際、ユーザが都道府県/市町村名を事前に判定文字として登録し、提供部208は最後の起動から現在までの時刻に最も多い地名を抽出し、抽出した地名の情報を提供する。これにより、利用者は現在どの地域で最も被害が大きいのかを判定する材料とすることができる。また、この情報を基にGISに表示することができる。
また、分類結果記憶部207には、ユーザのアクションログが記録されてもよい。アクションログのうち、ユーザの各タブへのアクセス状況(クリック数)に応じて出力するタブの順番を切り替えることができる。これにより、より重要度の高い項目が最初に表示され、より即時性を重視した情報提供が可能になる。
また、分類結果記憶部207に日時や情報種別を登録することで、内容に応じて利用者にデータを送信できる他、全データを時系列データとして提供することや、同様の事象ごとに分類して表示することができる。場所データを用いて地図上に表示することもできる。
また、ユーザの用途に合わせて定型フォーマットによる帳票出力(PDF等)を行うことで、緊急時の作業を削減することもできる。
(他の適用例)
上記の各実施形態では、画像取得装置10が受信する情報として監視カメラによって撮影された映像又は画像や放送で得られる映像又は画像を用いる構成を示したが、情報管理システム100は、他の速報性が要求される状況(例えば、期間限定のイベントの様子の監視/広報や、大規模施設管理など)に適用することもできる。現在監視カメラでの監視やインターネットへの画像の投稿は一般的なものとなりつつあるが、その量は膨大で人の手で全てを網羅することはできない。そこで、情報管理装置20は、映像や画像中の文字列を読み取ることで、画像内からわかる情報と画像、それに付属するコメント等の情報を紐づけることで、情報の信頼性を向上させたり、確認すべき情報の一次スクリーニングに使用したりすることができる。例えば、写真つきSNS(Social Networking Service)情報では、写真内の文字列を基に、情報表示領域の位置を特定することで、来場者の感想を即座に広告へ反映したり、トラブル等を監視したりできる。また、例えば複数人の投稿をもとに駅の混雑度を監視したり、遅延情報を読み取ったりすることもできる。また、位置情報を紐づけられた監視カメラでは、イベント等の進行度合いや仮設店舗の位置を特定したりできる。動画投稿サイトやフリマサイト等の違法行為の調査などにも活用できる。これらの情報は、顔認識技術やGIS技術と連携させることで、さらにその効果を上げることができる。
以上説明した少なくともひとつの実施形態によれば、速報性が高い情報を含む映像又は画像内から文字列が表示される情報表示領域内に表示されている文字列を文字認識処理によって取得する文字列認識部と、文字列認識部によって取得された文字列において、文字列内の重複文字及び重複文字列の削除と、文字列の長さの判定とのいずれか行うスクリーニング部と、予め設定されたキーワードに基づいて、文字列認識部によって取得された文字列を分類し、文字列と、キーワードとを対応付けて記憶部に記憶する解析分類部とを持つことにより、速報性が高い情報を容易に活用することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10、10a…画像取得装置,20、20a…情報管理装置,30…管理サーバ,40…パーソナルコンピュータ,50…端末装置,60…センサ受信部,201…設定部,202、202a…キャプチャ部,203…画像蓄積部,204、204a…文字列認識部,205…スクリーニング部,206…解析分類部,207…分類結果記憶部,208…提供部,209…編集部,210…

Claims (10)

  1. 速報性が高い情報を含む映像又は画像内から文字列が表示される情報表示領域内に表示されている文字列を文字認識処理によって取得する文字列認識部と、
    前記文字列認識部によって取得された前記文字列において、前記文字列内の重複文字及び重複文字列の削除と、前記文字列の長さの判定とのいずれか行うスクリーニング部と、
    前記スクリーニング部による処理後の文字列を、予め設定されたキーワードに基づいて、前記文字列認識部によって取得された前記文字列をいずれかの種別に分類し、前記文字列と、前記種別とを対応付けて記憶部に記憶する解析分類部と、
    を備える情報管理装置。
  2. 前記文字列認識部は、前記速報性が高い情報が出力されたと判定されるまでの間、休止状態であり、前記速報性が高い情報が出力されたと判定されると起動状態となって動作を開始する、請求項1に記載の情報管理装置。
  3. 前記文字列認識部は、前記情報表示領域内に含まれる文字列以外の色を、前記情報表示領域内の背景色に近い又は同じ色に変換し、前記文字列の色と、前記背景色に近い又は同じ色との間の色を閾値として二値化処理を行った後に、前記文字認識処理を行うことによって前記文字列を取得する、請求項1に記載の情報管理装置。
  4. 前記文字列認識部は、前記情報表示領域内に表示されている文字列を文字認識処理した結果として得られる1又は複数の文字列の候補それぞれの認識結果の割合を示す値に、前記記憶部に記憶されている文字列を参照して得られる前記文字列の候補の出現頻度に応じた加点と、認識結果の修正に伴う前記文字列の候補の加点とを加えることによって、前記1又は複数の文字列の候補それぞれの得点を算出し、算出した前記得点が最も高い文字列の候補を前記文字列として取得する、請求項1に記載の情報管理装置。
  5. 前記文字列認識部による文字認識処理の結果を編集する編集部をさらに備え、
    前記編集部は、編集を行った文字列と、編集後の文字列とを対応付けて前記記憶部に記憶する、請求項1に記載の情報管理装置。
  6. 速報性が高い情報を含む映像又は画像内から文字列が表示される情報表示領域内に表示されている文字列を文字認識処理によって取得する文字列認識ステップと、
    前記文字列認識ステップにおいて取得された前記文字列において、前記文字列内の重複文字及び重複文字列の削除と、前記文字列の長さの判定とのいずれか行うスクリーニングステップと、
    前記スクリーニングステップにおける処理後の文字列を、予め設定されたキーワードに基づいて、前記文字列認識ステップにおいて取得された前記文字列をいずれかの種別に分類し、前記文字列と、前記種別とを対応付けて記憶部に記憶する解析分類ステップと、
    を有する情報管理方法。
  7. 前記文字列認識ステップにおいて、前記速報性が高い情報が出力されたと判定されるまでの間、休止状態であり、前記速報性が高い情報が出力されたと判定されると起動状態となって動作を開始する、請求項6に記載の情報管理方法。
  8. 前記文字列認識ステップにおいて、前記情報表示領域内に含まれる文字列以外の色を、前記情報表示領域内の背景色に近い又は同じ色に変換し、前記文字列の色と、前記背景色に近い又は同じ色との間の色を閾値として二値化処理を行った後に、前記文字認識処理を行うことによって前記文字列を取得する、請求項6に記載の情報管理方法。
  9. 前記文字列認識ステップにおいて、前記情報表示領域内に表示されている文字列を文字認識処理した結果として得られる1又は複数の文字列の候補それぞれの認識結果の割合を示す値に、前記記憶部に記憶されている文字列を参照して得られる前記文字列の候補の出現頻度に応じた加点と、認識結果の修正に伴う前記文字列の候補の加点とを加えることによって、前記1又は複数の文字列の候補それぞれの得点を算出し、算出した前記得点が最も高い文字列の候補を前記文字列として取得する、請求項6に記載の情報管理方法。
  10. 前記文字列認識ステップにおける文字認識処理の結果を編集する編集ステップをさらに有し、
    前記編集ステップにおいて、編集を行った文字列と、編集後の文字列とを対応付けて前記記憶部に記憶する、請求項6に記載の情報管理方法。
JP2018081892A 2018-04-20 2018-04-20 情報管理装置及び情報管理方法 Pending JP2019191776A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018081892A JP2019191776A (ja) 2018-04-20 2018-04-20 情報管理装置及び情報管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018081892A JP2019191776A (ja) 2018-04-20 2018-04-20 情報管理装置及び情報管理方法

Publications (1)

Publication Number Publication Date
JP2019191776A true JP2019191776A (ja) 2019-10-31

Family

ID=68390370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018081892A Pending JP2019191776A (ja) 2018-04-20 2018-04-20 情報管理装置及び情報管理方法

Country Status (1)

Country Link
JP (1) JP2019191776A (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04256194A (ja) * 1991-02-08 1992-09-10 Fujitsu Ltd 文字認識処理方式
JPH07271921A (ja) * 1994-03-28 1995-10-20 Matsushita Electric Ind Co Ltd 文字認識装置および文字認識方法
JPH1027213A (ja) * 1996-07-12 1998-01-27 Oki Electric Ind Co Ltd 光学式文字読取装置
JPH1139299A (ja) * 1997-07-23 1999-02-12 Sanyo Electric Co Ltd 文字認識装置および記憶媒体
JP2010124155A (ja) * 2008-11-18 2010-06-03 Samsung Yokohama Research Institute Co Ltd 情報処理装置、情報処理方法、プログラム、および情報処理システム
JP2011048499A (ja) * 2009-08-25 2011-03-10 Fuji Xerox Co Ltd 認識結果修正装置、画像処理装置、及びプログラム
JP2013125391A (ja) * 2011-12-14 2013-06-24 Asutemu:Kk テレビジョン装置、情報処理方法、およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04256194A (ja) * 1991-02-08 1992-09-10 Fujitsu Ltd 文字認識処理方式
JPH07271921A (ja) * 1994-03-28 1995-10-20 Matsushita Electric Ind Co Ltd 文字認識装置および文字認識方法
JPH1027213A (ja) * 1996-07-12 1998-01-27 Oki Electric Ind Co Ltd 光学式文字読取装置
JPH1139299A (ja) * 1997-07-23 1999-02-12 Sanyo Electric Co Ltd 文字認識装置および記憶媒体
JP2010124155A (ja) * 2008-11-18 2010-06-03 Samsung Yokohama Research Institute Co Ltd 情報処理装置、情報処理方法、プログラム、および情報処理システム
JP2011048499A (ja) * 2009-08-25 2011-03-10 Fuji Xerox Co Ltd 認識結果修正装置、画像処理装置、及びプログラム
JP2013125391A (ja) * 2011-12-14 2013-06-24 Asutemu:Kk テレビジョン装置、情報処理方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
有木 康雄: "テロップ文字認識に基づくTVニュース記事の自動分類", 情報処理学会研究報告, vol. 第98巻 第58号, JPN6021047348, 10 July 1998 (1998-07-10), pages 9 - 16, ISSN: 0004649144 *

Similar Documents

Publication Publication Date Title
US11410001B2 (en) Method and apparatus for object authentication using images, electronic device, and storage medium
US7949207B2 (en) Video structuring device and method
US20160065911A1 (en) Method and system for automated labeling at scale of motion-detected events in video surveillance
US20130069980A1 (en) Dynamically Cropping Images
US20090144056A1 (en) Method and computer program product for generating recognition error correction information
US10769196B2 (en) Method and apparatus for displaying electronic photo, and mobile device
KR20120102043A (ko) 비디오 세션의 자동 라벨링
JP2024015359A (ja) 人物検出システム
CN111797820B (zh) 一种视频数据处理方法、装置、电子设备及存储介质
CN113628404A (zh) 一种减少无效告警的方法及装置
WO2023045939A1 (zh) 一种直播处理方法、直播平台、存储介质及电子设备
CN113435438B (zh) 一种图像和字幕融合的视频报幕板提取及视频切分方法
CN113114986B (zh) 基于画面和声音同步的预警方法及相关设备
JP5774460B2 (ja) テレビジョン装置、情報処理方法、およびプログラム
JP6804947B2 (ja) 情報取得装置及び情報取得方法
JP2019191776A (ja) 情報管理装置及び情報管理方法
CN110855932B (zh) 基于视频数据的报警方法、装置、电子设备及存储介质
CN113312949A (zh) 视频数据处理方法、视频数据处理装置和电子设备
CN112307823A (zh) 用于对视频中的对象进行标注的方法和设备
CN116189109A (zh) 模型训练方法、道路事件检测方法、装置及相关设备
CN112926542B (zh) 一种性别检测方法、装置、电子设备及存储介质
CN112241671B (zh) 一种人员身份识别方法、装置及系统
CN113947795A (zh) 口罩佩戴检测方法、装置、设备及存储介质
JP2007328406A (ja) 描画検索システム、描画検索方法及び描画検索端末
US20230394830A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220705