JP2014063318A - 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP2014063318A
JP2014063318A JP2012207588A JP2012207588A JP2014063318A JP 2014063318 A JP2014063318 A JP 2014063318A JP 2012207588 A JP2012207588 A JP 2012207588A JP 2012207588 A JP2012207588 A JP 2012207588A JP 2014063318 A JP2014063318 A JP 2014063318A
Authority
JP
Japan
Prior art keywords
gesture
character
finger
unit
character recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012207588A
Other languages
English (en)
Other versions
JP5989479B2 (ja
Inventor
Teru Kuki
▲輝▼ 九鬼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012207588A priority Critical patent/JP5989479B2/ja
Publication of JP2014063318A publication Critical patent/JP2014063318A/ja
Application granted granted Critical
Publication of JP5989479B2 publication Critical patent/JP5989479B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】手軽な操作で文字認識および所望の処理を実行する。
【解決手段】文字認識装置(1)は、指および文字を含む画像を取得するカメラ(4)と、取得した画像から認識した指のジェスチャーが複数のジェスチャーのいずれと一致しているかを判定するジェスチャー判別部(10)と、指によって示される位置の文字を認識する文字認識処理部(13)とを備え、当該ジェスチャーと対応付けられた処理を認識した文字に対して実行する。
【選択図】図1

Description

本発明は、画像に含まれる文字を認識する文字認識装置等に関する。
文字認識装置は、光学式文字認識などの技術を用いて、画像に含まれる文字を文字認識する。文字認識装置がカメラを搭載することにより、ユーザは、外出中に見かけた店舗の看板、書類などに記載された文字を該カメラを用いて撮像し、該文字を文字認識させることができる。
しかしながら、この場合、ユーザは、撮像された画像における、どの領域が文字認識の対象となる文字領域に該当するのかを文字認識装置に対して指定する必要がある。
文字領域を指定する機能を搭載した文字認識装置としては、例えば、撮像した画像を表示画面に表示し、該画像の一部の領域をマーカーで囲む、塗りつぶすなどのユーザからの操作を操作部にて受け付けることにより、上記文字領域を指定する機能を搭載した文字認識装置が公開されている。
また、カメラが備えているモニター画面に表示される枠内に、文字認識の対象となる文字を含むようにしてユーザが撮像することにより、上記文字領域を指定する機能を搭載した文字認識装置が公開されている。
また、撮像された画像に対して、ユーザが何も指定せずに、文字認識装置が自動的に上記文字領域を抽出する機能を搭載した文字認識装置が公開されている。
また、文字領域を指定する機能を搭載した文字認識装置として、下記の特許文献1〜3が開示されている。
特許文献1には、CCDカメラから撮像画像を入力し、撮像画像を表示器に表示し、タッチパネルから入力ペンにより画像範囲を指定させ、指定された範囲の表示画像から文字をパターン認識処理する端末装置が開示されている。
特許文献2には、カメラによって取り込まれた文書の画像、および文書の領域を指し示しているカメラ視野内の指の画像を処理して、該画像から、該文書中の指し示されている領域で参照されているウェブページを判別する装置が開示されている。
特許文献3には、月を意味する文字列を文字認識することで紙カレンダーの月を認識し、認識した月に対応する予定データを取得し、指領域の先端部で直線が遮られている日付枠を検出することで、予定データの表示形式及び表示期間を決定するカレンダー装置が開示されている。
特開平11−282836号公報(1999年10月15日公開) 特表2005−507526号公報(2005年3月17日公表) 特開2012−43348号公報(2012年3月1日公開)
特許文献1に係る文字認識装置は、カメラによって画像が撮像された後、文字認識の対象となる文字領域をユーザが入力ペンにより指定する必要がある。したがって、文字認識を実行するまでの手順が煩雑になるという問題がある。
特許文献2、3に係る文字認識装置は、カメラの被写体にユーザの指が置かれ、該指によって指定される範囲を上記文字領域として取得するため、撮像後にユーザが上記文字領域を指定するための操作を省略することができる。しかしながら、特許文献2、3に係る発明は、文字認識された文字を利用して行う処理の内容が予め決まっている。したがって、ユーザが、文字認識された文字を利用して、上記処理以外の処理を実行させたい場合、不都合である。
また、仮に、文字認識された文字を利用する処理の種類を選択することができる機能が文字認識装置に搭載されていたとしても、ユーザは、上記文字領域を指定する操作と、上記処理の種類を指定する操作の2つの操作を続けて行う必要がある。したがって、文字認識の後に続けて、文字認識された文字を利用した作業を行いたい場合、手順が煩雑になるという問題がある。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、手軽な操作で、文字認識およびユーザの所望の処理を実行することができる文字認識装置等を提供することにある。
上記の課題を解決するために、本発明の一態様に係る文字認識装置は、画像に含まれる文字を認識する文字認識装置であって、指および文字を含む画像を取得する画像取得手段と、上記画像取得手段が取得した画像から、指部分と、当該指部分と隣接する文字部分との位置情報からジェスチャーを認識するジェスチャー認識手段と、上記ジェスチャー認識手段が認識した指のジェスチャーが、予め記憶している複数のジェスチャーのいずれと一致しているかを判定する指ジェスチャー判定手段と、上記ジェスチャー認識手段が認識した指によって示される位置の文字または一連の文字群を認識する文字認識手段と、上記指ジェスチャー判定手段が一致していると判定したジェスチャーと対応付けられた処理を、上記文字認識手段によって認識された文字または一連の文字群に対し実行する処理実行手段と、を備えている。
また、本発明の一態様に係る文字認識装置の制御方法は、画像に含まれる文字を認識する文字認識装置の制御方法であって、指および文字を含む画像を取得する画像取得ステップと、上記画像取得ステップが取得した画像から、指部分と、当該指部分と隣接する文字部分との位置情報からジェスチャーを認識するジェスチャー認識ステップと、上記ジェスチャー認識ステップが認識した指のジェスチャーが、予め記憶している複数のジェスチャーのいずれと一致しているかを判定する指ジェスチャー判定ステップと、上記ジェスチャー認識ステップが認識した指によって示される位置の文字または一連の文字群を認識する文字認識ステップと、上記指ジェスチャー判定ステップが一致していると判定したジェスチャーと対応付けられた処理を、上記文字認識ステップによって認識された文字または一連の文字群に対し実行する処理実行ステップと、を含む。
なお、上記ジェスチャー認識手段が認識する指部分、上記ジェスチャー認識ステップで認識する指部分は、指の形状であってもよいし、指の動きであってもよい。
本発明の一態様によれば、ユーザは、ジェスチャーで所望の文字領域を示すという手軽かつ直感的な操作のみで、文字認識および認識した文字に対する所望の処理を実行させることができるという効果を奏する。
本発明の実施形態に係る文字認識装置の構成を示す概略ブロック図である。 上記文字認識装置に登録されているジェスチャーの一例を示す外観図であり、(a)はジェスチャーが画面上部から指し示す場合を示す図であり、(b)はジェスチャーが画面下部から指し示す場合を示す図であり、(c)はジェスチャーが領域を指で挟む場合を示す図である。 上記文字認識装置に登録されているジェスチャーの一例を示す図である。 上記ジェスチャーの種類と上記文字認識装置が実行する処理との対応関係を示すテーブルである。 上記文字認識装置における処理の流れの一例を示したフローチャートである。
本発明の一実施形態について、図1〜図5に基づいて以下に詳細に説明する。
(文字認識装置1の構成)
図1は、本実施形態に係る文字認識装置1の構成を示す概略ブロック図である。文字認識装置1は、図1に示すように、制御部2、記憶部3、カメラ(画像取得手段)4、通信部(通信手段)5、表示部6、および、操作部7を備えている。
文字認識装置1は、撮像によって取得した画像が含む文字を文字認識する機能を備えた情報処理装置である。文字認識装置1は、パーソナルコンピュータ、携帯電話、スマートフォン、タブレットPC、ゲーム機器などの情報処理装置であってもよい。
制御部2は、文字認識装置1の全体を統括して制御するものであり、例えばCPU(Central Processing Unit)等で構成することができる。制御部2は、記憶部3、カメラ4、通信部5、および、表示部6のそれぞれを制御する。制御部2の詳細な構成については後述する。
記憶部3は、制御部2が実行する(1)各部の制御プログラム、(2)OS(Operation System)プログラム、(3)アプリケーションプログラム、および、(4)これらプログラムを実行するときに読み出す各種データを記憶するものである。記憶部3は、フラッシュメモリなどの不揮発性の記憶装置によって構成される。また、記憶部3は、制御部2が上述の各種プログラムを実行する過程でデータを一時的に保持するための作業領域として、RAM(Random Access Memory)などの揮発性の記憶装置によって構成される領域を有している。なお、記憶部3は、必ずしも文字認識装置1内に備えられる必要はなく、文字認識装置1に着脱可能な外部記憶装置、または、通信部5を介して通信可能なネットワーク上の外部記憶装置として、文字認識装置1に接続される構成であってもよい。
そして、記憶部3は、特に、指画像パターン、指画像ジェスチャー対応テーブル、辞書データベース、メモ(文字)などを記憶する。
カメラ4は、操作部7にて受け付けるユーザの操作に基づき、文字、背景、人物などの物体を被写体として撮像する、通常のカメラが有する機能を備えている。特に、カメラ4は、指および文字を含む対象を被写体として撮像する。そして、カメラ4は、上記撮像によって取得した画像を制御部2に出力する。また、カメラ4は、複数の画像を定期的に撮像する機能を備えていてもよい。また、カメラ4は、映像を撮像する機能を備えていてもよい。この場合、操作部7にて受け付けるユーザの操作に従い、カメラ4は、複数の画像、または、映像を撮像する。なお、カメラ4は、背景、人物などを撮像する場合と、文字認識を目的として文字を撮像するための撮像の場合とで、処理の一部を切り替える機能を備えていてもよい。
また、カメラ4は、取得した映像をリアルタイムに制御部2に出力してもよい。
通信部5は、文字認識装置1が通信ネットワークを介してインターネット通信を行うための通信インターフェースである。文字認識装置1では、通信部5を介して、文字認識された文字をキーとして、インターネットから情報を検索するようになっている。
表示部6は、制御部2の指示に基づいて画像を表示する表示装置である。LC(Liquid Crystal)表示パネル、EL(Electro Luminescence)表示パネル等を表示部6として適用することができる。なお、図示していないが、制御部2または表示部6の内部には、VDP(Video Display Processor)およびVRAM(Video RAM)等の画像を表示するために必要な構成が適宜設けられている。また、表示部6は、画像表示と操作入力との両機能を備えるタッチパネルであってもよい。文字認識装置1では、表示部6は、文字認識された文字を利用した処理を実行した結果を表示するようになっている。また、表示部6は、カメラ4のモニター画面を兼ねる構成である。
操作部7は、文字認識装置1のユーザの操作を受け付けるものであり、典型的には、物理キー、キーボード、タッチパネルなどである。なお、表示部6がタッチパネルである場合、表示部6が操作部7の機能を兼ねる構成である。
(制御部2の詳細な構成)
制御部2の構成について詳細に説明する。制御部2は、ジェスチャー判別部(ジェスチャー認識手段、指ジェスチャー判定手段)10、画像結合部(結合手段)11、文字切出部(文字認識手段)12、文字認識処理部(文字認識手段)13、キーワード検索部(処理実行手段)14、辞書検索部(処理実行手段)15、および、記憶処理部(処理実行手段)16を備えている。
ジェスチャー判別部10は、カメラ4によって指および文字を含む対象が被写体として撮像されたとき、カメラ4から、該物体が被写体として写っている画像を取得し、該画像から、該指が示しているジェスチャーが、予め文字認識装置1に登録されたジェスチャーであるか否かを決定する。
具体的には、ジェスチャー判別部10は、上記画像から指の輪郭に沿った領域である指領域を画像として切り出し、該指領域が示している指のジェスチャーをパターン認識などの技術を用いて判別する。
例えば、記憶部3は、指のジェスチャーの外観を示す指画像パターンを記憶している。そして、記憶部3は、上記指画像パターンと、上記指画像パターンに対応する指のジェスチャーの種類とを対応付けた指画像ジェスチャー対応テーブルを記憶している。このとき、文字認識処理部13は、切り出された上記指領域の画像と最も類似度が高い画像パターンを上記指画像パターンから検索する。そして、文字認識処理部13は、上記指画像ジェスチャー対応テーブルを参照し、最も類似度が高いと判定された画像パターンに対応するジェスチャーを上記指領域が示す指のジェスチャーの候補である判定する。そして、ジェスチャー判別部10は、上記候補の類似度が所定の値を下回っている場合、上記候補が予め文字認識装置1に登録されていないジェスチャーであると決定する。一方、上記候補の類似度が所定の値以上である場合、上記候補が予め文字認識装置1に登録されているジェスチャーであると決定する。
なお、記憶部3は、上記指領域と文字領域との相対的な位置を記憶部3に記憶してもよい。この場合、ジェスチャー判別部10は、上記指のジェスチャーと、上記指および隣接する文字領域の相対的な位置とから、ジェスチャーを判定する。上記の構成によれば、指のみによる判定、または、文字領域のみによる判定よりも、判定精度を高めることができる。
本実施形態において、予め文字認識装置1に登録されているジェスチャーは、ジェスチャーA(第2ジェスチャー)、ジェスチャーB(第2ジェスチャー)、ジェスチャーC(第3ジェスチャー)、ジェスチャーD(第1ジェスチャー)の4種類である。ジェスチャーA〜Dの外観などの詳細については後述する。なお、本実施形態では登録されているジェスチャーは4つとして説明するが、ジェスチャーの数は4つに限られるものではなく、いくつであってもよい。
なお、ジェスチャー判別部10がジェスチャーの種類を判別する方法は、上述のようなパターン認識の方法に限定されない。
また、ジェスチャー判別部10がジェスチャーの種類を判別するための画像は、カメラ4によって撮像された画像に限られず、ウェブページから取得した画像などであってもよい。
また、ジェスチャー判別部10が備える機能をカメラ4が備えていてもよい。この場合、カメラ4は、上記指がしばらく静止している状態をトリガとして、指および文字を含む対象を被写体として撮像する機能をさらに備えていてもよい。
画像結合部11は、ジェスチャー判別部10によって予め文字認識装置1に登録されたジェスチャーであると決定されたジェスチャーが、文字領域を囲むジェスチャーであった場合、カメラ4によって撮像された複数の画像または映像をカメラ4から取得し、該画像または映像を結合する。ここで、文字領域を囲む動作を開始する上記ジェスチャーは、上記ジェスチャーDに対応する。画像結合部11が実行する具体的な処理の内容については、後述する。
文字切出部12は、ジェスチャー判別部10によって、上記指領域が示すジェスチャーが予め文字認識装置1に登録されたジェスチャーであると決定された場合、上記ジェスチャーの種類に応じて、異なる方法で、上記画像から一部の領域を切り出す。文字切出部12が実行する上記切り出し処理の詳細については、後述する。
文字認識処理部13は、文字切出部12が取得した文字領域を含む画像に対し、文字認識処理を実行する。そして、文字認識処理部13は、文字認識された文字または一連の文字群を文字コードとして取得する。上記一連の文字群は上記文字領域が含む英単語などである。文字認識処理部13は、文字認識の方法として、光学式文字認識(以下、OCR(Optical Character Recognition)と称する)などの技術を用いる。
キーワード検索部14は、ジェスチャー判別部10によって予め文字認識装置1に登録されたジェスチャーであると決定されたジェスチャーが、指で上部から文字を指図するジェスチャーであった場合、上記文字コードに対応する文字または一連の文字群をキーとして、通信部5を介し、インターネットから情報を検索する(以下、キーワード検索と称する)。ここで、指で上部から文字を指図する上記ジェスチャーは、上記ジェスチャーAに対応する。そして、キーワード検索部14は、得られたキーワード検索の結果を表示部6に表示する。
辞書検索部15は、ジェスチャー判別部10によって予め文字認識装置1に登録されたジェスチャーであると決定されたジェスチャーが、指で下部から文字を指図するジェスチャーであった場合、記憶部3に記憶されており、用語と用語の説明とを対応付けて作成された辞書データベースから、上記文字コードに対応する文字または一連の文字群をキーとして用語を検索する(以下、辞書検索と称する)。ここで、指で下部から文字を指図する上記ジェスチャーは、上記ジェスチャーBに対応する。そして、辞書検索部15は、得られた辞書検索の結果を表示部6に表示する。なお、記憶部3に格納されている辞書データベースの種類は、特に限定されず、国語辞典、英和辞典、和英辞典、百科事典、または、技術用語辞典などの用語を含むデータベースであってもよい。
記憶処理部16は、ジェスチャー判別部10によって予め文字認識装置1に登録されたジェスチャーであると決定されたジェスチャーが、2本の指で文字を挟むジェスチャーであった場合、または、上記ジェスチャーDであった場合、上記文字コードに対応する文字または一連の文字群をメモとして記憶部3に記憶する(以下、メモ記録と称する)。ここで、2本の指で文字を挟む上記ジェスチャーは、上記ジェスチャーCに対応する。なお、記憶処理部16は、操作部7にて受け付けるユーザの操作に基づき、ユーザが指定する任意のタイミングで、上記メモの内容を記憶部3から読み出し、表示部6に表示してもよい。
(文字切出部12)
文字切出部12が実行する上記切り出し処理の詳細について説明する。
図2の(a)〜(c)は、それぞれ、文字認識装置1に登録されているジェスチャーの一例を示す外観図である。図4の(a)〜(c)に示す各ジェスチャーは、文字認識装置1の表示部6に表示されている。
図2の(a)は、指で上部から文字を指図するジェスチャーを示したものであり、上記ジェスチャーAに対応するものである。この場合、文字切出部12は、上記指の先端の直下にある文字または一連の文字群を切り出すことにより生成した画像を、文字認識の対象となる文字領域として、文字認識処理部13に出力する。
図2の(b)は、指で下部から文字を指図するジェスチャーを示したものであり、上記ジェスチャーBに対応するものである。この場合、文字切出部12は、上記指の先端の直上にある文字または一連の文字群を切り出すことにより生成した画像を、文字認識の対象となる文字領域として、文字認識処理部13に出力する。
図2の(c)は、2本の指で文字を挟むジェスチャーを示したものであり、上記ジェスチャーCに対応するものである。この場合、文字切出部12は、2本の指の先端に挟まれた部分にある文字または一連の文字群を切り出すことにより生成した画像を、文字認識の対象となる文字領域として、文字認識処理部13に出力する。
(画像結合部11)
画像結合部11が実行する具体的な処理の内容について説明する。
図3は、文字認識装置1に登録されているジェスチャーの一例を示す外観図であり、ユーザが、指、または、指およびカメラ4を移動させることにより、文字領域を囲むジェスチャーを示したものである。
まず、領域指定により文字領域の取り込みを行うとき、ユーザは、カメラ4に対して領域を指で囲む動作を開始するジェスチャーを提示する。このとき、ジェスチャー判別部10は、上記ジェスチャーが、予め文字認識装置1に登録されたジェスチャーDの一部であると判定する。
次に、ユーザは、図3に示すように、新聞紙50の上でカメラ4を移動させながら指を移動させ、文字領域を囲むことにより、文字認識の対象となる文字領域を指定する。カメラ4は、上記移動の際、上記文字領域の一部を定期的に画像として撮像、または、映像として撮像することにより、上記文字領域の一部をそれぞれ含む複数の画像または映像を取得する。そして、ユーザは、領域を指で囲む動作を終了することを示すジェスチャーをカメラ4に対して提示する。このとき、カメラ4は、上記画像または映像の取得を終了する。
一方、画像結合部11は、上記複数の画像または映像を結合する。具体的には、画像結合部11は、上記複数の画像、または、上記映像をサンプリングすることにより取得した複数の画像の間で、重複した領域をマッチングさせ、マッチングした領域を基に、該複数の画像を繋ぎ合わせる。上記領域を繋ぎ合わせる際に、画像結合部11は、上記ジェスチャーDを含む画像を始点に、領域指定が終了したことを示す上記ジェスチャーを含む画像を終点にして、それぞれの画像を繋ぎ合わせる。そして、画像結合部11は、上記複数の画像または映像を結合することによって生成した1枚の画像を文字切出部12に出力する。
(変形例)
上記の構成では、文字認識装置1は、カメラ4によって指および文字を含む対象が被写体として撮像されたとき、カメラ4から該物体が被写体として写っている画像を取得し、該画像からジェスチャーを判別する。したがって、制御部2が備える各ブロックが指のジェスチャーを判別するためには、予め、カメラ4にて画像または映像が撮像されている必要があった。
そこで、カメラ4が写している映像をリアルタイムに制御部2に出力し、制御部2は、入力された映像を連続的に判別するように構成してもよい。
上記の構成によれば、例えば、カメラ4に写しながら文字に指をかざすと同時に、リアルタイムで、辞書検索部15にて翻訳された単語を表示させることができる。
また、上記の構成によれば、細かい指の動きのパターン(指の上下往復、左右往復など)をジェスチャーの種類として判断できるようになる。例えば、上記の領域を指で囲む動作を開始するジェスチャー、上記の領域を指で囲む動作を終了することを示すジェスチャーは、特別な指の形状だけでなく、細かい指の動き(紙面等を人差指で叩く動作など)で定義することができ、ジェスチャー判別部10によって判定することができる。また、指の形状は変わらないが、その周りの文字領域の位置が相対的に変化することをもって、囲む動作中、という判定をジェスチャー判別部10が行うことができる。
さらに、上記の構成によれば、カメラ4がリアルタイムで指を認識することにより、操作部7にて受け付けるユーザの操作の一部を代替することができる。
(ジェスチャーと処理との対応関係)
図4は、文字認識装置1に登録されているジェスチャーの種類と、該ジェスチャーに応じて、文字認識装置1が実行する処理との対応関係を示すテーブルである。
図4に示すように、上部から文字を指図するジェスチャー(ジェスチャーAに対応)がカメラ4によって撮像された場合、キーワード検索部14は、キーワード検索を実行する。また、下部から文字を指図するジェスチャー(ジェスチャーBに対応)がカメラ4によって撮像された場合、辞書検索部15は、辞書検索を実行する。また、2本の指で文字を挟むジェスチャー(ジェスチャーCに対応)、または、領域を指で囲むジェスチャー(ジェスチャーDに対応)がカメラ4によって撮像された場合、記憶処理部16は、文字または一連の文字群をメモに記録する。
なお、文字認識装置1は、文字をメモとして記録する場合、例えば、新聞の切り抜きのように、画像レイアウトを保持してもよいし、文字認識後のテキスト文字のみを記録してもよい。また、文字認識装置1は、2本の指で文字を挟むジェスチャー、または、領域を指で囲むジェスチャーを認識した後に、特別な指のパターンを判別し、その判別結果に基づいて、上記のような異なる記録方法を選択することができるように構成されていてもよい。
このように、文字認識装置1は、ジェスチャー判別手段によって判別された上記ジェスチャーの種類に応じて、文字認識処理部13によって文字認識された文字を利用した、異なる処理を実行するようになっている。
なお、本実施形態において、文字認識装置1に予め登録されているジェスチャーは、上記ジェスチャーA〜Dであるが、文字認識装置1に登録可能なジェスチャーの種類は、上記ジェスチャーA〜Dに限定されない。
また、文字認識装置1が実行する処理は、上述の各処理に限定されない。
また、上記ジェスチャーの種類と、該ジェスチャーに応じて文字認識装置1が実行する処理との対応関係は、一例を示したものであり、本発明の適用範囲はこれらの対応関係に限定されない。
(処理の流れ)
図5は、文字認識装置1における処理の流れの一例を示したフローチャートである。
まず、カメラ4によって指および文字を含む対象が被写体として撮像される(S1)。このとき、ジェスチャー判別部10は上記指および文字を含む対象が被写体として写っている画像を取得する。
次に、ジェスチャー判別部10は、上記画像から指の輪郭に沿った領域である指領域を切り出す(S2)。
そして、ジェスチャー判別部10は、上記指領域が示すジェスチャーが、予め文字認識装置1に登録されたジェスチャーであるか否かを判定する(S3)。すなわち、上記指領域が示すジェスチャーが、ジェスチャーA、ジェスチャーB、ジェスチャーC、ジェスチャーDの4種類のうち、何れか1つに該当するか、もしくは、上記4種類のジェスチャーの何れにも該当しないかを判定する。
上記ジェスチャーが、予め文字認識装置1に登録されたジェスチャーであった場合(S3でYes)、すなわち、上記指領域が示すジェスチャーが、上記4種類のジェスチャーの何れか1つに該当する場合、処理はステップS4に進む。
一方、上記ジェスチャーが、予め文字認識装置1に登録されていなかった場合(S3でNo)、すなわち、上記指領域が示すジェスチャーが、上記4種類のジェスチャーの何れにも該当しない場合、処理はステップS1に戻る。
そして、画像結合部11は、ジェスチャー判別部10によって判別されたジェスチャーが、文字領域を囲むジェスチャー(すなわち、ジェスチャーD)であるか否かを判定する(S4)。
上記ジェスチャーが、文字領域を囲むジェスチャーであった場合(S4でYes)、処理はステップS5に進む。
一方、上記ジェスチャーが、文字領域を囲むジェスチャーでなかった場合(S4でNo)、処理はステップS6に進む。
そして、画像結合部11は、撮像された複数の画像または映像をカメラ4から取得し、該画像または映像を結合する(S5)。
そして、文字切出部12は、ジェスチャー判別部10によって判別されたジェスチャーの種類に応じて、異なる方法で、上記画像から一部の領域を切り出す(S6)。例えば、上記指領域が示すジェスチャーがジェスチャーAであった場合、文字切出部12は、画像に含まれる指の先端の直下にある文字または一連の文字群を文字領域として切り出す。
そして、文字認識処理部13は、文字切出部12によって切り出された文字領域に対し、文字認識を実行する(S7)。そして、文字認識処理部13は、文字認識された文字または一連の文字群を文字コードとして取得する。
続けて、ジェスチャー判別部10は、判別したジェスチャーの種類に応じて、上記文字コードを利用する処理を選択する(S8)。
具体的には、ジェスチャー判別部10によって判別されたジェスチャーが、指で上部から文字を指図するものであった場合(S8でジェスチャーA)、ジェスチャー判別部10は、キーワード検索部14に対し、キーワード検索の実行を指示する。
そして、キーワード検索部14は、ジェスチャー判別部10からの上記指示をトリガとして、上記文字コードに対応する文字または一連の文字群を用いて、キーワード検索を実行する(S9)。
また、ジェスチャー判別部10によって判別されたジェスチャーが、指で下部から文字を指図するものであった場合(S8でジェスチャーB)、ジェスチャー判別部10は、辞書検索部15に対し、辞書検索の実行を指示する。
そして、辞書検索部15は、ジェスチャー判別部10からの上記指示をトリガとして、上記文字コードに対応する文字または一連の文字群および記憶部3に記憶されている辞書データベースを用いて、単語検索を実行する(S10)。
また、ジェスチャー判別部10によって判別されたジェスチャーが、2本の指で文字を挟むものであった場合(S8でジェスチャーC)、または、文字領域を指で囲むものであった場合(S8でジェスチャーD)、ジェスチャー判別部10は、記憶処理部16に対し、メモ記録の実行を指示する。
そして、記憶処理部16は、ジェスチャー判別部10からの上記指示をトリガとして、上記文字コードに対応する文字または一連の文字群をメモとして記憶部3に格納する(S11)。
(まとめ)
本発明の一態様に係る文字認識装置は、画像に含まれる文字を認識する文字認識装置であって、指および文字を含む画像を取得する画像取得手段(カメラ4)と、上記画像取得手段が取得した画像から、指部分と、当該指部分と隣接する文字部分との位置情報からジェスチャーを認識するジェスチャー認識手段(ジェスチャー判別部10)と、上記ジェスチャー認識手段が認識した指のジェスチャーが、予め記憶している複数のジェスチャーのいずれと一致しているかを判定する指ジェスチャー判定手段(ジェスチャー判別部10)と、上記ジェスチャー認識手段が認識した指によって示される位置の文字または一連の文字群を認識する文字認識手段(文字認識処理部13)と、上記指ジェスチャー判定手段が一致していると判定したジェスチャーと対応付けられた処理を、上記文字認識手段によって認識された文字または一連の文字群に対し実行する処理実行手段(キーワード検索部14、辞書検索部15、記憶処理部16)と、を備えている。
また、本発明の一態様に係る文字認識装置の制御方法は、画像に含まれる文字を認識する文字認識装置の制御方法であって、指および文字を含む画像を取得する画像取得ステップ(S1)と、
上記画像取得ステップが取得した画像から、指部分と、当該指部分と隣接する文字部分との位置情報からジェスチャーを認識するジェスチャー認識ステップ(S2、S3)と、上記ジェスチャー認識ステップが認識した指のジェスチャーが、予め記憶している複数のジェスチャーのいずれと一致しているかを判定する指ジェスチャー判定ステップ(S3、S4)と、上記ジェスチャー認識ステップが認識した指によって示される位置の文字または一連の文字群を認識する文字認識ステップ(S7)と、上記指ジェスチャー判定ステップが一致していると判定したジェスチャーと対応付けられた処理を、上記文字認識ステップによって認識された文字または一連の文字群に対し実行する処理実行ステップ(S9、S10、S11)と、を含む。
なお、上記ジェスチャー認識手段が認識する指部分、上記ジェスチャー認識ステップで認識する指部分は、指の形状であってもよいし、指の動きであってもよい。
上記の構成によれば、上記文字認識装置は、指および文字を含む画像において、指によって示される位置の文字(または一連の文字群)を認識し、指のジェスチャーと対応付けられた処理を、認識した文字(または一連の文字群)に対して実行する。ここで、一連の文字群とは、例えば英語の文章における英単語等である。
これにより、上記文字認識装置は、指のジェスチャーのみによって所望の文字を認識し、認識した文字に対し所望の処理を実行することができる。
よって、ユーザは、ジェスチャーで所望の文字領域を示すという手軽かつ直感的な操作のみで、文字認識および認識した文字に対する所望の処理を連続的に実行させることができるという効果を奏する。
さらに、上記画像取得手段は互いの画像の一部に共通部分がある複数の画像を取得し、上記文字認識装置は、上記複数の画像のそれぞれに含まれる指のジェスチャーが、上記複数のジェスチャーのうちの1つである第1ジェスチャー(ジェスチャーD)と一致していると上記指ジェスチャー判定手段が判定した場合、上記共通部分を重ね合わせることにより上記複数の画像を結合する結合手段(画像結合部11)を備えていてもよい。
上記の構成によれば、上記文字認識装置は、互いの画像の一部に共通部分がある複数の画像を取得し、上記複数の画像のそれぞれに含まれる指のジェスチャーが、上記複数のジェスチャーのうちの1つであった場合、上記共通部分を重ね合わせることにより上記複数の画像を結合する。
よって、ユーザは、一度の撮像では撮像範囲に収まらないような撮像対象についても、容易に文字認識の対象範囲を設定することができるという効果を奏する。
さらに、上記文字認識装置は、通信ネットワークを介して外部の機器と通信する通信手段(通信部5)を備え、上記処理実行手段(キーワード検索部14)は、上記ジェスチャー認識手段が認識した指のジェスチャーが、上記複数のジェスチャーのうちの1つである第2ジェスチャー(ジェスチャーA)と一致していると上記指ジェスチャー判定手段が判定した場合、上記文字認識手段によって認識された文字または一連の文字群をキーとして、上記通信手段を介して上記通信ネットワークから情報を検索してもよい。
上記の構成によれば、上記文字認識装置は、認識した指のジェスチャーが、上記複数のジェスチャーのうちの1つであった場合、認識された文字(または一連の文字群)をキーとして、通信ネットワークから情報を検索する。
よって、ユーザは、ジェスチャーで所望の文字を示すという手軽かつ直感的な操作のみで、文字認識および認識した文字をキーとして通信ネットワークから情報を検索することができるという効果を奏する。
さらに、上記文字認識装置は、用語と用語の説明とを対応付けて作成された辞書データベースを備え、上記処理実行手段(辞書検索部15)は、上記ジェスチャー認識手段が認識した指のジェスチャーが、上記複数のジェスチャーのうちの1つである第3ジェスチャー(ジェスチャーB)と一致していると上記指ジェスチャー判定手段が判定した場合、上記文字認識手段によって認識された文字または一連の文字群をキーとして、上記辞書データベースの用語を検索してもよい。
上記の構成によれば、上記文字認識装置は、認識した指のジェスチャーが、上記複数のジェスチャーのうちの1つであった場合、認識された文字(または一連の文字群)をキーとして、用語と用語の説明とを対応付けて作成された辞書データベースから用語を検索する。
よって、ユーザは、ジェスチャーで所望の文字を示すという手軽かつ直感的な操作のみで、文字認識および認識した文字をキーとして辞書検索することができるという効果を奏する。
さらに、上記文字認識装置は、文字を記憶する記憶部を備え、上記処理実行手段(記憶処理部16)は、上記ジェスチャー認識手段が認識した指のジェスチャーが、上記複数のジェスチャーのうちの1つである第4ジェスチャー(ジェスチャーC)と一致していると上記指ジェスチャー判定手段が判定した場合、上記文字認識手段によって認識された文字または一連の文字群を上記記憶部に記憶してもよい。
上記の構成によれば、上記文字認識装置は、認識した指のジェスチャーが、上記複数のジェスチャーのうちの1つであった場合、認識された文字(または一連の文字群)記憶する。
よって、ユーザは、ジェスチャーで所望の文字を示すという手軽かつ直感的な操作のみで、文字認識および認識した文字を記憶することができるという効果を奏する。
なお、上記文字認識装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記文字認識装置をコンピュータにて実現させる上記文字認識装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
(ソフトウェアによる実現例)
最後に、文字認識装置1の各ブロック、特に制御部2は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェア的に実現してもよい。
後者の場合、文字認識装置1は、各機能を実現するプログラムの命令を実行するCPU、上記プログラムを格納したROM(Read Only Memory)、上記プログラムを展開するRAM(Random Access Memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである文字認識装置1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記文字認識装置1に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、一時的でない有形の媒体(non-transitory tangible medium)、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM/EEPROM(登録商標)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
また、文字認識装置1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(Asymmetric Digital Subscriber Line)回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(High Data Rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は、画像に含まれる文字を文字認識する文字認識機能を搭載した情報処理装置に利用することができる。特に、パーソナルコンピュータ、携帯電話、スマートフォン、タブレットPC、ゲーム機器などの様々な情報処理装置に幅広く適用することができる。
1 文字認識装置
3 記憶部
4 カメラ(画像取得手段)
5 通信部(通信手段)
10 ジェスチャー判別部(ジェスチャー認識手段、指ジェスチャー判定手段)
11 画像結合部(結合手段)
12 文字切出部(文字認識手段)
13 文字認識処理部(文字認識手段)
14 キーワード検索部(処理実行手段)
15 辞書検索部(処理実行手段)
16 記憶処理部(処理実行手段)

Claims (8)

  1. 画像に含まれる文字を認識する文字認識装置であって、
    指および文字を含む画像を取得する画像取得手段と、
    上記画像取得手段が取得した画像から、指部分と、当該指部分と隣接する文字部分との位置情報からジェスチャーを認識するジェスチャー認識手段と、
    上記ジェスチャー認識手段が認識した指のジェスチャーが、予め記憶している複数のジェスチャーのいずれと一致しているかを判定する指ジェスチャー判定手段と、
    上記ジェスチャー認識手段が認識した指によって示される位置の文字または一連の文字群を認識する文字認識手段と、
    上記指ジェスチャー判定手段が一致していると判定したジェスチャーと対応付けられた処理を、上記文字認識手段によって認識された文字または一連の文字群に対し実行する処理実行手段と、を備えていることを特徴とする文字認識装置。
  2. 上記画像取得手段は互いの画像の一部に共通部分がある複数の画像を取得し、
    上記複数の画像のそれぞれに含まれる指のジェスチャーが、上記複数のジェスチャーのうちの1つである第1ジェスチャーと一致していると上記指ジェスチャー判定手段が判定した場合、上記共通部分を重ね合わせることにより上記複数の画像を結合する結合手段をさらに備えていることを特徴とする請求項1に記載の文字認識装置。
  3. 通信ネットワークを介して外部の機器と通信する通信手段をさらに備え、
    上記処理実行手段は、上記ジェスチャー認識手段が認識した指のジェスチャーが、上記複数のジェスチャーのうちの1つである第2ジェスチャーと一致していると上記指ジェスチャー判定手段が判定した場合、上記文字認識手段によって認識された文字または一連の文字群をキーとして、上記通信手段を介して上記通信ネットワークから情報を検索することを特徴とする請求項1または2に記載の文字認識装置。
  4. 用語と用語の説明とを対応付けて作成された辞書データベースをさらに備え、
    上記処理実行手段は、上記ジェスチャー認識手段が認識した指のジェスチャーが、上記複数のジェスチャーのうちの1つである第3ジェスチャーと一致していると上記指ジェスチャー判定手段が判定した場合、上記文字認識手段によって認識された文字または一連の文字群をキーとして、上記辞書データベースの用語を検索することを特徴とする請求項1から3のいずれか1項に記載の文字認識装置。
  5. 文字を記憶する記憶部をさらに備え、
    上記処理実行手段は、上記ジェスチャー認識手段が認識した指のジェスチャーが、上記複数のジェスチャーのうちの1つである第4ジェスチャーと一致していると上記指ジェスチャー判定手段が判定した場合、上記文字認識手段によって認識された文字または一連の文字群を上記記憶部に記憶することを特徴とする請求項1から4のいずれか1項に記載の文字認識装置。
  6. 画像に含まれる文字を認識する文字認識装置の制御方法であって、
    指および文字を含む画像を取得する画像取得ステップと、
    上記画像取得ステップが取得した画像から、指部分と、当該指部分と隣接する文字部分との位置情報からジェスチャーを認識するジェスチャー認識ステップと、
    上記ジェスチャー認識ステップが認識した指のジェスチャーが、予め記憶している複数のジェスチャーのいずれと一致しているかを判定する指ジェスチャー判定ステップと、
    上記ジェスチャー認識ステップが認識した指によって示される位置の文字または一連の文字群を認識する文字認識ステップと、
    上記指ジェスチャー判定ステップが一致していると判定したジェスチャーと対応付けられた処理を、上記文字認識ステップによって認識された文字または一連の文字群に対し実行する処理実行ステップと、を含むことを特徴とする文字認識装置の制御方法。
  7. 請求項1から5のいずれか1項に記載の文字認識装置が備えるコンピュータを動作させる制御プログラムであって、上記コンピュータを上記の各手段として機能させるための制御プログラム。
  8. 請求項7に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2012207588A 2012-09-20 2012-09-20 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体 Expired - Fee Related JP5989479B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012207588A JP5989479B2 (ja) 2012-09-20 2012-09-20 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012207588A JP5989479B2 (ja) 2012-09-20 2012-09-20 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (2)

Publication Number Publication Date
JP2014063318A true JP2014063318A (ja) 2014-04-10
JP5989479B2 JP5989479B2 (ja) 2016-09-07

Family

ID=50618504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012207588A Expired - Fee Related JP5989479B2 (ja) 2012-09-20 2012-09-20 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (1)

Country Link
JP (1) JP5989479B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016099743A (ja) * 2014-11-19 2016-05-30 日本電信電話株式会社 対象領域検出装置、方法、及びプログラム
US10162420B2 (en) 2014-11-17 2018-12-25 Kabushiki Kaisha Toshiba Recognition device, method, and storage medium
US10296096B2 (en) 2015-07-15 2019-05-21 Kabushiki Kaisha Toshiba Operation recognition device and operation recognition method
US10796187B1 (en) 2019-06-10 2020-10-06 NextVPU (Shanghai) Co., Ltd. Detection of texts
WO2020248346A1 (zh) * 2019-06-10 2020-12-17 上海肇观电子科技有限公司 文字的检测
CN112784663A (zh) * 2020-05-08 2021-05-11 珠海金山办公软件有限公司 一种文字识别方法及装置
JP2022167734A (ja) * 2021-04-23 2022-11-04 ネイバー コーポレーション ポインティングに基づく情報提供方法およびシステム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784714A (ja) * 1993-06-29 1995-03-31 Casio Comput Co Ltd コマンド処理装置
JP2003108923A (ja) * 2001-10-01 2003-04-11 National Institute Of Advanced Industrial & Technology 文字情報入力装置および文字情報入力方法並びに記録媒体
WO2004015619A1 (ja) * 2002-08-07 2004-02-19 Matsushita Electric Industrial Co., Ltd. 文字認識処理装置及び文字認識処理方法、並びに携帯端末装置
JP2004334861A (ja) * 2003-04-18 2004-11-25 Mitsuo Nakayama 光学端末装置、画像処理方法およびシステム
JP2006279576A (ja) * 2005-03-29 2006-10-12 Toshiba Corp 画像処理装置
JP2008027220A (ja) * 2006-07-21 2008-02-07 Matsushita Electric Ind Co Ltd 情報入力装置および情報入力方法
JP2008217660A (ja) * 2007-03-07 2008-09-18 Matsushita Electric Ind Co Ltd 検索方法、および装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0784714A (ja) * 1993-06-29 1995-03-31 Casio Comput Co Ltd コマンド処理装置
JP2003108923A (ja) * 2001-10-01 2003-04-11 National Institute Of Advanced Industrial & Technology 文字情報入力装置および文字情報入力方法並びに記録媒体
WO2004015619A1 (ja) * 2002-08-07 2004-02-19 Matsushita Electric Industrial Co., Ltd. 文字認識処理装置及び文字認識処理方法、並びに携帯端末装置
JP2004334861A (ja) * 2003-04-18 2004-11-25 Mitsuo Nakayama 光学端末装置、画像処理方法およびシステム
JP2006279576A (ja) * 2005-03-29 2006-10-12 Toshiba Corp 画像処理装置
JP2008027220A (ja) * 2006-07-21 2008-02-07 Matsushita Electric Ind Co Ltd 情報入力装置および情報入力方法
JP2008217660A (ja) * 2007-03-07 2008-09-18 Matsushita Electric Ind Co Ltd 検索方法、および装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10162420B2 (en) 2014-11-17 2018-12-25 Kabushiki Kaisha Toshiba Recognition device, method, and storage medium
JP2016099743A (ja) * 2014-11-19 2016-05-30 日本電信電話株式会社 対象領域検出装置、方法、及びプログラム
US10296096B2 (en) 2015-07-15 2019-05-21 Kabushiki Kaisha Toshiba Operation recognition device and operation recognition method
US10796187B1 (en) 2019-06-10 2020-10-06 NextVPU (Shanghai) Co., Ltd. Detection of texts
WO2020248346A1 (zh) * 2019-06-10 2020-12-17 上海肇观电子科技有限公司 文字的检测
CN112784663A (zh) * 2020-05-08 2021-05-11 珠海金山办公软件有限公司 一种文字识别方法及装置
JP2022167734A (ja) * 2021-04-23 2022-11-04 ネイバー コーポレーション ポインティングに基づく情報提供方法およびシステム
JP7355785B2 (ja) 2021-04-23 2023-10-03 ネイバー コーポレーション ポインティングに基づく情報提供方法およびシステム

Also Published As

Publication number Publication date
JP5989479B2 (ja) 2016-09-07

Similar Documents

Publication Publication Date Title
JP5989479B2 (ja) 文字認識装置、文字認識装置の制御方法、制御プログラム、および制御プログラムを記録したコンピュータ読み取り可能な記録媒体
US20210200935A1 (en) Method of processing analog data and electronic device thereof
US10909308B2 (en) Information processing apparatus, information processing method, and program
US20130120548A1 (en) Electronic device and text reading guide method thereof
EP2703980B1 (en) Text recognition apparatus and method for a terminal
EP2306270B1 (en) Character input method and system
US20130120430A1 (en) Electronic device and text reading guide method thereof
US9172879B2 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
US20150062026A1 (en) Method and apparatus for selecting text information
KR20140030361A (ko) 휴대단말기의 문자 인식장치 및 방법
US9207808B2 (en) Image processing apparatus, image processing method and storage medium
JP5294818B2 (ja) 情報処理装置及び情報処理方法
US20110016398A1 (en) Slide Show
US20150146265A1 (en) Method and apparatus for recognizing document
JP2015069365A (ja) 情報処理装置、および制御プログラム
US10152472B2 (en) Apparatus and method for generating summary data of E-book or E-note
JP2018097580A (ja) 情報処理装置およびプログラム
EP2634690A1 (en) Method and apparatus for setting user interface
WO2019155853A1 (ja) 電子アルバム装置とその作動方法および作動プログラム
US9690393B2 (en) Information processing device, program, recording medium, and information processing system
US20140078093A1 (en) Information processing apparatus, information processing method and computer program
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
US10593077B2 (en) Associating digital ink markups with annotated content
JP5991323B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2012108609A (ja) 表示装置、表示方法、コンピュータプログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160810

R150 Certificate of patent or registration of utility model

Ref document number: 5989479

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees