JP4036168B2 - 携帯電話 - Google Patents

携帯電話 Download PDF

Info

Publication number
JP4036168B2
JP4036168B2 JP2003316179A JP2003316179A JP4036168B2 JP 4036168 B2 JP4036168 B2 JP 4036168B2 JP 2003316179 A JP2003316179 A JP 2003316179A JP 2003316179 A JP2003316179 A JP 2003316179A JP 4036168 B2 JP4036168 B2 JP 4036168B2
Authority
JP
Japan
Prior art keywords
unit
dictionary
recognition
mobile phone
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003316179A
Other languages
English (en)
Other versions
JP2005084951A (ja
Inventor
正裕 山崎
英樹 桑本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003316179A priority Critical patent/JP4036168B2/ja
Priority to US10/922,080 priority patent/US20050052558A1/en
Priority to CN2004100771937A priority patent/CN1595944B/zh
Publication of JP2005084951A publication Critical patent/JP2005084951A/ja
Application granted granted Critical
Publication of JP4036168B2 publication Critical patent/JP4036168B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Telephone Function (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Telephone Set Structure (AREA)
  • Character Discrimination (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像部を備えた情報処理装置に関するものである。
特開2002−252691号公報には、OCR(Optical Character Recognition)機能により、撮像した画像情報に含まれる文字を文字情報に変換し、印刷物に掲載された住所や名前、電話番号、URL(Uniform Resource Locator)などを入力できる携帯電話が提案されている。
特開2002−252691
しかしながら、上記特許文献1では、印刷物に掲載された住所等の情報を入力できるOCR機能を搭載した携帯電話が開示されているものの、機能を使用する際の使い勝手の検討が不十分であった。例えば、雑誌に記載されたURLなどを携帯電話に登載されたカメラを使って撮像する際に、実際に紙面上に書かれた文字の位置と携帯電話のディスプレイに表示された文字の位置とがずれてしまうため、ユーザが認識させたい文字をディスプレイの所定の位置に合わせるのが難しいといった問題があった。すなわち、認識対象を特定する操作が煩わしいという問題があった。
そこで、本発明は、使い勝手の向上した携帯電話を提供することを目的とする。
上記課題を解決するために、例えば、特許請求の範囲に記載された如く構成すればよい。
本発明によれば、使い勝手の向上した携帯電話を提供することができる。
以下、本発明の実施の形態を、図面を用いて説明する。なお、以下の図面において、同一の構成部については同符号を用いる。
図1は、本実施形態(第1の実施形態)に係る携帯電話の構成ブロック図である。本実施形態においては、携帯電話に搭載された画像認識機能(OCR機能)を利用して、雑誌等に掲載されたURLを携帯電話に入力する場合について説明する。
なお、以下、携帯電話について説明するが、例えば、携帯電話以外にも、デジタルカメラ、PHS(Personal Handy-phone System)、PDA(Personal Digital Assistant)やPC(Personal Computer)等でもよい。
入力部101は、キーボード等の電話番号その他の情報を入力する入力部であり、携帯電話の電源をON/OFFするとき、被写体を撮像するときなど、ユーザが携帯電話に入力を与える際に使用するものである。
CPU102は、記憶部104に記憶されたプログラムに基づいて動作し、例えば、入力部101からの入力に応じて各部を制御するものである。
撮像部103は、例えば、カメラなどで構成されたものであり、被写体である人の顔や、景色、文字などを撮像し、CPU102で扱える画像情報に変換し、変換された画像情報は必要に応じて表示部107等に出力する。ユーザは、表示部107に出力された画像情報をモニタしながら撮像したい画像を選んで、例えば、シャッターキーとして割り当てられた操作キー(以下、シャッターキー)等を押下することにより撮像の指示を行う。シャッターキーが押下されれば、撮像された画像情報は記憶部104に記憶される。また、記憶部104は、例えば、ROM(Read Only Memory)やRAM(Random Access Memory)等で構成され、携帯電話100で扱うデータやソフトウェアなども記憶する。
画像認識部105は、画像情報に含まれる文字や記号等の識別情報を認識する。ここで、識別情報とは、文字、記号等で表された情報であり、例えば、ホームページのアドレス、メールアドレス、住所、電話番号、地図情報あるいは英語の単語等のように文字や記号等で表現されたものであり、事物を識別できる情報であれば上記例以外のものでも構わない。
また、ここで、認識とは、撮像部103により撮像された画像情報に含まれる識別情報を抽出し、その識別情報を所定の領域ごとに分割し、分割された領域を所定のパラメータ値に変換し、そのパラメータ値に基づいて分割された領域がどのような情報であるかを決定することをいう。
より具体的にいえば、例えば、画像情報内の「abc」という文字を「認識」する場合を考えると、まず、「abc」が画像情報内のどの位置の情報であるかを特定し(文字列抽出)、次に、「a」「b」「c」に分割し、「a」を所定のパラメータ値(例えば、その文字を縦、横、斜めからの見た線分の構成を、文字の白色部分を「0」、黒色部分を「1」としてパラメータ化された値)に変換する。そして、変換されたパラメータ値に最も類似したパラメータ値と対応付けされた文字を文字パターンデータ表より選び出す。文字パターンデータ表とは、パラメータ値とそのパラメータ値に対応したアルファベット等の文字とが記述されている表であり、予め記憶されているものである。なお、画像認識部105はOCR機能を備えており、OCR機能を実現する具体的な構成は、例えば、特許文献1に記されている。
また、認識する前に認識対象となる識別情報を特定するのであるが、特定する手段として、例えば、表示部107の中心に表示された「+」マークを識別情報の上に持っていけば、「+」マークの位置から近傍のスペース情報からスペース情報までの部分を一区切りの単語として自動的に特定するようにしてもよい。
また、ユーザが入力部101を利用して認識部分をカーソル等で指定できるようにしても構わない。更に、認識対象を決定する方法が複数ある場合に、複数個同時に選択できるようにしても構わないし、動画の場合は、動画を静止画でコマ送りできるように設定しておき、そのコマ送り画面で認識対象部を選択できるようにしても構わない。
また更に、認識対象を決定するためにひとまず対象を決定する「仮決定」と仮決定された対象が間違っていない場合に「本決定」を行うように構成すれば、仮決定の段階で認識対象の特定に誤りがある場合に容易に対象文字等の変更を行うことができるために使い勝手がよい。
表示部107は、例えば、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)等で構成され、撮像部103により撮像された画像や画像認識部105により認識された識別情報を表示する。その他、表示部107に、例えば、電源状態、電波強度、電池残量、サーバ接続状態もしくは未読メール等の動作状態、入力した電話番号、メール宛先、メール送信文書等や、動画および静止画、着信時の発呼者の電話番号、着信メール文書、接続されたインターネット画面等の受信データの表示、また、携帯電話の機能を利用するために必要な画面を表示する。
通信部106は、他の情報処理装置とデータのやり取りを行う。また、携帯電話100がインターネットや他の情報処理装置などにアクセスするための通信処理等も行う。また、通信部106は、図1に示すように1つのみを使用する場合に限らず、例えば、CDMA、EV−DO、無線LAN等の複数の通信方式を利用可能にするために複数備えても良い。
また、CPU102は、モード判定フラグを利用して、撮像モードが通常の静止画又は動画を撮像する通常撮像モードであるか、画像認識部105を利用して識別情報を認識するモードである認識モードであるかを判定する。ここで、モード判定フラグは、例えば、記憶部104に記憶されたソフトウェアのプログラム中に存在する変数で、認識モードの場合と通常撮像モードとでは異なる値になるようにし、CPU102はこの変数に基づいて認識モードと通常撮像モードとを、例えば、入力部101による操作により切り換える。以下、実施形態では、「認識モード」と「通常撮像モード」との2種類を有する場合を考えるが、これに限定されるものではなく、それ以外にモードがあっても構わない。
図2は、携帯電話100の外観図である。図2(1)は、携帯電話100の前面図、図2(2)は、携帯電話100の側面図、図2(3)は、携帯電話100の背面図である。携帯電話100は表示部107及び撮像部103を有する筐体110と、入力部101を有する筐体120とがヒンジ部130を介して接続され、折り畳み可能となっている。
撮像部103は、筐体120のうち表示部107が配置されている面(以下、「前面」)と対向する裏側の面(以下、「背面」)であって、当該面と表示部107の中心付近から表示部の法線方向に引いた直線とが交わる点の近くに配置されている。ここで、表示部107の中心とは、表示部107の重心であるとする。ここでいう重心とは、その物体の質量や密度は考慮されずに決定される幾何学的な重心である。
例えば、表示部107が長方形であると想定すると、その質量分布の偏り等に関わらず対角線の交点が重心となり、すなわち、表示部107の「中心」となる。
なお、厳密に重心である必要はない。実際に肉眼で紙面等を見る場合と撮像部103により取得された紙面等の画像情報を見る場合とでその位置のギャップによる違和感が感じられないならば、例えば、数mm程度の誤差があっても構わない。
このように撮像部103が、表示部107の中心から表示部と対向する背面に対して引かれた法線が当該背面に交わる点(以下、背面中心対応点と呼ぶ)の付近に配置されることで、紙面上の文字と、携帯電話の表示部に表示された文字の位置とがユーザから見るとほぼ同じ位置になる。従って、ユーザが文字認識する際に認識させたい文字の選択が違和感なく容易に行えるため、使い勝手がよい。
なお、配置される撮像部103は上記背面から突出しないように構成するほうが好ましい。これは、ユーザは通常携帯電話が折り畳まれた状態で持ち歩いており、例えば、カバンや机等と衝突して破損する危険があるためである。
なお、本実施形態では、メインの表示部107(図2(1)参照)だけを備えた例を示したが、筐体110の背面に種々の表示を行うためのサブ表示部を備えた構成にしてもよい。携帯電話を折畳んだ状態でメールの受信や着信、時計などを確認することができるため、非常に便利である。
この場合を、図3(1)〜(3)に例示する。図3(1)は、サブ表示部301が撮像部103の図面において上側に、すなわち、撮像部103から見てヒンジ部130とは反対側に配置されたことを示す図である。もちろん、撮像部103の図面において下側に、すなわち、ヒンジ部130と撮像部103との間のスペースにサブ表示部301を設けるように構成しても良い。
図3(2)は、撮像部103の上側にサブ表示部301が配置され、下側にサブ表示部302が配置されたことを示す図である。この配置は、上述したように背面中心対応点付近に撮像部103が配置されることによってサブ表示部301の大きさが限定されてしまうといった課題を考慮してなされたものである。
このように、背面に設けられるサブ表示部が複数あることにより、携帯電話が折りたたまれた状態においても参照可能な表示領域を十分に確保できる。更に、それぞれのサブ表示部毎に役割を決めて表示内容を表示させるようにすれば、ユーザの利便性を向上させることができる。
例えば、携帯電話を閉じた状態でMP3やMIDIファイル等の楽曲ファイルを聴く場合について説明すると、あるサブ表示部にはアーチスト名、他のサブ表示部には歌詞等を表示させるようにすれば、ユーザの使い勝手は向上する。この場合、携帯電話100には音楽を聴くためのスピーカ等の音声データ出力部(図示しない)が備わっているというのは言うまでもない。
また更に、図3(2)のように複数のサブ表示部を有する場合に、どのサブ表示部を利用するかをユーザが入力部101等を介して選択できるようにしてもよい。この場合、ユーザにより使用するサブ表示部の選択指示がなされれば、サブ表示部選択信号がCPU102に入力され、当該サブ表示部選択信号を受信したCPU102は、サブ表示部選択信号に基づいて電力を供給するサブ表示部を決定する。
これにより、サブ表示部が複数ある場合でも、ユーザは使用するサブ表示部のみを選択できる。従って、必ずしも複数のサブ表示部全てに電力を供給させるわけではないため、無駄な消費電力の低減に貢献するとともに使い勝手も向上する。
なお、ここでは、撮像部103を挟んで上下方向に分割してサブ表示部301及び302の2つのサブ表示部が配置されているが、これに限定するものではなく、例えば、横方向に2つ分割して配置されていたり、あるいは、図3(3)に示すようにサブ表示部303が撮像部103を取り囲むように配置されていても構わない。また、サブ表示部の数も2つ以上であっても構わない。
図4は、メインの表示部107に画像認識部105により識別情報を認識する場合に利用するための表示画面(以下、OCR専用画面:図面では402)を特別に設けた図例である。
ユーザが入力部101を介して認識モードを選択したとすると、CPU102は、予め記憶部104に記憶されたOCR専用画面402をOCR画面領域データに基づいて表示する。ここで、OCR画面領域データとは、OCR専用画面402を表示部401のどこに表示するかを表すデータである。CPU102は、太枠などを利用してOCR専用画面402が表示部401内のどの辺りに位置するかを明確に分かるように表示する。
また、CPU102は、撮像部103により出力された画像情報をOCR専用画面402に表示する。
この場合は、図2や図3と異なり、撮像部103は、表示部107ではなくOCR専用画面402の中心からOCR専用画面402と対向する背面に対して引かれた法線が当該背面に交わる点の付近に配置される。ここで、例えば、図4に示すように、OCR専用画面402を表示部107の下部に位置するようにすれば、背面に配置される撮像部103の位置も図面において下の方、すわわち、ヒンジ部よりに配置されるため、背面にサブ表示部を設けるためのスペースが図2等に比べて大きくなる。
そのため、前述したように違和感なく容易に文字認識できるだけでなく、サブ表示部の面積を大きくすることができる。そのため、閉じた状態におけるユーザの使い勝手が向上する。
なお、図4では、OCR専用画面402を下部に設けるように構成したが、これに限定するものではなく、例えば、上部に設けるようにしても構わない。
また、表示画面401内でOCR専用画面402以外の領域に他の機能に関する表示画面を出力するようにしても構わない。
例えば、OCR専用画面を利用して名刺等に記載されたメールアドレスを認識した場合に、記憶部104に記憶されたアドレス帳を表示画面401内でOCR専用画面402以外の領域に表示する。この際に、所定の操作を介して当該メールアドレスをアドレス帳に記憶できるようにしても構わない。
これにより、ユーザはわざわざ改めてアドレス帳に登録する指示を行うことなく、速やかにアドレス帳に登録できるため、使い勝手がよい。これ以外にも、例えば、認識対象がURL情報の場合に、表示画面401内でOCR専用画面402以外の領域にそのURLの内容を表示させてもよい。
また、上記実施形態では、折り畳み可能な携帯電話を想定したが、それ以外の形状の携帯電話にも適用できる。例えば、図5のように、メインディスプレイを有する筐体510とメイン操作部を有する筐体520とが連結部530を介し紙面に対して略水平方向に回転可能である携帯電話(以下、水平回転可能携帯電話)の場合について説明する。
図5(1)は、携帯電話が閉じた状態を示し、図5(2)は、携帯電話が開いた状態を示し、図5(3)は、図5(2)の裏側の面を示した図である。
図5(3)に示すように、図5(2)のように携帯電話が開いた状態において表示画面504の背面中心対応点付近に撮像部501が配置される。そして、図5(1)のように携帯電話が閉じた状態において表示画面504の裏側の面であって、表示画面504の中心からその裏側の面に対して引かれた法線が当該裏側の面と交わる点付近に撮像部502が配置される。
これにより、ユーザが水平回転可能携帯電話の閉じた状態又は開いた状態で文字認識する場合に認識させたい文字の選択が違和感なく容易に行えるため、使い勝手がよい。
他の形状の携帯電話においても、撮像部103により出力された画像情報を表示する表示部と撮像部103の対応位置関係を工夫して、その結果、ユーザが文字認識する場合に認識させたい文字の選択が違和感なく容易に行えるのであれば多少の位置誤差があっても構わない。
なお、入力操作キー503を用いることで、図5(1)のように閉じた状態でも操作可能となり便利である。
次に、文字認識する際に撮像部103を表示部の背面中心対応点付近に動かす場合を説明する。図6は、この場合を図示したものである。図6では、撮像部103とサブ表示部601とが一体化されており、撮像部103が動いたとしても両者の相対距離はほぼ同じとなる。本実施形態において、撮像部103を背面に沿って移動させるものとする。
通常は、図6(2)のように、サブ表示部601が背面のほぼ中心付近に位置しており、画像認識部105により識別情報を認識する場合に図6(3)のように撮像部103を背面中心対応点付近に移動させる場合について説明する。
この場合、筐体110の背面には予め撮像部103が移動できるための移動溝602が形成されており、背面中心対応点付近の移動溝602には認識モードを起動するための回路を配置しておく。これにより、撮像部103を背面中心対応点付近に移動させると撮像部103に予め設けられたスイッチ部が上記回路と接続する。そして、スイッチが回路と接続すれば、CPU102は、認識モードが起動するように処理する。すなわち、撮像部103により取得された画像情報をメインの表示部107に表示する。
これにより、通常時にはサブ表示部601を背面の中心付近に配置することができるため、当該サブ表示部601が見やすくなる。更に、撮像部103を移動させることにより自動的に認識モードが起動するため、操作の手間を省くことができる。
なお、上記では、撮像部103とサブ表示部601とが一体化された構造について説明したが、一体化されていなくても構わない。
次に、第2の実施形態について説明する。上述したように、背面中心対応点付近に撮像部103を設けるように構成しようとすると、表示部107と撮像部103によって筐体110の厚みが大きくなってしまい、持ちづらくなってしまったり、デザイン的に美観を損ねる恐れもある。また、前述したように、撮像部103の配置位置によってサブ表示部の大きさも制限されるという問題もある。
そこで、本実施形態においては、撮像部103を背面中心対応点付近からずらした位置、例えば、筐体110の背面でヒンジ部130に近い位置に表示部107と重ならないように配置する場合について説明する。この場合においても、ユーザが文字認識時の認識対象の選択を違和感なく行えるための構成を以下に説明する。
図7は、本実施形態の携帯電話100の撮像部103、表示部107、名刺及び雑誌等の紙面701との位置関係を示した図である。ここでは、サブ表示部705も備えている場合を考える。認識する場合に紙面上の文字の位置と表示部107に表示される文字の位置とがほぼ同じに見えるようにするため、撮像部103は表示部107の法線と紙面701との交点付近に向くように傾けて配置される。すなわち、撮像部103は鉛直方向より傾き角度θ702だけ傾けられている。この傾き角度θ702は、距離D703と距離d704を基にして決定される。ここで、距離D703とは、表示部107の中心から引かれた法線と紙面701とが交わる点Aと撮像部103の中心付近から当該法線と平行の向きに引いた直線と紙面701とが交わる点Bとの距離である。また、距離d704は撮像部103の中心付近と紙面701との距離である。距離d704及び距離D703は予め、例えば、距離d704は2〜4cm、距離D703は2〜4cmといったように設計時に設定しておいて、その初期設定値から傾き角度θ702を求める。
なお、距離d704の初期設定値は、例えば、紙面等とどのくらい離れれば認ユーザは文字等を認識しやすいのか等実際の文字認識の場合を想定して設定することが望ましい。
また、距離D703の初期設定値は、例えば、撮像部103と表示部の大きさによって決定される。
しかし、上記の場合、表示部107に表示される画像情報が紙面上の文字を斜めから撮像するために斜め方向に歪み、見づらい表示画面となってしまう。
そのため、歪められた画像情報に変換処理を施し、見づらさを低減する実施形態について以下説明する。
図8は(1)は、撮像部103を傾ける前の画像情報の表示例である。ここでは、撮像部103の位置が下部(ヒンジ部側)に配置されていることにより、名刺等の下部のみが表示されている。
図8(2)は、図8(1)の状態から撮像部103の傾きを調整した場合の表示画面例である。表示部107の下方に表示される文字が大きく、上方に表示される文字が小さくなっており、文字も斜めに表示されてしまう。このままでは、ユーザは認識したい文字を選択するのが難しい。
そこで、CPU102は、斜めに表示された画像を補正して平面的に表示されるように処理する。補正の方法としては、例えば、台形(キーストン)補正を用いて斜めの画像を平面になるように補正する。なお、その他の補正方法を用いても構わない。
その画面例を、図8(3)に示す。このように、撮像部103が筐体面に対して傾いて配置されていることに起因する歪みを補正することで、紙面等の文字と表示部107に表示される文字とがユーザから見てほぼ同じ位置、大きさに見えるため、認識する際に認識対象の文字を選択し易くなり使い勝手が向上する。
次に、第3の実施形態について説明する。上記第2の実施形態のように撮像部103を斜めに傾かせて配置した携帯電話では、文字認識する際は有効である。しかし、普通に人物や風景を撮像する場合、つまり、「認識モード」ではなく「通常撮像モード」で撮像する場合は、撮像部103が角度θ702傾いているために、ユーザの視線の先にある撮像対象物と、表示部107に表示されるものとが随分異なってしまう場合がある。例えば、ある人の顔を撮像したいのにその人の足元が表示部に表示されてしまう場合などである。これだと人物の顔などを撮像することが困難となる。
そこで、本実施形態では、撮像部103の傾きを可変にする場合を想定し、特に、「認識モード」時のみ撮像部103の傾きを変えられる場合を考える。
本実施形態の携帯電話には、撮像部103の隣接部分に撮像部103の傾きを変える角度調整部901が備えられている。図9を用いて、以下に説明する。
図9(1)に示すように、角度調整部901は回転駆動部902を有している。そして、この回転駆動部902の回転が撮像部103に伝わることによって撮像部103は回転する。なお、ここでは、撮像部103として撮像レンズ903と撮像回路904からなるモジュール型の撮像部103を考えており、回転駆動部902は撮像回路部と接続される形態をとっているが、これに限定するものではない。
次に、撮像部103の傾きを調整する処理について説明する。ユーザにより入力部101を介して撮像部103の傾きを変更する指示操作がなされれば、CPU102は、モード判定フラグの値を読み取って「認識モード」あるいは「通常撮像モード」のいずれのモードであるかを判定する。
そして、「認識モード」である場合は、予め記憶部104に記憶された角度調整信号を角度調整部901に送信する。角度調整信号を受信した角度調整部901は、当該角度調整信号に対応した回転量だけ回転する。その結果、撮像部103は所定角度回転することになる。
「認識モード」が終了されれば、その旨を示した認識モード終了信号がCPU102に入力され、CPU102は、回転された撮像部103を元通りの傾きに戻すために再度角度調整信号を角度調整部901に送信する。ここで、送信される角度調整信号は、先ほど送信した角度調整信号とは逆の回転を示すデータもしくは元通りの傾きになるために必要なデータを含んでいる。そして、この角度調整信号を受信した角度調整部901は、当該角度調整信号に応じて撮像部103を元通りになるように回転させる。
一方、モード判定フラグの値により「通常撮像モード」であると判定したCPU102は、角度調整信号の出力を行わないように処理する。
以上のように、「認識モード」の場合だけ撮像部103を可動にすることで「通常撮像モード」において、いたずらに撮像部103が回転することを防止することができる。その結果、通常の人物等の撮像時においてユーザの視線の先にある撮像対象物と表示部107に表示されるものとが随分異なってしまうといった問題を解消できる。
また、「認識モード」が終了すれば撮像部103を自動的に元の傾きに戻すように処理することで、わざわざ撮像部103を元通りにする手間を省略することができるため、使い勝手がよい。さらに、撮像部が傾いた状態であれば、筐体面から撮像部103の一部分が突出してしまう場合があり、撮像部103を自動的に元の傾きに戻すことで、その突出による撮像部103の破損を防ぐことができる。
なお、上記において、「通常撮像モード」であると判定した場合に撮像部103を角度を調整させないようするとともに、現在の撮像モードが「通常撮像モード」であることを通知するようにすれば、ユーザは撮像部103が可動しない理由(認識モードでないということ)を容易に知ることができる。
また、上記第3の実施形態では、「認識モード」時のみ撮像部103の傾きを変えられる場合を想定したが、「通常撮像モード」の時も撮像部103の傾きを変えられるようにしても構わない。この場合、「通常撮像モード」時に撮像部103の傾きを変えると、「通常撮像モード」終了時には自動的に元通りの傾きになるように構成する。これにより、上記のように、例えば、ある人の顔を撮像したいがその人の足元が表示部に表示されてしまう場合などの問題を解消できる。
また、角度調整部901は、図9(2)に示すように、撮像部103にアクチュエーター905が接続された構造としてもよい。ここでは、アクチュエータ905が4本撮像部103と接続されている場合を考えており、この場合は、4本それぞれのアクチュエータの動きにより撮像部103の傾きを変える。このように構成することで、撮像部103を様々な方向に傾かせることができるため、ユーザは細かい微調整が可能となり使い勝手がよい。
さらに、図10のように、角度上げボタン1001、角度下げボタン1002等の撮像部103の傾きを変更するための専用ボタンを設けてもよい。角度上げボタン1001は、撮像部103の傾きを上げるボタンであり、このボタンがユーザによって押下されると、角度上げ指示信号がCPU102を介して角度調整部901に出力され、その信号を受信した角度調整部は、撮像部103の傾きを角度上げ指示信号に基づいて調整する。角度下げボタン1002がユーザにより押下された場合も同様に調整する。
このように、ユーザ自身が撮像部103の傾きを調整できるため、ユーザの一番見易い方向に撮像部103を向けることができ、より使い勝手がよくなる。
また、角度上げボタン1001や角度下げボタン1002の代わりに、角度調整ダイヤル1003のようにダイヤル形式で構成しても構わない。これにより、微妙な角度調整を行える。
なお、傾き方向はヒンジ軸(ヒンジ部の中心軸)周りだけでなく、それ以外の方向に傾かせるように構成しても構わない。この場合、360度回転に対応した操作キー(例:ジョイスティック)等を用いる。これにより、携帯電話を持つ手を固定したままで、紙面等に記載された認識対象単語を探索でき、使い勝手がよい。
次に、第4の実施形態について説明する。本実施形態においては、距離センサを用いて自動的に撮像部103の傾きを調整する方法について説明する。
図11は、本実施形態に係る携帯電話の外観図である。距離センサ1101は、付属の投光部1102から発せられた赤外線がセンサ前方の物体に反射してセンサ1101に付属している受光部1103に戻ってくるまでの時間を計測して、センサ1101前方の対象物とセンサ1101間の距離を計測するものである。ここでは赤外線距離センサ1101を用いたが、超音波等の他の手段を用いた距離センサであっても良い。また、当該センサは、正確な距離を検出できるものでなくてもよく、センサからある大まかな距離に物体が有るか否かを判定できる程度のセンサであっても良い。
また、距離センサ1101は、撮像部103の近くに備えることが望ましい。これは、
距離センサ1101と撮像部103とが離れて配置されていると、撮像部−紙面間の距離と距離センサ−紙面間の距離との差が大きくなる恐れがあり、撮像部−紙面間の距離d704が不正確な値となってしまうからである。
図12は、本実施形態の処理を示すフローチャート図である。ここでは、認識対象をモニタ中に撮像部103の傾きを調整する場合について説明する。モニタ中とは、撮像部によりカメラ機能を起動させた後撮像決定もしくは認識対象特定の指示がなされていない状態を意味する。
まず、携帯電話がキー入力を待つ状態(ステップS1201)において、カメラ機能を起動するキー入力をCPU102が検出すると(ステップS1202)、記憶部104に保存されているカメラ機能に関する変数の初期化等といったカメラ起動処理を行う(ステップS1203)。その後、CPU102は、撮像モードが、「認識モード」「通常撮像モード」のいずれかであるかを判定する。
次に、距離センサ1101によって紙面と撮像部103との距離を測定し(ステップS1204)、測定結果を記憶部104に保存する。CPU102が記憶部104に保存された上記測定結果を読み取り、その測定結果から傾きθを計算する(ステップS1205)。その後、撮像部103の向きをその傾きθに変更するように要求する角度調整信号を角度調整部901に送り、その角度調整信号を受信した角度調整部901は角度調整信号に基づいて撮像部103の傾きをθに変更する(ステップS1206)。
次に、撮像部103が画像を取得し、記憶部104に一時的に保存する(ステップS1207)。その画像をCPU102が読み取り、距離センサによって測定された撮像部103と紙面との距離を用いて、斜めから撮られたことにより歪められた画像情報を補正して記憶部104に保存する(ステップS1208)。ここで、補正手段として、「台形補正(キーストン補正)」を用いて歪みを補正する。
その画像をCPU102が読み取り、表示部107に表示する(ステップS1209)。
その後、シャッターキーが押下されたか否かを判断し(ステップS1210)、シャッターキーの押下が検出されなかった場合は、またステップS04に戻って同様の処理を繰り返す。
ステップS1210において、シャッターキーの入力を検出した場合は、撮像部103が撮像対象物を撮像し(ステップS1211)、その画像を用いて画像認識部105が文字認識を行う(ステップS1212)。そして、その結果を表示部107に表示する(ステップS1213)。
このように、撮像部103の傾きを適宜自動的に調整することで、紙面上の文字と表示部107に表示される文字とをほぼ同じ位置に見えるようにすることができ、ユーザは文字認識の対象となる文字列の選択がし易く、使い勝手がよい。
また、図11では距離センサを撮像部103の横に1つだけ備えた例を示したが、筐体110の背面の上部にもう1つ備えてもよい。この場合、2つの距離センサの測定結果と筐体110の設計値(縦方向の長さ)を用いて、表示部107と認識対象文字等が記載された紙面等とのなす角度を求めることができる。この角度を使えば、表示部107と紙面とが平行でなかった場合でも、表示部107に表示する画像を補正することができる。なお、距離センサは携帯電話100に搭載可能な数であるならば、いくつ搭載しても構わない。
また、携帯電話の傾きを測定する方法として、携帯電話にかかる加速度を測定する加速度センサを利用してもよい。加速度センサは、窒素や炭酸ガスなどの気体を閉じ込めた空間の中に一部の気体の温度を上昇させるヒータ、気体の温度を測定する温度計などを備えたものとして構成されている。加速度センサに加速度がかかった場合に、ヒータによって温度が上昇した一部の気体と、それ以外の温度が上昇していない気体との位置が変化するため、温度分布が変化する。その温度分布を温度計で測定することにより、センサにかかった加速度を測定する。この測定された加速度から加速度センサの鉛直方向に対する傾きが計算される。
これにより、加速度センサを備えることにより、携帯電話100の傾きを知ることができる。通常、加速度センサの方が距離センサに比べて大きさが小さいため、距離センサを備えるより携帯電話をコンパクトにすることができるというメリットがある。
次に、第5の実施形態について説明する。本実施形態では、文字認識する際に認識させたい文字を特定する操作が煩わしいといった問題に鑑み、この問題を解決するために、所定の入力に従い、文字認識時に上述のような調節操作を行わずに認識させたい文字を選択できるように構成する。ここで、所定の入力とは、例えば、認識対象を「メールアドレス」や「電話番号」などといった種類の中から選択する操作などである。
以下、詳細に説明する。図13に、本実施形態における携帯電話の処理のフローチャートを示す。ここで、ステップS1301〜ステップS1303までは、図12のステップS1201〜ステップS1203と同じ処理である。
ステップS1303において撮像部103を起動させた後、シャッターキー等が押下されることにより撮像対象物の画像データが取得され、取得された画像データは記憶部104に一時的に保存される(ステップS1304)。次に、当該画像データを画像認識部105が読み取り(ステップS1305)、文字認識処理を行う。文字認識処理は、まず、文字行抽出処理によって、画像データのどこに文字行があるかを抽出する(ステップS1306)。そして、文字行の範囲が決定したら、その文字行の中で黒画素の集合と集合との間隔が所定値以上である場合は、それらの集合はスペースによって区切られた文字列とする。このように抽出された文字列の範囲の座標は記憶部104に保存される。
上記処理によって文字列の存在がCPU102により確認された場合は、CPU102は、その文字列に含まれる文字を認識するように文字認識指示信号を画像認識部105に送信し、文字認識指示信号を受信した画像認識部105は当該文字列の文字認識処理を行う(ステップS1308)。そして、文字認識された結果を示す認識結果データは記憶部104に保存される。文字列の存在がCPU102により確認されなかった場合は、ステップS1304に戻る。
次に、CPU102は記憶部104から認識結果データを読み取り、当該認識結果データがメールアドレスであるのか、或いは電話番号であるのかなど、何を意味する文字列であるのかを判別する(ステップS1309)。判別方法としては、例えば、文字列の中に“@”が含まれていれば「メールアドレス」、“http:”が含まれていれば「URL」、文字列が数字と“−”だけで構成されていれば「電話番号」、アルファベットだけで構成されていれば「英単語」とする。さらに、文字列の中に“TEL:”や“FAX:”、“E-mail:”などといった単語が含まれていた場合は、これを判別に利用しても構わない。
判別処理が終了した後、CPU102は、例えば、ユーザなどにより予め設定された認識対象の種類と実際に認識した文字列の種類とが一致しているか判定する(ステップS1310)。一致していた場合は、認識した文字列の周りに表示部107に枠等を表示させ(ステップS1311)、例えば、入力部101により所定の操作がなされれば認識結果を表示する(ステップS1312)。この際に、特に入力部101による所定操作を介さずに自動的に表示部107に認識結果を表示させるようにすれば、ユーザの入力手間を省略できるため使い勝手がよい。
ステップS1310において、設定された認識対象の種類と認識した文字列の種類とが一致していなかった場合は、CPU102は画像中における文字行抽出処理の開始点をずらすように画像認識部105に指示し(ステップS1313)、再び文字行抽出処理を行う(ステップS1306)。
ここで、上行から下行へ順々に画像データの文字行抽出処理を実行していく場合には、ステップS1313では、CPU102は、文字認識処理の処理開始点を所定量だけ下にずらす処理を行う。また、一行に複数のメールアドレスや電話番号が記載されている場合も想定して、空白部分があったらその前後で別の文字列として扱う。
この場合、まず空白の左側にある文字列についてステップS1308からステップS1310までの処理を行なった後、空白の右側にある文字列について同様の処理を行う。
なお、画像中に含まれる全ての文字に対して文字行抽出処理を行った後、文字認識処理以降の処理を実行していく方法も考えられる。この場合は、記憶部104に文字行抽出結果、例えば、抽出した文字列の左上と右下の画像上の座標などを保存しておき、それぞれの文字列に対してステップS1308からステップS1312までの処理を順番に実行していく方法も考えられる。
次に、本実施形態における携帯電話の画面表示例を図14、図15に示す。図14は、認識対象の種類を選択する画面例である。図14(1)は、カメラ起動した後の画面である。この状態で「サブメニュー」キーが押下されると、カメラ及び文字認識などに関するメニューが表示される(図14(2))。この状態で「(2)認識対象設定」が選択されると、認識対象の種類を選択する画面が表示される(図14(3))。この状態で、例えば、「(3)電話番号」が選択されると、認識対象の種類を「電話番号」に設定したことをユーザに知らせる画面が表示される。
図15(1)は、上記のような操作を行い、認識対象の種類として「電話番号」を設定した場合に、名刺1503をモニタした際の画面表示例である。画面に表示された文字のうち枠1504で囲まれた電話番号“045−○○○−1234”が、画像認識部105によって認識され、その認識結果が認識結果表示領域1505に表示されている。図15(1)中の1501は、認識対象の種類を「電話番号」に設定していることをユーザに知らせるためのアイコンである。ユーザはこのアイコンを見て、認識対象の種類が「電話番号」になっていることを確認できる。
図15(2)は、認識対象の種類を「メールアドレス」に設定した場合に、名刺1503をモニタした際の画面表示例である。この場合は、枠1506で囲まれたメールアドレス“yamada@denki.○○.co.jp”が画像認識部105によって認識され、その認識結果が1507のように表示されている。また、認識対象の種類が「メールアドレス」であることをユーザに知らせるために、1502のようなアイコンを表示している。
以上のように、本実施形態においては、予め選択された認識対象の種類、例えば、モニタ中の画像に「メールアドレス」があれば自動的にそれを抽出し、その認識結果を表示させる。これにより、ユーザは、文字認識する際に認識対象を特定するために携帯電話の位置を調節するという手間が省け、使い勝手がよい。
また、1つの画像上に認識対象となる文字列が複数ある場合、例えば、メールアドレスが2つ表示されていた場合は、2つとも認識して認識結果を表示してもよい。この場合の表示画面例を図15(3)に示す。
図15(3)に示すように認識対象となったメールアドレスの近傍に、例えば、番号1508、番号1509に示されるように「(1)」「(2)」と番号を付す。そして、例えば、「1」に対応したメールアドレスの認識結果の近傍に「(1)」、「2」に対応したメールアドレスの認識結果の近傍に「(2)」とそれぞれ対応した番号を付しておけば、認識対象のメールアドレスとその認識結果との対応関係が視覚的に容易に理解できるため使い勝手がよい。
(認識結果を数字キーで選択して表示)
更にまた、メールアドレスが複数あり、全ての認識結果を表示できない場合は、番号1508また番号1509に対応した数字キーを押下することで、その番号に対応したメールアドレスの認識結果を表示させてもよい。例えば、「1」キーが押下された際に認識結果表示領域には、“yamada@denki.○○.co.jp”と表示される。また、「2」キーが押下されれば、“taro@×××.ne.jp”が表示される。このようにすることで、携帯電話のように画面が小さい場合でも複数の認識結果を簡単に表示することができ、使い勝手がよい。
更にまた、図15(4)に示すように頭文字入力領域1512を設ける。ユーザが入力部101を押下して頭文字入力領域1512に英文字等が入力されると、CPU102は、その文字から始まるメールアドレスを抽出する。そして、抽出されたメールアドレスに枠等を表示して、そのメールアドレスの認識結果を認識結果表示領域に表示する。図15(4)においては、複数のメールアドレスからユーザにより入力された「y」を頭文字とするメールアドレス「yama@×××.○○○.co.jp」が認識対象として選択されている。
このように、複数の認識対象から認識結果を表示させたいメールアドレスを簡単に素早く選択するできるため使い勝手がよい。
なお、もちろん、図15(3)と図15(4)に示した機能は組み合わせてもよい。
更にまた、認識対象の候補が複数個ある場合に十字キー等の入力部101を介して選択できるようにしても構わない。このようにすれば、認識対象の種類を選択した後に上述したように認識対象が複数ある場合においても簡単に認識対象を特定できるため使い勝手がよい。更に、上記の頭文字検索の実施形態で、例えば、頭文字が「y」のメールアドレスが複数ある場合に、まず、頭文字検索でおおまかに認識対象を選択し、そして、真に認識したいメールアドレスを十字キーを用いて簡単に選択することができるため、更に使い勝手は向上する。
また、上記処理により認識された認識結果を記憶部104に予め記憶されたアドレス帳に記憶させるようにする。これによれば、ユーザはわざわざ入力操作を介することなく名刺等に記載されたメールアドレス等の個人情報を当該アドレス帳に登録させることができるため、使い勝手が向上する。
次に、第6の実施形態について説明する。図15(4)に示されたような機能は、認識対象の文字検索機能としても応用できる。例えば、英字新聞の中に特許関連の記事が記載されていることは分かっているが、その新聞内のどこに書かれているかが分からない場合もある。このような場合、例えば「patent」という単語を探せられれば良いのだが、
何万単語で構成されている英字新聞内の中からその単語を検索するのは目が疲れる上嫌気が差してしまう。そこで、検索したいキーワード(以下、検索対象単語)の一部又は全部をユーザが入力して、それを用いて、新聞内等のどこにそのキーワードがあるかを検索する場合を考える。
この場合、検索対象単語の一部又は全部が入力されると、その検索対象の単語を特定するための検索単語特定データがCPU102に入力される。そして、当該検索単語特定データを受信したCPU102は、撮像部103により取得された画像情報内の単語からその検索単語特定データに基づいて検索対象単語を検索する。撮像部103により取得された画像情報内に検索単語特定データを含む単語データが存在する場合は、CPU102は、当該検索対象単語が検索されたことをユーザに通知するよう処理する。
通知形態としては、例えば、検索対象単語の周囲に枠で表示する形態などが考えられる。撮像部103により取得された画像情報内に検索単語特定データを含む単語データが存在しない場合は、CPU102は、例えば、「検索単語はありません」といった表示を行うなど、その旨をユーザに通知するよう処理する。
なお、検索する際に所定時間だけ検索するようにしても構わない。これにより検索時間が長い場合に検索に区切りをつけることができ、その結果、無駄な時間を省くことができる。
図16は、本実施形態に係る表示画面例を示した図である。例えば“parameter”という単語にだけ枠を表示する場合の表示画面例を示す。
図16(1)は、頭文字入力領域1601に、頭文字“p”を入力して英文をモニタした画面の表示例である。頭文字は、ユーザが入力部101を数回押下することで入力できる構成とする。この画面では、“p”を頭文字とする英単語“portion”、“parameter”、“pattern”の単語の周りに枠が表示されている。
続いて、図16(2)では、頭文字入力領域に“para”と入力した状態で英文をモニタした画面の表示例である。この画面では、“parameter”の単語の周りにだけ枠が表示され、ユーザは簡単に“parameter”の印刷された位置や数を知ることが出来る。この際に、紙面等に記載された“parameter”の数を表示するようにしても良い。
この状態で、携帯電話を右方向に移動させれば、英文の右側に印刷された“parameter”の周りに枠を表示する(図16(3))。
このように、携帯電話を移動させる容易な操作だけで認識目的の単語(“parameter”)の位置がわかるため、文字情報が多く記載された印刷物でも簡単に文字の検索ができる。従って、わざわざ探す手間が省けるので非常に使い勝手がよい。
なお、検索された単語の意味や翻訳を表示するようにしても良い。
次に、第7の実施形態について説明する。携帯電話100に、例えば、英単語などの外国語とそれに対応した日本語訳が記載された辞書データを備えることで、画像認識部105が認識した英単語などの外国語に対応した日本語訳を表示部107に表示することができる。すなわち、入力操作が簡単で便利な英和電子辞書機能を備えた携帯電話となる。本実施形態はこのような場合について説明する。
図17は、本実施形態の処理フローチャートを示した図である。まず、図13のステップS1301からステップS1305までと同様の処理を行うことにより、携帯電話の撮像部103が起動され、撮像部103が取得した画像データを画像認識部105が取得する。
本実施形態において、例えば、表示部107の中心に表示された「+」マークに最近接している単語を抽出してその単語を認識対象単語とする(ステップS1701)。そして、CPU102は、認識対象単語として特定された単語の周囲に枠表示を行い、現在認識対象として特定されている単語が何であるかをユーザに通知する(ステップS1702)。
次に、画像認識部105が文字認識処理を行い(ステップS1703)、当該画像データに含まれた英単語を一つ抽出して文字認識し、認識結果を記憶部104に保存する(ステップS1704)。
画像認識部105によって認識された認識結果をCPU102が記憶部104から読み取り、辞書データに含まれる単語データの中から、認識結果と一致する単語を検索する(ステップS1705)。
検索する方法としては、まず文字列が完全に一致するものを探し出し、完全に一致するものがなかった場合は一文字だけ異なるがその他の文字は一致している単語を探し出すという方法が好ましい。この方法を採用することで、画像認識部105が紙面上の文字を誤って認識した場合でも、その文字列に一番近い単語を探し出すことができ、何度も撮像して文字認識をやり直す手間が省くことができ、使い勝手がよい。
また、一文字だけ異なる単語もない場合は、二文字異なる単語、三文字異なる単語、というふうに異なる文字数をだんだん増やして検索してもよく、この場合は認識率が低くても該当する単語を探し出すことができる。
上記検索によって辞書データ内に一致する単語が見つかった場合は、CPU102は、その単語に対応する日本語訳を辞書データから読み取って(ステップS1707)、表示部107に入力操作なく自動的に日本語訳を表示する(ステップS1708)。一方、辞書データ内に一致する単語が見つからなかった場合は、「該当する単語が見つかりません」などといった表示を表示部107に表示する(ステップS1709)。
その後、撮像部103が取得した画像データを表示部107に表示し、最後に認識対象となった単語の周りに枠を表示する。そして、再びステップS1304に戻り、撮像部103が画像データを取得する処理に戻る。
図18(1)は、本実施形態の表示画面例である。ここでは、携帯電話を用いて英文をモニタした際に「length」という英単語の訳を表示させる場合について説明する。
画像認識部105により「length」が認識され、その認識結果と一致する単語データを辞書データから検索する。
図18(1)は、辞書データから検索された「length」に対応する日本語訳「長さ、たけ、期間...」を読み出して表示部107に表示した画面の表示例である。
図18(2)は、携帯電話を右方向にずらし、表示部107の中心付近に「width」という英単語が表示された場合に、その日本語訳「広さ、幅、横の距離...」を表示した画面の表示例である。
このように、上記処理を連続的に行うことにより、ユーザはボタンを押下するなどの操作が必要なく、例えば、携帯電話を横にずらすだけで認識対象となる単語の翻訳等を参照できるため、使い勝手がよい。
なお、上記例だと、認識対象となる単語が携帯電話を動かすとともに次々と変わってしまい、表示画面が煩雑になってしまうという問題が新たに生じる。そのため、通常の認識対象操作(例えば、上記「+」カーソルを認識対象単語の上に持っていき、所定の操作ボタンを押下するなどして認識対象を特定する操作)を経てから日本語訳等を表示するようにしても構わない。
また、ここで、処理能力の関係上、認識対象単語の枠表示とその翻訳表示との間にタイムラグが生じ、ある単語からある単語へと認識対象が変わる際に、移行後の認識対象に枠が表示されるがその訳等は移行前の認識対象単語のものとなってしまうといったような問題がある。これではユーザも困惑してしまう。その問題を解決するためにはCPU102により枠表示と翻訳表示とを同じようなタイミングで表示させればよい。この場合、例えば、通常翻訳表示にかかる時間の方が枠表示のそれより長いため、枠表示のタイミングを翻訳表示のタイミングにあわせるようにCPU102に処理させる。
これにより、認識対象単語の枠表示とその翻訳表示が表示されるタイミングが一致し、ユーザは今どの単語が認識対象でその訳は何であるかが正確に参照できるため、使い勝手がよい。
次に、第8の実施形態について説明する。物語などには、一般の辞書には掲載されていない特別な固有名詞が出現したり、辞書に掲載されている単語でも、物語中において特有の使い方をすることがある。こういった単語に遭遇した読者は、その単語の意味が分からなくても辞書で調べようがないため、その物語を最初から隈なく読んでその単語の意味を理解するか、その物語に詳しい友人に聞くなどといった行為をしなければならない。
この問題を解決するために、書籍の裏表紙などに記載されたISBN(International Standard Book Number)を利用して、当該書籍の中で使用される単語の意味を知ることができるようなシステムを提案する。ここで、ISBNとは国際標準図書番号のことであり、世界中で出版されている書籍の中から特定の書籍を識別するための番号である。
図19は、本実施形態に係る構成例を示す図である。本実施形態は、携帯電話100、サーバ1900で構成される。
携帯電話1900は、図1で示した構成部の他に辞書データ1908を備えたものとして構成される。
辞書データ1908は、上述したように、例えば、英単語などの外国語とそれに対応した日本語訳や専門用語等の意味が記載されてある。
サーバ1950は、図19に示されるような構成部から成る。SV−CPU1902は、SV記憶部1904に記憶されたプログラムに基づいて動作し、例えば、SV通信部1906からの信号に応じて各部を制御するものである。SV記憶部1904は、通信部から受信するデータなど、サーバ1950で扱うデータを記憶しておく。
ISBN固有辞書データ1905は、ISBNが示す書籍の中でのみ使用される固有名詞や同単語でも通常の意味とは異なる意味で使用される単語などの意味が記された辞書データである。ISBN固有辞書データ1905にはそれぞれ辞書IDが割り当てられ、ISBN固有辞書データ1905は、辞書IDで管理される。
ISBN−辞書ID対応表1903は、ISBNとそのISBNが示す書籍に対応付けられたISBN固有辞書の辞書IDなどとの関係が記された表である。
図20は、ISBN−辞書ID対応表1903の例を示したものである。ISBN−辞書ID対応表1903は、例えば、ISBN2001、書籍の題名、書籍の出版社などの書籍情報2002と辞書ID2003から構成され、書籍の題名や書籍の出版社等はISBNから知ることができる。ここで、書籍情報は、書籍に関する情報であり、上記に列挙されたものに限定するものではない。
SV通信部1906は、サーバ1950がインターネットや他の情報処理装置などとアクセスするための通信処理やデータのやり取りを行う。SV入力部1901は、SV記憶部1904にISBN−辞書ID対応表1903やISBN固有辞書データ1905を保存や更新する際に使用するキーボードやマウスなどといった入力装置である。
SV表示部1907は、SV記憶部1904に保存されたデータなどを表示するための出力装置である。
次に、図21及び図22のフローチャートを用いて本実施形態における携帯電話の処理手順を説明する。
まず、図21を用いて、ISBNに対応する固有辞書を登録して利用できる状態にするまでについて説明する。特に、ここでは、ISBNに対応する固有辞書は、サーバ1950に記憶されている場合について説明する。
携帯電話1900のCPU102は、上述してきたような文字認識処理を行い(ステップS2100)、認識結果データを記憶部104に保存し、認識結果を表示部107に表示する。
CPU102は、記憶部104から当該認識結果データを読み取り、ISBNであるかどうか判定し(ステップS2101)、判定結果を記憶部104に保存する。その方法としては、文字列が数字とハイフンから構成され、電話番号とは異なった位置にハイフンが挿入されている場合や、文字列の先頭が“ISBN”から始まっているなどの情報を使用する方法などがある。
ステップS2101において、認識結果がISBNではないと判定された場合は、CPU102はその認識対象の種類毎に割り当てられた表示画面を表示する(ステップS2102)。例えば、CPU102は、認識対象の種類がメールアドレスであればメールに関連した表示画面を出力し、また、認識対象の種類がURL情報であれば当該URLに関連した表示画面を出力する。
ステップS2101において、認識結果がISBNであると判定された場合は、CPU102は認識対象がISBNである場合の専用画面を表示する。
以下では、認識結果がISBNであると判定された場合について説明する。
ユーザの入力操作を介して認識結果のISBNをサーバに送信することを指示する指示信号がCPU102に入力される。当該指示信号を受信したCPU102は、記憶部104から認識結果を読み取り、サーバに送信する(ステップS2103)。
サーバのSV通信部1906はISBNデータを受信すると(ステップS2104)、一時的にSV記憶部1904に保存する。SV−CPU1902は、SV記憶部1904に保存されたISBNデータを読み取り、ISBN−辞書ID対応表1903を参照する。そして、SV−CPU1902は、受信したISBNが対応表1903に存在するかどうかを検索する(ステップS2105)。
受信したISBNが対応表1903に存在しない場合は、SV−CPU1902は、受信したISBNに対応する辞書IDがサーバ内に存在しない旨を通知するためのエラーメッセージを携帯電話1900に送信する(ステップS2110)。
一方、受信したISBNが対応表1903に存在した場合、SV−CPU1902は当該ISBNに対応する辞書ID2003を対応表1903から読み取る。そして、SV−CPU1902は、当該辞書ID2003を携帯電話に向けて送信するよう指示する辞書ID送信指示信号をSV通信部1904に送信する。辞書ID送信指示信号を受信したSV通信部1904は、SV−CPU1902によって対応表1903から読み取られた辞書ID2003を携帯電話に送信する(ステップS2106)。
辞書ID2003を受信した携帯電話は、辞書ID2003を記憶部104に保存する(ステップS2107)。また、認識したISBNに対する固有辞書がサーバ上に存在したことなどを表示する(ステップS2108)。そして、受信した辞書ID2003を記憶部104に登録する(ステップ2109)。
以上により、携帯電話のユーザは、上記辞書ID2003を介してサーバ上にあるISBNに対応する固有の辞書を利用することができるため、記憶容量の低減を図れるとともに使い勝手が向上する。
なお、上記実施形態では、ISBNに対応した固有辞書そのものではなく辞書ID2003をダウンロードするように構成したが、ISBNに対応した固有辞書そのものをダウンロードして記憶するようにしても構わない。このように、一旦、携帯電話内に当該固有辞書を記憶すれば、当該固有辞書を参照する際のサーバ1950との通信時間を省略することができる。
また、上記実施形態において、当該ISBNに対応した固有辞書の辞書IDをダウンロードする際に、当該ISBNに対応した書籍に関する情報、例えば、書籍名などもいっしょにダウンロードするようにしても構わない。
この場合、サーバ1950より受信した辞書IDと書籍情報とを関連付けて携帯電話の記憶部104に記憶する。そして、例えば、辞書IDを用いてISBN固有辞書データ参照する前、参照中もしくは参照後などに当該辞書IDに対応した書籍情報を表示するように構成する。
これにより、ユーザはISBNに対応した固有辞書を参照する前後、もしくは参照中に当該固有辞書がどのような書籍に関係した辞書なのかを確認することができる。従って、例えば、ユーザの所望する固有辞書とは異なる固有辞書を利用していた場合などにも容易に気づくことができるため、使い勝手がよい。この際、ユーザの所望する固有辞書に選択しなおすように構成すれば、更に使い勝手は向上する。
次に、上記のように登録された固有辞書を利用して単語の意味等を参照する具体例を図22のフローチャートを用いて説明する。ここでは、携帯電話内には予め一般的な用語の意味等が記載された辞書データ1908が記憶されてあり、辞書データ1908内に含まれないような特殊な単語に関してISBNに対応した固有辞書を検索する場合について説明する。
まず、上述したように、CPU102は、認識対象単語に対して文字認識処理を行い、認識結果データを記憶部104に保存して表示部107に表示する(ステップS2201)。そして、CPU102は、記憶部104から当該認識結果データを読み取り、辞書データ108に含まれる英単語から一致する単語を検索する(ステップS2202)。
検索の結果、該当する単語が見つかった場合は、その単語に対応する意味データや翻訳データ(以下、意味/翻訳データ)を辞書データ108から読み取り、表示部に表示する(ステップS2211)。
検索の結果、該当する単語が見つからなかった場合は、CPU102は、記憶部104に保存された認識結果データ及び辞書ID2003を読み取る。そして、当該認識結果データ及び辞書ID2003をサーバに送信指示する送信指示信号を受信したCPU102は、認識結果データ及び辞書ID2003を通信部106を介してサーバ1950に送信する(ステップS2204)。
当該認識結果データ及び辞書ID2003をサーバ1950が受信する(ステップS2205)と、SV−CPU1902は、辞書ID2003に対応づけられたISBN固有辞書データ1905にアクセス処理を行う(ステップS2206)。そして、SV−CPU1902は、当該受信した認識結果データと一致する単語をISBN固有辞書データ1905から検索する(ステップS2207)。
この際、SV−CPU1902は、当該受信した認識結果データと一致する単語が当該ISBN固有辞書データ1905に存在するか否かを判定する(ステップS2208)。当該受信した認識結果データと一致する単語が当該ISBN固有辞書データ1905に存在しない場合は、エラーメッセージを携帯電話に送信する(ステップS2212)。
一方、ステップS2208において、該当する単語が見つかった場合は、SV−CPU1902は、SV記憶部1904に保存された意味/翻訳データを読み取る。そして、その意味/翻訳データを送信するよう指示する指示信号を受信したSV−CPU1902は、SV通信部1906を介して意味/翻訳データを携帯電話1900に送信する(ステップS2209)。そして、通信部106を介してこの意味/翻訳データを受信した携帯電話1900のCPU102は(ステップS2210)、意味/翻訳データを表示部107に表示する(ステップS2211)。
図23は、本実施形態における携帯電話の画面の表示例である。図23(1)では、書籍に記載されたISBNを撮像部103が撮像し、その画像に含まれたISBN情報を画像認識部105が認識して、表示部107が認識結果を表示した画面例である。例えば、図14(3)のように、認識対象の種類を「(4)ISBN」とすることにより画面に含まれる複数の文字列のうちISBNを形成する文字列を認識する方法などを用いることができる。
図23(1)の状態で、表示画面右下に表示された「サブメニュー」に対応する操作キーが押下されると、文字認識に関するサブメニューが表示される(図23(2))。
次に、「(3)書籍情報取得」が選択されると、認識結果のISBNと当該ISBNに対応した辞書もしくは当該辞書IDを要求する要求信号をサーバに送信する。そして、例えば、図23(3)に示すようにサーバとの接続経過等を表示する。
次に、図23(4)は、認識結果のISBNに対応する固有辞書の辞書ID及び当該ISBNに対応した書籍情報をサーバより受信した場合の表示画面例である。ここでは、書籍情報として「(1)題名」、「(2)出版社」、「(3)著者」を表示し、あわせて「(4)固有辞書の有無」も表示している。
これにより、ユーザは認識結果のISBNに対応する書籍情報及び認識結果のISBNに対応する固有辞書がサーバにあるかないかを簡単に確認することができる。
また、この状態で「(4)固有辞書」が選択されると、サーバから受信した辞書IDを補助辞書として記憶部104に登録するか否かを、ユーザに選択させる画面に遷移する(図23(5))。ここで、補助辞書とは、主として利用される辞書データ1908に対して補助的に利用される辞書という意味である。
この状態で、「1.はい」を選択すると、上記辞書IDを補助辞書として登録する。ここで、登録処理は、例えば、サーバから受信した辞書IDの値を、記憶部104にある補助辞書を表す変数に代入する処理等が考えられる。その後、上記固有辞書を補助辞書に登録したことをユーザに伝えるメッセージを表示する(図23(6))。
なお、上記では、図23(4)で「(4)固有辞書」が選択されると、認識結果のISBNに対応する固有辞書の辞書IDを登録する場合を説明したが、前述したように、認識結果のISBNに対応する固有辞書そのものを受信し、記憶部104に記憶するように構成しても構わない。
また、上記実施形態では、サーバから補助辞書として利用される辞書IDもしくは辞書そのものをダウンロードする場合について説明したが、これに限定するものではない。例えば、メモリカード等の記録媒体を介して当該辞書IDや辞書そのものを受信するように構成しても構わない。
これらにより、サーバに接続するために費やされる通信費及び通信時間を省略できる。
次に、ISBN対応固有辞書を利用して単語の意味を表示している表示画面例を図24に示す。
図24(1)は、認識結果を表示した表示画面例である。ここでは、認識対象の単語である「Zakky」が認識されたことを示している。更に、この単語「Zakky」の意味を参照するために辞書データ108(以下、メイン辞書)を利用するか、あるいはISBN対応辞書データ(以下、補助辞書)を利用するかを選択できるようにしている(2401、2402)。
これにより、例えば、メイン辞書に登録されていないことが明確である単語である場合には、最初から補助辞書を選択できる。一方、メイン辞書に登録されている可能性が高いような単語の場合は、補助辞書を選択せずにまずはメイン辞書を用いて当該単語の意味等があるか否かを検索させる。このように構成することで、ユーザは、メイン辞書又は補助辞書をその都度使い分けることができるため、使い勝手がよい。
図24(2)は、例えば、メイン辞書を利用して意味等を参照しようとしたが、メイン辞書に認識対象単語(ここでは、「Zakky」)がない場合を示した図である。ここでは、CPU102は、認識結果表示領域を上方にずらし、該当単語がメイン辞書にない旨を表示するポップアップ画面を表示する領域を確保する処理を行う。これにより、表示画面の有効利用が図れる。
図24(3)は、メイン辞書に認識対象単語が登録されていない場合に代わりに補助辞書利用(2402)を選択した場合の表示画面例である。ここでは、補助辞書に「Zakky」が登録されており、CPU102は単語「Zakky」の意味を表示するように処理する。
図24(4)は、メイン辞書及び補助辞書に認識対象単語「Zakky」が登録されていない場合の表示画面例である。ここでは、その旨を表示する。
図24(5)は、メイン辞書及び補助辞書に認識対象単語「Zakky」が登録されていない場合に上記辞書とは異なる辞書を選択する場合の表示画面例である。図24(4)の表示画面の状態から「辞書2403」が選択されると、図24(5)の表示画面に遷移する。ここでは、予め記憶部104に複数の辞書IDもしくは辞書そのもののデータが記憶されている。そして、それらからメイン辞書及び補助辞書を設定できるようにしている。
これにより、例えば、認識対象単語を記載した辞書とは異なる辞書を利用していた場合などにも辞書を選択し直すことができ、正しい意味を知る可能性が高まる。
なお、上記例では、メイン辞書及び補助辞書を設定できるようにしたが、これに限定するものではなく、どちらか一方の辞書設定のみを行えるようにしても構わない。例えば、メイン辞書は固定の辞書で補助辞書のみを設定変更可能にしても構わない。これにより、いたずらに辞書変更を行うことが許容されないため、例えば、頻繁な辞書変更のためにどの辞書がメイン辞書だったかといった不要な混乱を防止することができる。
図24(6)は、現在設定されている補助辞書が何であるかをユーザに通知する場合の表示画面例である。ここでは、補助辞書を選択するためのアイコンの上に現在設定されている補助辞書(ここでは、Hello!Zakky:2404)を表示する。
これにより、ユーザは、視覚的に簡単に現在設定されている補助辞書等を確認することができ、使い勝手がよい。
なお、通知形態は、上記したものに限定するものではない。例えば、補助辞書を示す番号やアイコン等で表示するようにしても良い。これにより、表示画面の比較的小さい携帯電話などにおいては、表示領域を有効に利用できる。
また、上記では、補助辞書の設定について説明したが、現在設定されているメイン辞書が何であるかをユーザに通知するようにしてもいいのは言うまでもない。
なお、上述してきた種々の機能をソフトウェアで実現してもよく、ユーザは、例えば、CD―ROM等の記録媒体やサーバから当該ソフトウェアを受信して当該種々の機能を実現できる。これにより、必要な機能だけを搭載したり、また、好みに応じて色々な機能を追加もしくは削除、あるいは更新することが容易となる。
更に、上述してきた実施形態を組み合わせて新しく実施形態を構成することができることは言うまでもない。
また、本発明は、上記に示された実施形態に限定されるものではなく、ここに開示された原理及び新しい特性は広範囲の技術的範囲を含むものである。
第1の実施例に係る携帯電話の構成ブロック図である。 第1の実施例に係る携帯電話の外観図である。 第1の実施例に係る携帯電話において背面にサブ表示部を備えた場合の外観図である。 第1の実施例に係る携帯電話においてメイン表示部にOCR専用画面を設けた場合の外観図である。 第1の実施例に係る水平回転可能携帯電話の外観図である。 第1の実施例に係る携帯電話においてサブ表示部と撮像部を可動にした場合の外観図である。 第2の実施例に係る携帯電話で文字認識する場合の撮像部、表示部、名刺等の紙面との位置関係を示した図である。 第2の実施例に係る携帯電話の画面表示例である。 第3の実施例に係る携帯電話の撮像部の傾きを変えるための構成を示した図である。 第3の実施例に係る携帯電話の外観図である。 第4の実施例に係る携帯電話の外観図である。 第4の実施例に係る携帯電話の処理を示すフローチャートである。 第5の実施例に係る携帯電話の処理を示すフローチャートである。 第5の実施例に係る携帯電話において認識対象の種類を選択する画面表示例である。 第5の実施例に係る携帯電話において認識対象の種類を電話番号に設定した場合に、名刺をモニタした際の画面表示例である。 第6の実施例に係る携帯電話の画面表示例である。 第7の実施例に係る携帯電話の処理を示すフローチャートである。 第7の実施例に係る携帯電話の画面表示例である。 第8の実施例に係る構成例を示す図である。 ISBN−辞書ID対応表の内容例を示した図である。 第8の実施例に係る携帯電話において、ISBN固有辞書の辞書IDを登録する処理を示すフローチャートである。 第8の実施例に係る携帯電話において、ISBN固有辞書を利用して認識した単語の意味/翻訳データを表示する処理を示すフローチャートである。 第8の実施例に係る携帯電話において、ISBN固有辞書の辞書IDを登録する場合の画面表示例である。 第8の実施例に係る携帯電話において、ISBN固有辞書を利用して認識した単語の意味/翻訳データを表示した画面表示例である。
符号の説明
100 携帯電話
101 入力部
102 CPU
103 撮像部
104 記憶部
105 画像認識部
106 通信部
107 表示部
110 筐体
120 筐体
130 ヒンジ部
301 サブ表示部
302 サブ表示部
303 サブ表示部
401 サブ表示部
402 OCR専用画面
403 サブ表示部
501 水平回転可能携帯電話における撮像部
502 水平回転可能携帯電話における撮像部
503 入力部
504 表示部
510 メインディスプレイを有する筐体
520 メイン操作部を有する筐体
530 連結部
601 サブ表示部
602 移動溝
701 名刺や雑誌等の紙面
702 角度
703 距離
704 距離
901 角度調整部
902 回転駆動部
903 撮像レンズ
904 撮像回路部
905 アクチュエータ
1001 角度上げボタン
1002 角度下げボタン
1003 角度調整ボタン
1101 距離センサ
1102 投光部
1103 受光部
1104 距離センサ
1105 投光部
1106 受光部
1900 携帯電話
1901 SV入力部
1902 SV−CPU
1903 ISBN−辞書ID対応表
1904 SV記憶部
1905 ISBN固有辞書データ
1906 SV通信部
1907 SV表示部
1908 辞書データ
1950 サーバ
2001 ISBN
2002 書籍情報
2003 辞書ID

Claims (2)

  1. 情報を表示可能な表示部を備えた携帯電話であって、
    画像情報を撮像する撮像部と、
    前記撮像部により出力された画像情報に含まれる識別情報を認識する認識部と、
    前記認識部により識別情報を認識する認識モードを選択するモード選択部と、
    前記撮像部により撮影される物体との間の距離を測定する測定部と、
    前記モード選択部により認識モードが選択された場合に、前記測定部により測定された距離を用いて前記撮像部の傾きを変更し、前記測定部により測定された距離を用いて前記表示部に前記画像情報が表示される位置又は角度を一部又は全部を変換するように制御する制御部とを備えることを特徴とする携帯電話
  2. 請求項1記載の携帯電話において、
    前記制御部は、台形補正を用いて変換することを特徴とする携帯電話
JP2003316179A 2003-09-09 2003-09-09 携帯電話 Expired - Lifetime JP4036168B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2003316179A JP4036168B2 (ja) 2003-09-09 2003-09-09 携帯電話
US10/922,080 US20050052558A1 (en) 2003-09-09 2004-08-20 Information processing apparatus, information processing method and software product
CN2004100771937A CN1595944B (zh) 2003-09-09 2004-09-08 信息处理装置、信息处理方法及软件产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003316179A JP4036168B2 (ja) 2003-09-09 2003-09-09 携帯電話

Publications (2)

Publication Number Publication Date
JP2005084951A JP2005084951A (ja) 2005-03-31
JP4036168B2 true JP4036168B2 (ja) 2008-01-23

Family

ID=34225223

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003316179A Expired - Lifetime JP4036168B2 (ja) 2003-09-09 2003-09-09 携帯電話

Country Status (3)

Country Link
US (1) US20050052558A1 (ja)
JP (1) JP4036168B2 (ja)
CN (1) CN1595944B (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060050729A (ko) * 2004-08-31 2006-05-19 엘지전자 주식회사 카메라로 촬영된 문서 영상 처리 방법과 장치
KR20060050746A (ko) * 2004-08-31 2006-05-19 엘지전자 주식회사 카메라로 촬영된 문서 영상 처리 방법
JP2006129033A (ja) * 2004-10-28 2006-05-18 Kyocera Corp 電子機器および撮影方法
JP2006303651A (ja) * 2005-04-15 2006-11-02 Nokia Corp 電子装置
JP4566825B2 (ja) * 2005-06-03 2010-10-20 レノボ・シンガポール・プライベート・リミテッド 携帯端末装置のアンテナの制御方法及び当該携帯端末装置
KR100678915B1 (ko) * 2005-07-21 2007-02-05 삼성전자주식회사 아이콘의 표시 방법 및 이를 이용한 디지털 장치
TWI265715B (en) * 2005-07-21 2006-11-01 Inventec Appliances Corp Method for collecting business card data in mobile communication apparatus
KR100628101B1 (ko) * 2005-07-25 2006-09-26 엘지전자 주식회사 문자 입력 기능을 갖는 이동통신단말기 및 이를 이용한방법
US20070044334A1 (en) * 2005-08-24 2007-03-01 Motorola, Inc. Wireless device with integrated level
US7801359B2 (en) 2005-10-14 2010-09-21 Disney Enterprise, Inc. Systems and methods for obtaining information associated with an image
US7480422B2 (en) * 2005-10-14 2009-01-20 Disney Enterprises, Inc. Systems and methods for information content delivery relating to an object
US8023746B2 (en) * 2005-10-14 2011-09-20 Disney Enterprises, Inc. Systems and methods for decoding an image to determine a digital identifier
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8527887B2 (en) * 2006-07-19 2013-09-03 Research In Motion Limited Device and method for improving efficiency of entering a password using a key-limited keyboard
KR100821519B1 (ko) * 2007-04-20 2008-04-14 유니챌(주) 단어정보 제공 시스템
US8594387B2 (en) * 2007-04-23 2013-11-26 Intel-Ge Care Innovations Llc Text capture and presentation device
US20120290601A1 (en) * 2007-11-15 2012-11-15 Master Wave International Co., Ltd. Image-based Data Management Method and System
EP2071441A1 (en) 2007-12-03 2009-06-17 Semiconductor Energy Laboratory Co., Ltd. Mobile phone
JP5315891B2 (ja) 2008-09-24 2013-10-16 富士通株式会社 距離測定装置、距離測定方法及び距離測定プログラム
CN101609365B (zh) * 2009-07-21 2012-10-31 上海合合信息科技发展有限公司 字符输入方法及系统、电子设备及其键盘
JP4668345B1 (ja) * 2009-11-25 2011-04-13 シャープ株式会社 情報処理装置、および情報処理装置の制御方法
US8687070B2 (en) * 2009-12-22 2014-04-01 Apple Inc. Image capture device having tilt and/or perspective correction
JP4851604B2 (ja) * 2010-01-27 2012-01-11 京セラ株式会社 携帯電子機器および携帯電子機器の制御方法
EP2383970B1 (en) * 2010-04-30 2013-07-10 beyo GmbH Camera based method for text input and keyword detection
JP5793975B2 (ja) * 2010-08-03 2015-10-14 株式会社リコー 画像処理装置、画像処理方法、プログラム、記録媒体
US20120040717A1 (en) * 2010-08-16 2012-02-16 Veechi Corp Mobile Data Gathering System and Method
KR101748180B1 (ko) 2010-12-31 2017-06-16 주식회사 케이티 영상으로부터 피사체의 크기를 측정하기 위한 방법 및 장치
EP2637128B1 (en) * 2012-03-06 2018-01-17 beyo GmbH Multimodal text input by a keyboard/camera text input module replacing a conventional keyboard text input module on a mobile device
CN103324924A (zh) * 2012-03-19 2013-09-25 宇龙计算机通信科技(深圳)有限公司 一种字符定位的方法、装置及终端
US9916514B2 (en) 2012-06-11 2018-03-13 Amazon Technologies, Inc. Text recognition driven functionality
JP5931639B2 (ja) * 2012-08-01 2016-06-08 シャープ株式会社 携帯端末装置、その制御方法およびその制御プログラム
US9726895B2 (en) * 2012-08-07 2017-08-08 Industry-University Cooperation Foundation Hanyang University Wearable display device having a sliding structure
CN102855482A (zh) * 2012-08-16 2013-01-02 东莞宇龙通信科技有限公司 图片处理方法及装置
JP2014078823A (ja) * 2012-10-10 2014-05-01 Nec Saitama Ltd 携帯電子機器、その制御方法及びプログラム
KR101992194B1 (ko) * 2012-12-31 2019-06-25 엘지전자 주식회사 이동단말기 및 그 제어 방법
CN105230123B (zh) * 2013-05-21 2020-05-05 株式会社半导体能源研究所 发光装置及照相机
CN103713807A (zh) * 2014-01-13 2014-04-09 联想(北京)有限公司 一种信息处理方法和装置
US9582851B2 (en) * 2014-02-21 2017-02-28 Microsoft Technology Licensing, Llc Using proximity sensing to adjust information provided on a mobile device
CN103970452B (zh) * 2014-03-31 2017-09-22 联想(北京)有限公司 一种信息处理方法及装置
CN105631393A (zh) 2014-11-06 2016-06-01 阿里巴巴集团控股有限公司 信息识别方法及装置
CN104820553A (zh) * 2015-04-29 2015-08-05 联想(北京)有限公司 一种信息处理方法及电子设备
CN105389779A (zh) * 2015-10-15 2016-03-09 广东欧珀移动通信有限公司 一种图像校正方法、装置及移动终端
CN106815584A (zh) * 2017-01-19 2017-06-09 安徽声讯信息技术有限公司 一种基于ocr技术的相机手动取景图片转化系统
CN109597267B (zh) * 2017-09-30 2020-06-23 昆山国显光电有限公司 显示装置及显示屏模组
CN116275587B (zh) * 2023-04-17 2023-10-27 霖鼎光学(江苏)有限公司 一种激光切割工件的控制系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9600804D0 (en) * 1996-01-17 1996-03-20 Robb Garry D Multiphone
US6449004B1 (en) * 1996-04-23 2002-09-10 Minolta Co., Ltd. Electronic camera with oblique view correction
US6532035B1 (en) * 2000-06-29 2003-03-11 Nokia Mobile Phones Ltd. Method and apparatus for implementation of close-up imaging capability in a mobile imaging system
JP4240859B2 (ja) * 2001-09-05 2009-03-18 株式会社日立製作所 携帯端末装置及び通信システム
US7343049B2 (en) * 2002-03-07 2008-03-11 Marvell International Technology Ltd. Method and apparatus for performing optical character recognition (OCR) and text stitching
EP1553517B1 (en) * 2002-08-07 2009-12-09 Panasonic Corporation Character recognition processing device, character recognition processing method, and mobile terminal device

Also Published As

Publication number Publication date
CN1595944A (zh) 2005-03-16
JP2005084951A (ja) 2005-03-31
US20050052558A1 (en) 2005-03-10
CN1595944B (zh) 2010-08-18

Similar Documents

Publication Publication Date Title
JP4036168B2 (ja) 携帯電話
JP4038771B2 (ja) 携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム
KR100767921B1 (ko) 휴대 단말 장치 및 휴대 전화기
JP3856813B2 (ja) 携帯端末装置及び撮影画像認識方法
JP4104605B2 (ja) 画像処理装置
JP2010187331A (ja) 撮影装置、撮影方法、撮影プログラム及び携帯端末装置
JP4443194B2 (ja) 携帯端末の文字認識における処理対象選択方法および携帯端末
US9197768B2 (en) Cooperation system, mobile information device, cooperation processing method, and non-transitory computer-readable recording medium encoded with cooperation processing program
JP2022002393A (ja) 画像処理装置、画像データ提供装置、写真撮影遊戯装置、画像データ提供システム、画像表示方法、および画像表示プログラム
KR20050007157A (ko) 정보 처리 장치, 정보 처리 방법 및 소프트웨어
JP2005123908A (ja) 撮像装置
WO2011079437A1 (en) Method and apparatus for receiving input
JP2006268245A (ja) 情報取得装置、および、プログラム
JP4851604B2 (ja) 携帯電子機器および携帯電子機器の制御方法
JP5583479B2 (ja) 携帯電子機器及び画像投影ユニット
US8218072B2 (en) Image pickup system
JP2006323762A (ja) 情報処理装置、撮像方法およびプログラム
CN115473997B (zh) 一种拍摄显示方法、电子设备及存储介质
WO2021084761A1 (ja) 画像読取装置
JP5202452B2 (ja) 携帯電子機器
JP2006060535A (ja) 携帯電話装置
JP2002176674A (ja) 撮像手段付き携帯電話装置
JP2005301914A (ja) 携帯情報機器
JP2005173946A (ja) 携帯情報端末およびその文字認識方法
JP2012023777A (ja) 携帯電子機器および携帯電子機器の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050726

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071022

R151 Written notification of patent or utility model registration

Ref document number: 4036168

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101109

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121109

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121109

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131109

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term