JP2005134968A - 携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム - Google Patents

携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム Download PDF

Info

Publication number
JP2005134968A
JP2005134968A JP2003367224A JP2003367224A JP2005134968A JP 2005134968 A JP2005134968 A JP 2005134968A JP 2003367224 A JP2003367224 A JP 2003367224A JP 2003367224 A JP2003367224 A JP 2003367224A JP 2005134968 A JP2005134968 A JP 2005134968A
Authority
JP
Japan
Prior art keywords
image
display
recognition
processing
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003367224A
Other languages
English (en)
Other versions
JP4038771B2 (ja
Inventor
Daisuke Mochizuki
大介 望月
Tomohisa Tanaka
友久 田中
Makoto Sato
真 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003367224A priority Critical patent/JP4038771B2/ja
Priority to US10/973,684 priority patent/US20050116945A1/en
Priority to CNA2004100822322A priority patent/CN1638391A/zh
Priority to KR1020040086738A priority patent/KR20050040799A/ko
Publication of JP2005134968A publication Critical patent/JP2005134968A/ja
Application granted granted Critical
Publication of JP4038771B2 publication Critical patent/JP4038771B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1456Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on user interactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/58Details of telephonic subscriber devices including a multilanguage function

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • Character Input (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】撮影された画像中から、所定の領域を文字認識して表示するようにする。
【解決手段】CCDカメラ29は、被写体を撮像し、得られた画像データをメモリ32に記憶させる。表示画像生成部33は、メモリ32に記憶されている画像データを読み出し、LCD23に表示させる。ユーザは、その表示を見ながら、操作部35を操作して、認識対象となる画像の始点および終点を選択する。画像処理/文字認識部37は、選択された画像領域を文字認識し、その認識結果をメモリ32に記憶させる。表示画像生成部33は、メモリ32に記憶されている文字認識結果の文字列データを読み出し、LCD23に表示させる。本発明は、携帯電話機などの携帯型情報端末装置に適用することができる。
【選択図】図2

Description

本発明は、携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラムに関し、特に、例えば、撮影された画像中から所定の領域を選択し、それを文字認識して表示することができるようにした携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラムに関する。
従来のカメラ付き携帯電話機において、例えば、画面に表示される枠内に、本などに記載されている文字列を当てはめて撮影することにより、その枠内の画像(文字列)を文字認識し、端末内でキャラクタデータとして利用するようにしているものがある。
この一例として、広告に記載されているホームページのアドレスを撮影し、それを文字認識することにより、簡単に、サーバにアクセスすることができるようにしているものが提案されている(例えば、特許文献1参照)。
特開2002−366463号公報
しかしながら、枠内に文字列を当てはめて撮影する際、ユーザは、文字のサイズや文字列の傾きを気にしつつ撮影する必要があり、操作が煩雑になる課題があった。
また、文章中から、文字認識させたい所定の文字列だけを枠内に当てはめることは困難である課題があった。
本発明はこのような状況に鑑みてなされたものであり、文字認識させたい文字列を含む文章などを撮影し、撮影された画像中から所定の文字列を選択し、それを文字認識することができるようにするものである。
本発明の携帯型情報端末装置は、被写体を撮像する撮像手段と、撮像手段により撮像された被写体に基づく画像の表示を制御する第1の表示制御手段と、第1の表示制御手段により表示が制御されている画像から、認識対象となる画像領域を選択する選択手段と、選択手段により選択された画像領域を認識する認識手段と、認識手段による認識結果の表示を制御する第2の表示制御手段とを備えることを特徴とする。
前記選択手段は、認識対象となる画像領域の始点および終点を選択するようにすることができる。
前記第1の表示制御手段は、画像の始点を指定するためのマークの表示をさらに制御し、マーク付近に認識対象となる画像が存在した場合、その画像に照準を合わせるように制御する照準制御手段をさらに設けるようにすることができる。
前記選択手段により選択された画像領域の拡張が指示された場合、画像領域に後続する画像を抽出する抽出手段をさらに設けるようにすることができる。
前記認識手段による認識結果を翻訳する翻訳手段をさらに設けるようにすることができる。
前記認識手段による認識結果に基づいて、他の装置にアクセスするアクセス手段をさらに設けるようにすることができる。
本発明の情報処理方法は、被写体を撮像する撮像ステップと、撮像ステップの処理により撮像された被写体に基づく画像の表示を制御する第1の表示制御ステップと、第1の表示制御ステップの処理により表示が制御されている画像から、認識対象となる画像領域を選択する選択ステップと、選択ステップの処理により選択された画像領域を認識する認識ステップと、認識ステップの処理による認識結果の表示を制御する第2の表示制御ステップとを含むことを特徴とする。
本発明の記録媒体に記録されているプログラムは、被写体を撮像する撮像ステップと、撮像ステップの処理により撮像された被写体に基づく画像の表示を制御する第1の表示制御ステップと、第1の表示制御ステップの処理により表示が制御されている画像から、認識対象となる画像領域を選択する選択ステップと、選択ステップの処理により選択された画像領域を認識する認識ステップと、認識ステップの処理による認識結果の表示を制御する第2の表示制御ステップとを含む処理をコンピュータに行わせることを特徴とする。
本発明のプログラムは、被写体を撮像する撮像ステップと、撮像ステップの処理により撮像された被写体に基づく画像の表示を制御する第1の表示制御ステップと、第1の表示制御ステップの処理により表示が制御されている画像から、認識対象となる画像領域を選択する選択ステップと、選択ステップの処理により選択された画像領域を認識する認識ステップと、認識ステップの処理による認識結果の表示を制御する第2の表示制御ステップとを含む処理をコンピュータに行わせることを特徴とする。
本発明においては、被写体が撮像され、撮像された被写体に基づく画像が表示され、表示されている画像から認識対象となる画像領域が選択され、選択された画像領域が認識され、その認識結果が表示される。
本発明によれば、撮影した画像を文字認識することができる。特に、撮影した画像中から、所定の領域を選択し、それを文字認識することが可能となる。
以下に本発明を実施するための最良の形態を説明するが、開示される発明と実施の形態との対応関係を例示すると、次のようになる。本明細書には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。
さらに、この記載は、明細書に記載されている発明の全てを意味するものではない。換言すれば、この記載は、明細書に記載されている発明であって、この出願では請求されていない発明の存在、すなわち、将来、分割出願されたり、補正により出現し、追加される発明の存在を否定するものではない。
本発明は、被写体を撮像する撮像手段(例えば、図4のステップS11の処理を実行する図1と図2のCCDカメラ29)と、撮像手段により撮像された被写体に基づく画像の表示を制御する第1の表示制御手段(例えば、図4のステップS13の処理を実行する図1と図2のLCD23)と、第1の表示制御手段により表示が制御されている画像から、認識対象となる画像領域を選択する選択手段(例えば、図8のステップS22,S27の処理を実行する図2の表示画像生成部33、および、図8のステップS23乃至S26の処理を実行する図2のコントロール部31)と、選択手段により選択された画像領域を認識する認識手段(例えば、図12のステップS52の処理を実行する図2の画像処理/文字認識部37)と、認識手段による認識結果の表示を制御する第2の表示制御手段(例えば、図12のステップS53の処理を実行する図1と図2のLCD23)とを備える携帯型情報端末装置を提供する。
前記選択手段は、認識対象となる画像領域の始点および終点を(例えば、図10A乃至図10Gに示すようにして)選択するようにすることができる。
この携帯型情報端末装置は、前記第1の表示制御手段は、画像の始点を指定するためのマーク(例えば、図5に示す指定点マーク53)の表示をさらに制御し、マーク付近に認識対象となる画像が存在した場合、その画像に照準を合わせるように制御する照準制御手段(例えば、図4のステップS16の処理を実行する図2のコントロール部31)をさらに設けるようにすることができる。
この携帯型情報端末装置は、選択手段により選択された画像領域の拡張が指示された場合、画像領域に後続する画像を抽出する抽出手段(例えば、図11の処理を実行する図2のコントロール部31)をさらに設けるようにすることができる。
この携帯型情報端末装置は、認識手段による認識結果を翻訳する翻訳手段(例えば、図12のステップS56の処理を実行する図2の翻訳部38)をさらに設けるようにすることができる。
この携帯型情報端末装置は、認識手段による認識結果に基づいて、他の装置にアクセスするアクセス手段(例えば、図19のステップS106の処理を実行する図2のコントロール部31)をさらに設けるようにすることができる。
また、本発明は、被写体を撮像する撮像ステップ(例えば、図4のステップS11)と、撮像ステップの処理により撮像された被写体に基づく画像の表示を制御する第1の表示制御ステップ(例えば、図4のステップS13)と、第1の表示制御ステップの処理により表示が制御されている画像から、認識対象となる画像領域を選択する選択ステップ(例えば、図8のステップS22乃至S27)と、選択ステップの処理により選択された画像領域を認識する認識ステップ(例えば、図12のステップS52)と、認識ステップの処理による認識結果の表示を制御する第2の表示制御ステップ(例えば、図12のステップS53)とを含む情報処理方法を提供する。
また、本発明は、被写体を撮像する撮像ステップ(例えば、図4のステップS11)と、撮像ステップの処理により撮像された被写体に基づく画像の表示を制御する第1の表示制御ステップ(例えば、図4のステップS13)と、第1の表示制御ステップの処理により表示が制御されている画像から、認識対象となる画像領域を選択する選択ステップ(例えば、図8のステップS22乃至S27)と、選択ステップの処理により選択された画像領域を認識する認識ステップ(例えば、図12のステップS52)と、認識ステップの処理による認識結果の表示を制御する第2の表示制御ステップ(例えば、図12のステップS53)とを含む処理をコンピュータに行わせるプログラムを提供する。
このプログラムは、記録媒体に記録することができる。
以下に、本発明の実施の形態について図面を参照して説明する。
図1は、本発明を適用したカメラ付き携帯電話機の外観の構成例を示す図である。
図1に示されるように、カメラ付き携帯電話機1(以下、単に携帯電話機1と称する)は、基本的に、表示部12および本体13から構成され、中央のヒンジ部11により折り畳み可能に形成されている。
表示部12の上端左部には、アンテナ21が設けられており、このアンテナ21を介して、基地局103(図15)との間で電波が送受信される。表示部12の上端近傍には、スピーカ22が設けられており、このスピーカ22から音声が出力される。
表示部12のほぼ中央には、LCD(Liquid Crystal Display)23が設けられている。LCD23には、電波の受信状態、電池の残量、電話帳として登録されている氏名や電話番号、および発信履歴の他、入力ボタン27が操作されることにより作成された文章(電子メールとして送信する文章)、あるいは、CCD(Charge Coupled Device)カメラ29により撮像された画像などが表示される。
一方、本体13には、「0」乃至「9」の数字ボタン(テンキー)、「*」ボタン、「□」ボタンからなる入力ボタン27が設けられている。ユーザは、この入力ボタン27を操作することで、例えば、電子メールとして送信する文章やメモ帳などを作成することができる。
また本体13の入力ボタン27の上方中央には、水平方向(筐体の左右方向)を軸として回転自在なジョグダイヤル24が、本体13の表面から僅かに突出した状態で設けられている。例えば、このジョグダイヤル24に対する回転操作に応じて、LCD23に表示されている電子メールのスクロール等が行われる。ジョグダイヤル24の左右には、左方向ボタン25、および右方向ボタン26がそれぞれ設けられている。本体13の下方近傍には、マイクロフォン28が設けられており、ユーザの音声が集音される。
ヒンジ部11のほぼ中央には、180度の角度範囲で回動自在なCCDカメラ29が設けられており、所望の被写体(本実施の形態では、本などに記載された文章)が撮影される。
図2は、携帯電話機1の内部の構成例を示すブロック図である。
コントロール部31は、例えば、CPU(Central Processing Unit),ROM(Read Only Memory),RAM(Random Access Memory)などで構成され、CPUがROMに記憶されている制御プログラムをRAMに展開することにより、CCDカメラ29、メモリ32、表示画像生成部33、通信制御部34、音声処理部36、画像処理/文字認識部37、翻訳部38、およびドライブ39の動作を制御する。
CCDカメラ29は、被写体の画像を撮像し、得られた画像データをメモリ32に供給する。メモリ32は、CCDカメラ29から供給された画像データを記憶するとともに、記憶した画像データを表示画像生成部33および画像処理/文字認識部37に供給する。表示画像生成部33は、LCD23の表示を制御し、CCDカメラ29により撮像された画像や画像処理/文字認識部37により認識された文字列等をLCD23に表示させる。
通信制御部34は、アンテナ21を介して基地局103(図15)との間で電波を送受信し、例えば、音声通話モード時において、アンテナ21で受信されたRF(Radio Frequency)信号を増幅して周波数変換処理、アナログディジタル変換処理、スペクトラム逆拡散処理等の所定の処理を施し、得られた音声データを音声処理部36に出力する。また、通信制御部34は、音声処理部36から音声データが供給されてきたとき、ディジタルアナログ変換処理、周波数変換処理、およびスペクトラム拡散処理等の所定の処理を施し、得られた音声信号をアンテナ21から送信する。
操作部35は、ジョグダイヤル24、左方向ボタン25、右方向ボタン26、および入力ボタン27等により構成され、ユーザにより、それらのボタンが押下されたとき、または押下された状態から離されたとき、対応する信号をコントロール部31に出力する。
音声処理部36は、通信制御部34から供給されてきた音声データを音声信号に変換し、対応する音声信号をスピーカ22から出力する。また、音声処理部36は、マイクロフォン28により集音されたユーザの音声を音声データに変換し、それを通信制御部34に出力する。
画像処理/文字認識部37は、メモリ32から供給されてきた画像データに対して所定の文字認識アルゴリズムを用いて文字認識を行い、文字認識結果をコントロール部31に供給するとともに、必要に応じて翻訳部38に供給する。翻訳部38は、辞書データを保持しており、その辞書データに基づいて、画像処理/文字認識部37から供給されてきた文字認識結果を翻訳し、翻訳結果をコントロール部31に供給する。
コントロール部31には、必要に応じてドライブ39が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは、半導体メモリなどのリムーバブルメディア40が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて携帯電話機1にインストールされる。
次に、図3のフローチャートを参照して、携帯電話機1の文字認識処理について説明する。この処理は、例えば、ユーザが、本などに記載された文章の中から所定の文字列を認識させたい場合において、LCD23に表示されるメニューから文字認識処理を開始する項目(図示せず)が選択されたとき、開始される。またこのとき、ユーザは、認識させる文字列が横書きであるか、または縦書きであるかを選択する。ここでは、認識させる文字列が横書きである場合について説明する。
ステップS1において、ユーザが認識させたい文字列をCCDカメラ29で撮像するために、その認識させたい文字列に照準を合わせるべく照準モード処理が実行される。この照準モード処理により、認識対象となる画像(文字列)の始点(先頭文字)が決定される。ステップS1の照準モード処理の詳細については、図4のフローチャートを参照して後述する。
ステップS2において、ステップS1の処理で決定された画像を始点として、認識対象となる画像領域を選択するべく選択モード処理が実行される。この選択モード処理により、認識対象となる画像領域(文字列)が決定される。ステップS2の選択モード処理の詳細については、図8のフローチャートを参照して後述する。
ステップS3において、ステップS2の処理で決定された文字列を認識し、その認識結果を表示するべく結果表示モード処理が実行される。この結果表示モード処理により、選択された画像が認識され、その認識結果が表示され、認識された文字列が翻訳される。ステップS3の結果表示モード処理の詳細については、図12のフローチャートを参照して後述する。
以上のように、携帯電話機1は、本などに記載された文章を撮像し、撮像された画像中から所定の文字列を選択して認識し、その認識結果を表示するといったような処理を行うことができる。
次に、図4のフローチャートを参照して、図3のステップS1における照準モード処理の詳細について説明する。
ユーザは、認識させたい文字列が記載されている本などに携帯電話機1を近接させる。そして、CCDカメラ29により撮像されているスルー画像(いわゆるモニタリング中の画像)を見ながら、そこに表示される指定点マーク53(図5)に、認識させたい文字列の先頭文字が合致するように携帯電話機1の位置を調整する。
このとき、ステップS11において、CCDカメラ29は、撮像されているスルー画像を取得し、メモリ32に供給する。ステップS12において、メモリ32は、CCDカメラ29から供給されたスルー画像を記憶する。ステップS13において、表示画像生成部33は、メモリ32に記憶されているスルー画像を読み出し、例えば、図5に示されるように、指定点マーク53とともにスルー画像をLCD23に表示させる。
図5の例の場合、LCD23には、撮像画像を表示する画像表示エリア51、および、「認識する文字の始点を決めてください」と示されたダイアログ52が表示されている。また、指定点マーク53は、画像表示エリア51のほぼ中央に表示されている。ユーザは、この画像表示エリア51に表示されている指定点マーク53を、認識対象となる画像の始点に合致するように照準を合わせる。
ステップS14において、コントロール部31は、表示画像生成部33によりLCD23に表示されているスルー画像のうち、指定点マーク53を中心とした所定領域内のスルー画像を抽出する。ここで、携帯電話機1には、図6に示されるように、指定点マーク53を中心とした領域61が予め設定されており、コントロール部31は、この領域61内のスルー画像を抽出する。なお、領域61は、説明をわかりやすくするために、仮想的に図示したものであり、実際には、内部情報としてコントロール部31により管理される。
ステップS15において、コントロール部31は、ステップS14の処理で抽出した領域61内のスルー画像において、認識対象となる画像(文字列)が存在するか否かを判定する。より具体的には、例えば、白色の紙に黒色で文章が記載されている場合、領域61内に黒色の画像が存在するか否かが判定される。また例えば、予め、様々な文字の形状がデータベースとして登録されており、領域61内に、データベースに登録されている文字の形状と一致するものがあるか否かが判定される。なお、認識対象となる画像が存在するか否かを判定する方法は、画像の色差を利用したり、データベースとの合致を利用したりするものに限られるものではない。
ステップS15において、認識対象となる画像が存在しないと判定された場合、ステップS11に戻り、上述した処理が繰り返し実行される。一方、ステップS15において、認識対象となる画像が存在すると判定された場合、ステップS16に進み、コントロール部31は、領域61内に存在した認識対象となる画像のうち、指定点マーク53に最も近い画像に照準を合わせる。そして、表示画像生成部33は、指定点マーク53に最も近い画像と照準済みマーク71を合成し、その合成画像をLCD23に表示させる。
図7は、認識対象となる画像(文字列)と照準済みマーク71の合成画像の表示例を示している。同図に示されるように、画像表示エリア51には、認識対象となる“snapped”の画像の先頭画像である“s”に照準済みマーク71が合成されて表示されている。このように、領域61内に認識対象となる画像が存在した場合、指定点マーク53に最も近い画像に照準が自動的に合わされ、照準済みマーク71が表示される。なお、この照準済み状態から、携帯電話機1の位置が調整されるなどして、領域61内に認識対象となる画像が存在しなくなると、再び指定点マーク53に表示が切り替えられる。
ステップS17において、コントロール部31は、ユーザにより決定ボタンが押下されたか否か、すなわち、ジョグダイヤル24が押圧されたか否かを判定し、決定ボタンが押下されていないと判定した場合、ステップS11に戻り、上述した処理を繰り返し実行する。そして、ステップS17において、ユーザにより決定ボタンが押下されたと判定された場合、処理は、図3のステップS2にリターンされる(すなわち、選択モード処理に遷移される)。
このような照準モード処理が実行されることにより、ユーザが認識させたい文字列の始点(先頭文字)に照準が合わされる。
次に、図8のフローチャートを参照して、図3のステップS2における選択モード処理の詳細について説明する。
上述した図4の照準モード処理において、認識対象となる画像(文字列)の先頭(いまの場合、“s”)に照準が合わされ、決定ボタンが押下されると、ステップS21において、表示画像生成部33は、現在選択されている画像(すなわち、“s”)を囲む領域として、文字列選択領域81(図9)を初期化する。ステップS22において、表示画像生成部33は、メモリ32に記憶されている画像とステップS21の処理で初期化された文字列選択領域81を合成し、その合成画像をLCD23に表示させる。
図9は、認識対象となる画像の先頭と文字列選択領域81の合成画像の表示例を示している。同図に示されるように、認識対象となる画像の先頭画像である“s”を囲むようにして文字列選択領域81が合成され、表示されている。またダイアログ52には、「認識する文字の終点を決めてください」と示されたメッセージが表示されている。ユーザは、このダイアログ52に示されているメッセージに従い、右方向ボタン26を押下し、認識対象となる画像の終点まで文字列選択領域81を拡張させる。
ステップS23において、コントロール部31は、ユーザによりジョグダイヤル24、左方向ボタン25、右方向ボタン26、または入力ボタン27等のボタンが押下されたか否か、すなわち、操作部35から入力信号が供給されたか否かを判定し、ボタンが押下されたと判定するまで待機する。そして、ステップS23において、ボタンが押下されたと判定された場合、ステップS24に進み、コントロール部31は、操作部35から供給された入力信号から、決定ボタン(すなわち、ジョグダイヤル24)が押下されたか否かを判定する。
ステップS24において、決定ボタンが押下されていないと判定された場合、ステップS25に進み、コントロール部31は、さらに、文字列選択領域81を拡張するボタン(すなわち、右方向ボタン26)が押下されたか否かを判定し、文字列選択領域81を拡張するボタンが押下されていないと判定した場合、その操作は無効であると判断して、ステップS23に戻り、上述した処理を繰り返し実行する。
ステップS25において、文字列選択領域81を拡張するボタンが押下されたと判定された場合、ステップS26に進み、文字列選択領域81に後続する画像の抽出処理が実行される。この後続画像の抽出処理により、文字列選択領域81が既に選択している画像の後続画像が抽出される。ステップS26の後続画像の抽出処理の詳細については、図11のフローチャートを参照して後述する。
ステップS27において、表示画像生成部33は、ステップS26の処理で抽出した後続画像を含むように、文字列選択領域81を更新する。その後、処理はステップS22に戻り、上述した処理が繰り返し実行される。そして、ステップS24において、決定ボタンが押下されたと判定された場合、処理は、図3のステップS3にリターンされる(すなわち、結果表示モード処理に遷移される)。
図10A乃至図10Gは、ステップS22乃至S27の処理が繰り返し実行されることにより、認識対象となる画像領域(文字列)が選択される動作を示している。すなわち、先頭画像の“s”が始点に決定された後(図10A)、文字列選択領域81を拡張するボタン(すなわち、右方向ボタン26)が1回押下されることで、“sn”が選択される(図10B)。同様にして、右方向ボタン26が順次押下されることで、“sna”(図10C)、“snap”(図10D)、“snapp”(図10E)、“snappe”(図10F)、および“snapped”(図10G)の順に選択される。
このような選択モード処理が実行されることにより、ユーザが認識させたい文字列の範囲(始点から終点)が決定される。
なお、図示は省略するが、左方向ボタン25が押下されることで、その選択が順次解除される。例えば、文字列選択領域81により“snapped”が選択されている状態において(図10G)、左方向ボタン25が1回押下されると、“d”の選択が解除され、“snappe”が選択される状態に更新される(図10F)。
次に、図11のフローチャートを参照して、図8のステップS26の処理における、文字列選択領域81に後続する画像の抽出処理の詳細について説明する。
ステップS41において、コントロール部31は、画像中から文字となる画像を全て抽出し、その重心点(x_i,y_i)(i=1,2,3・・・)を求める。ステップS42において、コントロール部31は、ステップS41の処理で求めた全ての重心点(x_i,y_i)に対してθρ−Hough変換を行い、(ρ,θ)空間に変換する。
ここで、θρ−Hough変換とは、画像処理において直線検出に用いられるアルゴリズムであり、次式(1)を用いて、(x,y)座標空間から(ρ,θ)空間への変換が行われる。
ρ=x・cosθ+y・sinθ ・・・(1)
例えば、(x,y)座標空間における1つの点(x',y')に対してθρ−Hough変換が行われると、(ρ,θ)空間では、次式(2)で表現される正弦波形となる。
ρ=x'・cosθ+y'・sinθ ・・・(2)
また例えば、(x,y)座標空間における2つの点に対してθρ−Hough変換が行われると、(ρ,θ)空間では、所定の部分で正弦波が交点を持つ部分がでてくる。この交点の座標(ρ',θ')が、次式(3)で表現される(x,y)座標空間の2つの点を通る直線のパラメータとなる。
ρ=x・cosθ+y・sinθ ・・・(3)
また例えば、文字となる画像の全ての重心点に対してθρ−Hough変換が行われると、(ρ,θ)空間では、多数の正弦波が交わる部分がでてくる。その交わり位置のパラメータが、(x,y)座標空間で複数の重心を通る直線のパラメータ、すなわち、文字列を通る直線のパラメータとなる。
正弦波の交わりの回数を(ρ,θ)空間における値とした場合、複数の行が存在する画像では、大きな値を持つ部分が複数でてくる。そこでステップS43において、コントロール部31は、このような大きな値を持ち、かつ、照準物体の重心付近を通るような直線のパラメータを1つ見つけ、それを照準物体が属する直線のパラメータとする。
ステップS44において、コントロール部31は、ステップS43の処理で求めた直線のパラメータから、その傾き方向を求める。ステップS45において、コントロール部31は、ステップS44の処理で求めた直線パラメータの傾き方向の右側に存在する画像を抽出する。ステップS46において、コントロール部31は、ステップS45の処理で抽出した画像を後続画像と判断し、処理は、図8のステップS27にリターンする。
なお、図3の文字認識処理を開始するにあたって、ユーザにより、認識させる文字が横書きであることが選択されているため、ステップS45において、傾き方向の右側に存在する画像が抽出されるが、認識させる文字が縦書きであることが選択された場合には、傾き方向の下側に存在する画像が抽出される。
以上のような後続画像の抽出処理が実行されることにより、現在の文字列選択領域81の後続(右側または下側)の画像が抽出される。
次に、図12のフローチャートを参照して、図3のステップS3における結果表示モード処理の詳細について説明する。
上述した図8の選択モード処理において、認識対象となる画像(文字列)が文字列選択領域81により選択され、決定ボタンが押下されると、ステップS51において、画像処理/文字認識部37は、メモリ32に記憶されている画像のうち、文字列選択領域81内の画像(いまの場合、“snapped”)を、所定の文字認識アルゴリズムを用いて文字認識する。
ステップS52において、画像処理/文字認識部37は、ステップS51の処理による文字認識結果の文字列データをメモリ32に記憶させる。ステップS53において、表示画像生成部33は、メモリ32に記憶されている文字認識結果の文字列データを読み出し、例えば、図13に示されるような画面をLCD23に表示させる。
図13の例の場合、画像表示エリア51には、「snapped」と示された文字認識結果91が表示されており、ダイアログ52には、「翻訳しますか?」と示されたメッセージが表示されている。ユーザは、このダイアログ52に示されているメッセージに従い、決定ボタン(ジョグダイヤル24)を押下する。これにより、携帯電話機1は、認識された文字を翻訳することができる。
ステップS54において、コントロール部31は、ユーザによりジョグダイヤル24、左方向ボタン25、右方向ボタン26、または入力ボタン27等のボタンが押下されたか否か、すなわち、操作部35から入力信号が供給されたか否かを判定し、ボタンが押下されていないと判定した場合、ステップS53に戻り、上述した処理を繰り返し実行する。
そして、ステップS54において、ボタンが押下されたと判定された場合、ステップS55に進み、さらに、コントロール部31は、ユーザにより決定ボタンが押下されたか否か、すなわち、ジョグダイヤル24が押圧されたか否かを判定する。ステップS55において、決定ボタンが押下されたと判定された場合、ステップS56に進み、翻訳部38は、ステップS51の処理で画像処理/文字認識部37により文字認識され、ステップS53の処理で認識結果としてLCD23に表示されている文字列データを、所定の辞書データを用いて翻訳する。
ステップS57において、表示画像生成部33は、ステップS56の処理で翻訳された翻訳結果を、例えば、図14に示されるように、LCD23に表示させる。
図14の例の場合、画像表示エリア51には、「snapped」と示された文字認識結果91が表示されており、ダイアログ52には、「翻訳:撮った」と示された翻訳結果が表示されている。このように、ユーザは、選択した文字列の翻訳を簡単に行うことができる。
ステップS58において、コントロール部31は、ユーザによりジョグダイヤル24、左方向ボタン25、右方向ボタン26、または入力ボタン27等のボタンが押下されたか否か、すなわち、操作部35から入力信号が供給されたか否かを判定し、ボタンが押下されていないと判定した場合、ステップS57に戻り、上述した処理を繰り返し実行する。そして、ステップS58において、ボタンが押下されたと判定された場合、処理は終了される。
このような結果表示モード処理が実行されることにより、認識された文字列が認識結果として表示され、必要に応じて、認識された文字列が翻訳される。
また、認識結果が表示される際、認識された文字列を利用するアプリケーション(例えば、インターネットブラウザ、翻訳ソフト、またはテキスト作成ソフトなど)を選択可能に表示することも可能である。具体的には、例えば、認識結果として、“Hello”が表示される際に、翻訳ソフトやテキスト作成ソフトがアイコンなどで選択可能に表示される。そして、ユーザにより翻訳ソフトが選択された場合には、“こんにちは”に翻訳され、テキスト作成ソフトが選択された場合には、テキスト作成画面に“Hello”が入力される。
以上のように、携帯電話機1は、本などに記載された文章をCCDカメラ29により撮像し、撮像された画像を文字認識し、認識結果で得られた文字列を簡単に翻訳することができる。すなわち、ユーザは、翻訳したいと思う文字列を入力しなくても、その文字列を携帯電話機1のCCDカメラ29で撮像させるだけで、簡単に翻訳することが可能となる。
また、認識する文字のサイズや文字列の傾きに注力する必要がないため、文字列の位置合わせといったユーザの操作の負担を軽減することができる。
以上においては、本などに記載された文字列(英単語)をCCDカメラ29により撮像し、撮像された画像を文字認識し、文字認識で得られた文字列を翻訳するようにしたが、本発明はこれに限られるものではなく、例えば、本などに記載されたURL(Uniform Resource Locator)をCCDカメラ29により撮像し、撮像された画像を文字認識し、文字認識で得られたURLに基づいてサーバなどにアクセスすることもできる。
図15は、本発明を適用したサーバアクセスシステムの構成例を示す図である。このシステムにおいては、インターネットなどのネットワーク102に、サーバ101が接続されているとともに、固定無線端末である基地局103を介して携帯電話機1が接続されている。
サーバ101は、例えば、ワークステーションまたはコンピュータなどで構成され、そのCPU(図示せず)がサーバプログラムを実行し、携帯電話機1からの要求に基づいて、自己が開設するホームページに関するコンパクトHTML(Hypertext Markup Language)ファイルを、ネットワーク102を介して配信する。
基地局103は、移動無線端末である、携帯電話機1を、例えば、W-CDMA(Wideband-Code Division Multiple Access)と呼ばれる符号分割多元接続により無線接続し、大容量データを高速にデータ通信する。
携帯電話機1は、基地局103とW-CDMA方式により大容量データを高速にデータ通信できるので、音声通話に限らず、電子メールの送受信、簡易ホームページの閲覧、画像の送受信等の多種に及ぶデータ通信を実行することができる。
また携帯電話機1は、本などに記載されたURLをCCDカメラ29により撮像し、撮像された画像を文字認識し、文字認識で得られたURLに基づいてサーバ101にアクセスすることができる。
次に、再び図3のフローチャートを参照して、図15に示した携帯電話機1の文字認識処理について説明する。なお、説明が上述した内容と重複する場合には、適宜省略する。
ステップS1において、照準モード処理が実行されるこれにより、認識対象となる画像(URL)の始点(先頭文字)が決定される。ステップS2において、選択モード処理が実行されることにより、認識対象となる画像領域が決定される。ステップS3において、結果表示モード処理が実行されることにより、選択された画像が認識され、その認識結果(URL)が表示され、認識されたURLに基づいてサーバ101にアクセスされる。
次に、再び図4のフローチャートを参照して、図3のステップS1における照準モード処理の詳細について説明する。
ユーザは、認識させたいURLが記載されている本などに携帯電話機1を近接させる。そして、CCDカメラ29により撮像されているスルー画像を見ながら、そこに表示される指定点マーク53(図16)に、認識させたいURLの先頭文字(いまの場合、h)が合致するように携帯電話機1の位置を調整する。
このとき、ステップS11において、CCDカメラ29は、撮像されているスルー画像を取得し、ステップS12において、メモリ32は、そのスルー画像を記憶する。ステップS13において、表示画像生成部33は、メモリ32に記憶されているスルー画像を読み出し、例えば、図16に示されるように、指定点マーク53とともにスルー画像をLCD23に表示させる。
図16の例の場合、LCD23には、撮像画像を表示する画像表示エリア51、および、「認識する文字の始点を決めてください」と示されたダイアログ52が表示されている。また、指定点マーク53は、画像表示エリア51のほぼ中央に表示されている。ユーザは、この画像表示エリア51に表示されている指定点マーク53を、認識対象となる画像の始点に合致するように照準を合わせる。
ステップS14において、コントロール部31は、表示画像生成部33によりLCD23に表示されているスルー画像のうち、指定点マーク53を中心とした所定の領域61(図6)内のスルー画像を抽出する。ステップS15において、コントロール部31は、ステップS14の処理で抽出した領域61内のスルー画像において、認識対象となる画像(URL)が存在するか否かを判定し、認識対象となる画像が存在しないと判定した場合、ステップS11に戻り、上述した処理を繰り返し実行する。
ステップS15において、認識対象となる画像が存在すると判定された場合、ステップS16に進み、コントロール部31は、領域61内に存在した認識対象となる画像のうち、指定点マーク53に最も近い画像に照準を合わせる。そして、表示画像生成部33は、指定点マーク53に最も近い画像と照準済みマーク71(図7)を合成し、その合成画像をLCD23に表示させる。
ステップS17において、コントロール部31は、ユーザにより決定ボタンが押下されたか否か、すなわち、ジョグダイヤル24が押圧されたか否かを判定し、決定ボタンが押下されていないと判定した場合、ステップS11に戻り、上述した処理を繰り返し実行する。そして、ステップS17において、ユーザにより決定ボタンが押下されたと判定された場合、処理は、図3のステップS2にリターンされる(すなわち、選択モード処理に遷移される)。
このような照準モード処理が実行されることにより、ユーザが認識させたいURLの始点(先頭文字)に照準が合わされる。
次に、再び図8のフローチャートを参照して、図3のステップS2における選択モード処理の詳細について説明する。
ステップS21において、表示画像生成部33は、文字列選択領域81(図17)を初期化し、ステップS22において、メモリ32に記憶されている画像と初期化された文字列選択領域81を合成し、その合成画像をLCD23に表示させる。
図17は、認識対象となる画像の先頭と文字列選択領域81の合成画像の表示例を示している。同図に示されるように、認識対象となる画像の先頭画像である“h”を囲むようにして文字列選択領域81が合成され、表示されている。またダイアログ52には、「認識する文字の終点を決めてください」と示されたメッセージが表示されている。ユーザは、このダイアログ52に示されているメッセージに従い、右方向ボタン26を押下し、認識対象となる画像の終点まで文字列選択領域81を拡張させる。
ステップS23において、コントロール部31は、ユーザによりボタンが押下されたか否かを判定し、ボタンが押下されたと判定するまで待機する。そして、ステップS23において、ボタンが押下されたと判定された場合、ステップS24に進み、コントロール部31は、操作部35から供給される入力信号から、決定ボタン(すなわち、ジョグダイヤル24)が押下されたか否かを判定し、決定ボタンが押下されていないと判定した場合、ステップS25に進む。
ステップS25において、コントロール部31は、さらに、文字列選択領域81を拡張するボタン(すなわち、右方向ボタン26)が押下されたか否かを判定し、文字列選択領域81を拡張するボタンが押下されていないと判定した場合、その操作は無効であると判断し、ステップS23に戻り、上述した処理を繰り返し実行する。ステップS25において、文字列選択領域81を拡張するボタンが押下されたと判定された場合、ステップS26に進み、図11のフローチャートを参照して上述したようにして、コントロール部31は、文字列選択領域81に後続する画像を抽出する。
ステップS27において、表示画像生成部33は、ステップS26の処理で抽出した後続画像を含むように、文字列選択領域81を更新する。その後、処理はステップS22に戻り、上述した処理が繰り返し実行される。そして、ステップS24において、決定ボタンが押下されたと判定された場合、処理は、図3のステップS3にリターンされる(すなわち、結果表示モード処理に遷移される)。
図18は、ステップS22乃至S27の処理が繰り返し実行されることにより、認識対象となる画像が文字列選択領域81により選択された様子を示している。図18の例の場合、URLの“http://www.aaa.co.jp”が文字列選択領域81により選択されている。
このような選択モード処理が実行されることにより、ユーザが認識させたい文字列(URL)の範囲(始点から終点)が決定される。
次に、図19のフローチャートを参照して、図3のステップS3における結果表示モード処理の詳細について説明する。なお、説明が図12を用いて上述した内容と重複する場合には、適宜省略する。
ステップS101において、画像処理/文字認識部37は、メモリ32に記憶されている画像のうち、文字列選択領域81内の画像(いまの場合、“http://www.aaa.co.jp”)を、所定の文字認識アルゴリズムを用いて文字認識し、ステップS102において、その文字認識結果の文字列データをメモリ32に記憶させる。ステップS103において、表示画像生成部33は、メモリ32に記憶されている文字認識結果の文字列データを読み出し、例えば、図20に示されるような画面をLCD23に表示させる。
図20の例の場合、画像表示エリア51には、「http://www.aaa.co.jp」と示された文字認識結果91が表示されており、ダイアログ52には、「アクセスしますか?」と示されたメッセージが表示されている。ユーザは、このダイアログ52に示されているメッセージに従い、決定ボタン(ジョグダイヤル24)を押下する。これにより、携帯電話機1は、認識されたURLに基づいて、サーバ101へアクセスし、所望のホームページを閲覧することができる。
ステップS104において、コントロール部31は、ユーザによりボタンが押下されたか否かを判定し、ボタンが押下されていないと判定した場合、ステップS103に戻り、上述した処理を繰り返し実行する。そして、ステップS104において、ボタンが押下されたと判定された場合、ステップS105に進み、さらに、コントロール部31は、ユーザにより決定ボタンが押下されたか否か、すなわち、ジョグダイヤル24が押圧されたか否かを判定する。
ステップS105において、決定ボタンが押下されたと判定された場合、ステップS106に進み、コントロール部31は、ステップS101の処理で画像処理/文字認識部37により文字認識されたURLに基づいて、ネットワーク102を介してサーバ101にアクセスする。
ステップS107において、コントロール部31は、ユーザによりサーバ101との接続が切断されたか否かを判定し、サーバ101との接続が切断されるまで待機する。そして、ステップS107において、サーバ101との接続が切断されたと判定された場合、あるいは、ステップS105において、決定ボタンが押下されていない(すなわち、サーバ101へのアクセスが指示されていない)と判定された場合、処理は終了される。
このような結果表示モード処理が実行されることにより、認識されたURLが認識結果として表示され、必要に応じて、認識されたURLに基づいて所定のサーバにアクセスされる。
以上のように、携帯電話機1は、本などに記載されたURLをCCDカメラ29により撮像し、撮像された画像を文字認識し、認識結果で得られたURLに基づいてサーバ101などにアクセスすることができる。すなわち、ユーザは、閲覧してみたいと思うホームページのURLを入力しなくても、そのURLを携帯電話機1のCCDカメラ29で撮像させるだけで、簡単にサーバ101にアクセスし、所望のホームページを閲覧することが可能となる。
以上においては、本発明を携帯電話機1に適用した場合について説明したが、これに限らず、本などに記載された文字列を撮像するCCDカメラ29、CCDカメラ29により撮像された画像や認識結果などを表示するLCD23、および、認識対象となる文字列を選択したり、文字列選択領域81の領域を拡張したり、あるいは、各種操作を行う操作部35を有する携帯型情報端末装置に広く適用することが可能である。
図21は、本発明を適用した携帯型情報端末装置の外観の構成例を示している。図21Aは、携帯型情報端末装置200の正面斜視図を示し、図21Bは、携帯型情報端末装置200の背面斜視図を示している。同図に示されるように、携帯型情報端末装置200の正面には、スルー画像や認識結果などを表示するためのLCD23、認識対象となる文字を選択するための決定ボタン201、および文字列選択領域81の領域を拡張するための領域拡張ボタン202などが設けられている。また、携帯型情報端末装置200の背面には、本に記載された文章などを撮像するためのCCDカメラ29が設けられている。
このような構成を有する携帯型情報端末装置200を用いることにより、本などに記載された文字列を撮像し、撮像された画像を文字認識し、認識結果で得られた文字列を翻訳したり、あるいは、所定のサーバにアクセスしたりすることができる。
なお、携帯型情報端末装置200は、図21に示した構成に限られるものではなく、例えば、決定ボタン201および拡張ボタン202の代わりに、ジョグダイヤルを設けるようにしてもよい。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
この記録媒体は、図2に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)(登録商標)を含む)、もしくは半導体メモリなどのリムーバブルメディア40により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROMや記憶部などで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
本発明を適用したカメラ付き携帯電話機の外観の構成例を示す図である。 携帯電話機の内部の構成例を示すブロック図である。 文字認識処理を説明するフローチャートである。 図3のステップS1における照準モード処理の詳細を説明するフローチャートである。 指定点マークの表示例を示す図である。 指定点マークを中心とした領域を説明する図である。 照準済みマークの表示例を示す図である。 図3のステップS2における選択モード処理の詳細を説明するフローチャートである。 文字列選択領域の表示例を示す図である。 認識対象となる画像が選択される動作を示す図である。 図8のステップS26の処理における後続画像の抽出処理を説明するフローチャートである。 図3のステップS3における結果表示モード処理の詳細を説明するフローチャートである。 文字認識結果の表示例を示す図である。 翻訳結果の表示例を示す図である。 本発明を適用したサーバアクセスシステムの構成例を示す図である。 指定点マークの表示例を示す図である。 文字列選択領域の表示例を示す図である。 認識対象となる画像が選択された様子を示す図である。 図3のステップS3における結果表示モード処理の詳細を説明するフローチャートである。 文字認識結果の表示例を示す図である。 本発明を適用した携帯型情報端末装置の外観の構成例を示す図である。
符号の説明
1 カメラ付き携帯電話機, 23 LCD, 24 ジョグダイヤル, 27 入力ボタン, 29 CCDカメラ, 31 コントロール部, 33 表示画像生成部, 35 操作部, 37 画像処理/文字認識部, 38 翻訳部, 39 ドライブ, 40 リムーバブルメディア, 101 サーバ

Claims (9)

  1. 被写体を撮像する撮像手段と、
    前記撮像手段により撮像された前記被写体に基づく画像の表示を制御する第1の表示制御手段と、
    前記第1の表示制御手段により表示が制御されている前記画像から、認識対象となる画像領域を選択する選択手段と、
    前記選択手段により選択された前記画像領域を認識する認識手段と、
    前記認識手段による認識結果の表示を制御する第2の表示制御手段と
    を備えることを特徴とする携帯型情報端末装置。
  2. 前記選択手段は、前記認識対象となる画像領域の始点および終点を選択する
    ことを特徴とする請求項1に記載の携帯型情報端末装置。
  3. 前記第1の表示制御手段は、前記画像の始点を指定するためのマークの表示をさらに制御し、
    前記マーク付近に前記認識対象となる画像が存在した場合、その画像に照準を合わせるように制御する照準制御手段をさらに備える
    ことを特徴とする請求項1に記載の携帯型情報端末装置。
  4. 前記選択手段により選択された前記画像領域の拡張が指示された場合、前記画像領域に後続する画像を抽出する抽出手段をさらに備える
    ことを特徴とする請求項1に記載の携帯型情報端末装置。
  5. 前記認識手段による認識結果を翻訳する翻訳手段をさらに備える
    ことを特徴とする請求項1に記載の携帯型情報端末装置。
  6. 前記認識手段による認識結果に基づいて、他の装置にアクセスするアクセス手段をさらに備える
    ことを特徴とする請求項1に記載の携帯型情報端末装置。
  7. 被写体を撮像する撮像ステップと、
    前記撮像ステップの処理により撮像された前記被写体に基づく画像の表示を制御する第1の表示制御ステップと、
    前記第1の表示制御ステップの処理により表示が制御されている前記画像から、認識対象となる画像領域を選択する選択ステップと、
    前記選択ステップの処理により選択された前記画像領域を認識する認識ステップと、
    前記認識ステップの処理による認識結果の表示を制御する第2の表示制御ステップと
    を含むことを特徴とする情報処理方法。
  8. 被写体を撮像する撮像ステップと、
    前記撮像ステップの処理により撮像された前記被写体に基づく画像の表示を制御する第1の表示制御ステップと、
    前記第1の表示制御ステップの処理により表示が制御されている前記画像から、認識対象となる画像領域を選択する選択ステップと、
    前記選択ステップの処理により選択された前記画像領域を認識する認識ステップと、
    前記認識ステップの処理による認識結果の表示を制御する第2の表示制御ステップと
    を含むことを特徴とするコンピュータが読み取り可能なプログラムが記録されている記録媒体。
  9. 被写体を撮像する撮像ステップと、
    前記撮像ステップの処理により撮像された前記被写体に基づく画像の表示を制御する第1の表示制御ステップと、
    前記第1の表示制御ステップの処理により表示が制御されている前記画像から、認識対象となる画像領域を選択する選択ステップと、
    前記選択ステップの処理により選択された前記画像領域を認識する認識ステップと、
    前記認識ステップの処理による認識結果の表示を制御する第2の表示制御ステップと
    をコンピュータに実行させることを特徴とするプログラム。
JP2003367224A 2003-10-28 2003-10-28 携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム Expired - Fee Related JP4038771B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003367224A JP4038771B2 (ja) 2003-10-28 2003-10-28 携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム
US10/973,684 US20050116945A1 (en) 2003-10-28 2004-10-26 Mobile information terminal device, information processing method, recording medium, and program
CNA2004100822322A CN1638391A (zh) 2003-10-28 2004-10-28 移动信息终端设备、信息处理方法、记录介质和程序
KR1020040086738A KR20050040799A (ko) 2003-10-28 2004-10-28 휴대형 정보 단말 장치 및 정보 처리 방법, 기록 매체, 및프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003367224A JP4038771B2 (ja) 2003-10-28 2003-10-28 携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2005134968A true JP2005134968A (ja) 2005-05-26
JP4038771B2 JP4038771B2 (ja) 2008-01-30

Family

ID=34616045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003367224A Expired - Fee Related JP4038771B2 (ja) 2003-10-28 2003-10-28 携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム

Country Status (4)

Country Link
US (1) US20050116945A1 (ja)
JP (1) JP4038771B2 (ja)
KR (1) KR20050040799A (ja)
CN (1) CN1638391A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331216A (ja) * 2005-05-27 2006-12-07 Sharp Corp 画像処理装置、画像処理装置における処理対象範囲指定方法、画像処理範囲指定プログラム、および画像処理範囲指定プログラムを記録する記録媒体
JP2011227622A (ja) * 2010-04-16 2011-11-10 Teraoka Seiko Co Ltd 輸送物情報入力装置
JP2013502861A (ja) * 2009-08-27 2013-01-24 上海合合信息科技発展有限公司 連絡先情報入力方法及びシステム
US8406536B2 (en) 2007-01-31 2013-03-26 Ricoh Company, Limited Information processing apparatus, information processing method, and computer product
WO2013114988A1 (ja) * 2012-02-03 2013-08-08 日本電気株式会社 情報表示装置、情報表示システム、情報表示方法およびプログラム
JP2014078203A (ja) * 2012-10-12 2014-05-01 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
JP2014207009A (ja) * 2014-07-14 2014-10-30 株式会社寺岡精工 輸送物情報入力装置

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4095243B2 (ja) * 2000-11-28 2008-06-04 キヤノン株式会社 Url取得および処理システムおよびその方法およびその処理を実行するプログラムを記憶した記憶媒体。
JP2006303651A (ja) * 2005-04-15 2006-11-02 Nokia Corp 電子装置
US7480422B2 (en) * 2005-10-14 2009-01-20 Disney Enterprises, Inc. Systems and methods for information content delivery relating to an object
US7801359B2 (en) 2005-10-14 2010-09-21 Disney Enterprise, Inc. Systems and methods for obtaining information associated with an image
US8023746B2 (en) * 2005-10-14 2011-09-20 Disney Enterprises, Inc. Systems and methods for decoding an image to determine a digital identifier
JP2008252680A (ja) * 2007-03-30 2008-10-16 Omron Corp 携帯端末装置用のプログラムおよび携帯端末装置
EP2180666A4 (en) * 2007-10-24 2012-04-04 Nec Corp MOBILE TERMINAL DEVICE AND ITS EVENT NOTIFICATION METHOD
EP2144189A3 (en) * 2008-07-10 2014-03-05 Samsung Electronics Co., Ltd. Method for recognizing and translating characters in camera-based image
KR101499133B1 (ko) * 2008-10-28 2015-03-11 삼성전자주식회사 휴대 단말기의 메뉴수행 장치 및 방법
JP2010178289A (ja) * 2009-02-02 2010-08-12 Fujifilm Corp 言語的コンテンツ管理方法、システムおよびプログラムならびに言語的コンテンツ送信装置および言語的コンテンツ受信装置
CN101937477B (zh) * 2009-06-29 2013-03-20 鸿富锦精密工业(深圳)有限公司 实现图档拟合的数据处理设备、系统及方法
US9251428B2 (en) * 2009-07-18 2016-02-02 Abbyy Development Llc Entering information through an OCR-enabled viewfinder
US8577146B2 (en) * 2010-04-09 2013-11-05 Sony Corporation Methods and devices that use an image-captured pointer for selecting a portion of a captured image
US20130103306A1 (en) * 2010-06-15 2013-04-25 Navitime Japan Co., Ltd. Navigation system, terminal apparatus, navigation server, navigation apparatus, navigation method, and computer program product
JP5544332B2 (ja) * 2010-08-23 2014-07-09 東芝テック株式会社 店舗システムおよびプログラム
EP2490401B1 (en) * 2011-02-16 2017-09-27 BlackBerry Limited Mobile wireless communications device providing object reference data based upon near field communication (NFC) and related methods
US8326281B2 (en) 2011-02-16 2012-12-04 Research In Motion Limited Mobile wireless communications device providing object reference data based upon near field communication (NFC) and related methods
EP2757502B1 (en) * 2011-09-16 2017-04-12 NEC Corporation Image processing apparatus, image processing method, and image processing program
CN103442006A (zh) * 2013-08-28 2013-12-11 深圳市金立通信设备有限公司 一种访问网址的方法、装置及移动终端
JP2015069365A (ja) * 2013-09-27 2015-04-13 シャープ株式会社 情報処理装置、および制御プログラム
JP6402443B2 (ja) * 2013-12-18 2018-10-10 富士通株式会社 制御プログラム、制御装置及び制御システム
US10613748B2 (en) * 2017-10-03 2020-04-07 Google Llc Stylus assist

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5454046A (en) * 1993-09-17 1995-09-26 Penkey Corporation Universal symbolic handwriting recognition system
CN1173247C (zh) * 1999-01-13 2004-10-27 国际商业机器公司 具有文字分割用户接口的手写信息处理系统
US20030013438A1 (en) * 2001-07-12 2003-01-16 Darby George Eugene Pocket concierge system and method
JP4244614B2 (ja) * 2002-10-31 2009-03-25 株式会社日立製作所 手書き入力装置、プログラムおよび手書き入力方法システム
US7272258B2 (en) * 2003-01-29 2007-09-18 Ricoh Co., Ltd. Reformatting documents using document analysis information

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006331216A (ja) * 2005-05-27 2006-12-07 Sharp Corp 画像処理装置、画像処理装置における処理対象範囲指定方法、画像処理範囲指定プログラム、および画像処理範囲指定プログラムを記録する記録媒体
US8406536B2 (en) 2007-01-31 2013-03-26 Ricoh Company, Limited Information processing apparatus, information processing method, and computer product
JP2013502861A (ja) * 2009-08-27 2013-01-24 上海合合信息科技発展有限公司 連絡先情報入力方法及びシステム
JP2011227622A (ja) * 2010-04-16 2011-11-10 Teraoka Seiko Co Ltd 輸送物情報入力装置
WO2013114988A1 (ja) * 2012-02-03 2013-08-08 日本電気株式会社 情報表示装置、情報表示システム、情報表示方法およびプログラム
JP2014078203A (ja) * 2012-10-12 2014-05-01 Fuji Xerox Co Ltd 画像処理装置及び画像処理プログラム
JP2014207009A (ja) * 2014-07-14 2014-10-30 株式会社寺岡精工 輸送物情報入力装置

Also Published As

Publication number Publication date
CN1638391A (zh) 2005-07-13
US20050116945A1 (en) 2005-06-02
JP4038771B2 (ja) 2008-01-30
KR20050040799A (ko) 2005-05-03

Similar Documents

Publication Publication Date Title
JP4038771B2 (ja) 携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム
US10943158B2 (en) Translation and display of text in picture
JP4036168B2 (ja) 携帯電話
JP5192462B2 (ja) リモートサポート方法、システム、プログラム
EP2164244B1 (en) Mobile terminal having panorama photographing function and method for controlling operation thereof
WO2018141144A1 (zh) 一种文本和语音信息的处理方法以及终端
JP6259095B2 (ja) パノラマ画像を取得する方法及び端末
JP2006303651A (ja) 電子装置
JP2014533446A (ja) モバイル装置のためのジェスチャに基づく入力モード選択
JP2008544629A (ja) 文字メッセージに含まれている電話番号にハイパーリンク機能を提供する移動通信端末機及びその方法
JP2005086252A (ja) 携帯端末
CN111010610A (zh) 一种视频截图方法及电子设备
JP5407380B2 (ja) 撮像機能を備えた携帯端末
KR20060112290A (ko) 휴대단말기에서 메인언어를 설정하는 방법
JP2002083302A (ja) 情報処理装置、動作認識処理方法及びプログラム格納媒体
JP2005123908A (ja) 撮像装置
JP2010033414A (ja) 携帯端末装置及びプログラム
CN112329563A (zh) 一种基于树莓派的智能阅读辅助方法及系统
JP4164568B2 (ja) 文字情報入力装置および文字情報入力方法並びに記録媒体
JP2012138049A (ja) 情報端末、文字入力方法、及びプログラム
JP2009266040A (ja) 携帯端末およびその文字入力方法
JP2007180914A (ja) 画面拡大表示機能付携帯電話、画面拡大表示方法、及び、画面拡大表示プログラムとその記録媒体
JP2004341757A (ja) 情報変換装置および方法、携帯型情報端末装置および情報処理方法、記録媒体、並びにプログラム
JP2018078586A (ja) パノラマ画像を取得する方法及び端末
JP4924723B2 (ja) 文書データ生成装置、及び、プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071025

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees