JP5347673B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP5347673B2 JP5347673B2 JP2009097723A JP2009097723A JP5347673B2 JP 5347673 B2 JP5347673 B2 JP 5347673B2 JP 2009097723 A JP2009097723 A JP 2009097723A JP 2009097723 A JP2009097723 A JP 2009097723A JP 5347673 B2 JP5347673 B2 JP 5347673B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- information processing
- metadata
- projector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 47
- 238000003672 processing method Methods 0.000 title claims description 8
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 21
- 238000000034 method Methods 0.000 description 19
- 239000004973 liquid crystal related substance Substances 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000010191 image analysis Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 238000012015 optical character recognition Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3141—Constructional details thereof
- H04N9/3173—Constructional details thereof wherein the projection device is specially adapted for enhanced portability
- H04N9/3176—Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3191—Testing thereof
- H04N9/3194—Testing thereof including sensor feedback
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Databases & Information Systems (AREA)
- Projection Apparatus (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Description
上記第1の操作用画像とは、アイコン、ボタン、図形、文字等、ユーザの操作の対象となる画像をいう。上記第1の記憶部は、上記第1の操作用画像への操作の検出は、例えば異なる時間の撮像画像の差分を用いて、例えば第1の操作用画像がユーザの指で触れられたか否かを検出することで実行される。上記被写体は、例えば名刺や音楽CDジャケット等であるが、これらに限られず、あらゆる物が想定される。
この構成により、投影像に含まれる第1の操作用画像への操作が検出されたときに被写体の画像が記憶される。したがってユーザは、所望の被写体の画像を、情報処理装置自体には触れずに投影像に対する操作のみで容易かつ直感的に第1の記憶部に記憶させることができる。
また、第2の記憶部は、上記メタデータとともに、上記第1の記憶部に記憶された撮像画像や、当該撮像画像から抽出された被写体の画像を記憶してもよい。
上記第2の記憶部は、RAM、内蔵フラッシュメモリ、メモリカード、HDD、光ディスク等であり、上記第1の記憶部と同一のものであってもよいし、別個のものであってもよい。第1の記憶部と第2の記憶部とが別個のものである場合、典型的には、第1の記憶部はRAM(クリップボード)等の一時記憶媒体であり、第2の記憶部は内蔵フラッシュメモリ、メモリカード、HDD、光ディスク等の不揮発性の記憶媒体である。
上記メタデータとは、例えば被写体の正体(アイデンティティ)、著作情報、被写体に含まれる文字等のデータ等、被写体に関連するデータである。メタデータの認識は、例えばパターンマッチングや特徴認識等の画像認識技術、OCR(Optical Character Reader)等の文字認識技術を用いて実行される。所定のリストとは、例えばコンテンツリスト、連絡先リスト等、各被写体の種類に応じたリストである。メタデータは、上記被写体の画像とともにリストの一部として記憶されてもよいし、被写体の画像とは別個に記憶されてもよい。
これによりユーザは、被写体の画像自体のみならず、当該被写体のメタデータも情報処理装置に容易かつ直感的な操作で第2の記憶部へ記憶させることができる。
これによりユーザは、被写体のメタデータが認識できたか否かを容易に把握できる。また、メタデータが認識できなかった場合には、ユーザは、所定領域内における被写体の位置や姿勢を変更する等、認識精度を高めるための作業を行い、認識を確実に実行させることができる。
これにより情報処理装置は、従来のスチルカメラのフラッシュをプロジェクタの投影像で擬似的に再現することができる。よってユーザは、記憶された画像を確認することなく、当該画像が記憶されたことを直感的に認識することができる。上記所定時間とは例えば0.5秒〜1.5秒程度であるが、この範囲に限られず、画像が記憶されたことをユーザが認識できればいかなる時間でもよい。
これにより、所定領域内に被写体が存在する場合にのみ第1の操作用画像が投影されるため、被写体が存在しないにも関わらず第1の操作用画像が投影され視認性が損なわれることを防ぐことができる。またユーザは、被写体の画像を記憶させるための準備が整ったことを容易に認識することができる。被写体の存在の有無の検出は、例えば異なる時間の撮像画像の差分を用いて行われる。
これによりユーザは、第1の記憶部へ被写体の画像が記憶された後、所定領域から被写体を取り除くだけで、被写体の画像及びメタデータをリストの一部として第2の記憶部へ記憶させることができる。
これによりユーザは、上記所定領域内に複数の被写体を置き、第1の記憶部へ各被写体の画像が記憶された後、各被写体を所定領域内から取り除くだけで、全ての被写体の画像及びメタデータを一度に第2の記憶部へ記憶させることができる。
これによりユーザは、異なる種類の被写体を所定領域内に置き、第1の記憶部への各被写体の画像の記憶後、所定領域から各被写体を取り除くだけで、各被写体の種類に応じた各リストの一部として各被写体のメタデータを第2の記憶部へ記憶できる。
この第2の操作用画像も、アイコン、ボタン、図形、文字等、ユーザの操作の対象となる画像であり、上記第1の操作用画像とは区別可能な状態で投影される。
これにより、ユーザは、第2の操作用画像に対する容易かつ直感的な操作により、各被写体のメタデータをリストの一部として第2の記憶部へ記憶させることができる。
これによりユーザは、上記所定領域内に複数の被写体を置き、第1の記憶部へ各被写体の画像が記憶された後、第2の操作用画像に対して一度の操作を行うだけで、全ての被写体のメタデータを第2の記憶部へ記憶させることができる。
これによりユーザは、異なる種類の被写体を所定領域内に置き、第1の記憶部への各被写体の画像の記憶後、第2の操作用画像を一度操作するだけで、各被写体の種類に応じた各リストの一部として各被写体のメタデータを第2の記憶部へ記憶できる。
これにより情報処理装置は、被写体のメタデータを記憶する様子をユーザに閲覧させることで、ユーザの興趣の向上を図りながら、記憶したことを分かり易くユーザに把握させることができる。
これにより、ユーザは、被写体を所定領域から取り除いても、当該被写体が第1の記憶部に記憶されたことを容易に認識することができる。
この情報処理方法においては、操作用画像を含む投影像が上記プロジェクタにより所定領域に投影される。上記所定領域内の被写体が、上記カメラにより撮像される。上記カメラにより撮像される撮像画像を基に上記操作用画像への操作が検出される。上記操作が検出されたときに、上記撮像画像のうち少なくとも上記被写体の画像が記憶部に記憶される。
この方法により、投影像に含まれる操作用画像への操作が検出されたときに被写体の画像が記憶されるため、ユーザは、所望の被写体の画像を、情報処理装置自体に触れることなく、投影像に対する操作のみで容易かつ直感的に記憶部に記憶させることができる。
上記投影ステップは、操作用画像を含む投影像をプロジェクタにより所定領域に投影する。上記撮像ステップは、上記所定領域内の被写体をカメラにより撮像する。上記検出ステップは、上記カメラにより撮像される撮像画像を基に上記操作用画像への操作を検出する。上記記憶ステップは、上記操作が検出されたときに、上記撮像画像のうち少なくとも上記被写体の画像を記憶部に記憶する。
このプログラムの実行により、投影像に含まれる操作用画像への操作が検出されたときに被写体の画像が記憶されるため、ユーザは、所望の被写体の画像を、情報処理装置自体に触れずに、投影像への操作のみで容易かつ直感的に記憶部に記憶させることができる。
図1は、本発明の一実施形態に係る携帯情報機器の外観及びその使用状態を示す図である。
同図に示すように、本実施形態に係る携帯情報機器100は、例えば手に収まる程度の大きさの筐体1を有し、例えば机や床等の水平面に載置されて使用される。もちろん、携帯情報機器100は、壁等の垂直面に掛けられて使用されても構わない。
プロジェクタ2は、机上や床上の、所定範囲の矩形の投影領域10に、例えばGUI(Graphical User Interface)やイメージデータ等を含む投影像を投影する。カメラ3は、当該投影領域10を撮像する。すなわち、プロジェクタ2の投影範囲とカメラ3の撮像範囲とは一致している。ユーザは、プロジェクタ2の投影像に対して手Hの指等で操作を行い、携帯情報機器100は、カメラ3によりそのユーザの操作を認識し、その操作に応じた処理を実行する。また携帯情報機器100は、ユーザにより投影領域10内に載置された被写体を撮像し、投影像に対するユーザの操作に応じて当該撮像画像を記憶(キャプチャ)する。さらに携帯情報機器100は、キャプチャされた撮像画像または当該撮像画像から抽出された被写体の画像をプロジェクタ2により投影する。
図2は、上記携帯情報機器100のハードウェア構成を示した図である。
同図に示すように、携帯情報機器100は、上記プロジェクタ2、カメラ3、ディスプレイ4のほか、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、フラッシュメモリ13、スピーカ14、キー/スイッチ部15を有する。また携帯情報機器100は、メモリカードI/F(インタフェース)16、外部I/F18等の各種インタフェースを有する。
RAM12は、CPU11の作業領域として用いられ、CPU11が処理する例えばカメラ3による撮像画像、当該撮像画像から抽出された被写体の画像、当該被写体から認識されたメタデータ等の各種データやプログラムを一時的に格納する。RAM12は、上記撮像画像や被写体の画像を一時的に記憶する(キャプチャ)するための領域(クリップボード)を有する。
キー/スイッチ部15は、例えば電源のON/OFFや各種機能の切替等、上記タッチパネル5への操作では実行できない機能や、タッチパネル5への操作で実行できる機能と同等の機能に対応した操作を受け付け、入力信号をCPU11へ伝える。
外部I/F18は、例えばUSB(Universal Serial Bus)や無線LAN(Local Area Network)等の各種規格に基づいて、有線または無線により外部機器と接続し、各種データのやり取りを行う。
光源22は例えばLED(Light Emitting Diode)であり、供給される電流に応じた明るさで液晶パネル23を照明する。液晶パネル23は変調素子として機能し、投影制御部21からの駆動信号に応じて投影像(光像)を生成する。投影光学系24は、液晶パネル23から出射される変調光を投影する。投影制御部21は、CPU11からの指示に基づき、光源22及び液晶パネル23へ制御信号を供給する。
もちろん、プロジェクタ2は、液晶プロジェクタに限られず、DLP(登録商標)プロジェクタやLCOS(Liquid Crystal On Silicon)プロジェクタ等の、他の動作方式のプロジェクタであってもよい。
撮像素子32としては、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサが用いられる。撮像光学系33は、撮像素子32の撮像面上に被写体像を結像させる。撮像制御部31は、CPU11からの指示に基づき、撮像素子32を駆動し、撮像素子32から出力される画像信号に対して所定の信号処理を行う。
信号処理後の撮像画像は、CPU11が投影像に対するユーザの操作を検出するために用いられる。また当該撮像画像は、当該検出されたユーザの操作に基づいて上記RAM12のクリップボード等にキャプチャされ、その後、適宜フラッシュメモリ13またはメモリカード17に記憶される。
ディスプレイ4がタッチパネル5を有さずに、ユーザの操作が上記キー/スイッチ部15のみから入力されても構わない。
次に、以上のように構成された携帯情報機器100の動作について説明する。以下の説明では、CPU11を動作の主体として説明するが、このCPU11の動作は、RAM12に展開されるプログラムと協働して実行される。
まず、携帯情報機器100のキャプチャ動作について説明する。
図3は、携帯情報機器100がカメラ3の撮影画像をキャプチャする際の動作の流れを示したフローチャートである。
続いてCPU11は、カメラ3による撮像画像を解析し、当該投影領域10内にユーザの手H以外の被写体が存在するか否かを判断する(ステップ42)。
当該被写体の存在を認識できた場合(YES)には、CPU11は、投影領域10内に「Capture」ボタンの画像を投影させるようにプロジェクタ2を制御する(ステップ43)。
そしてCPU11は、当該フォーカスが合わされた撮像画像をカメラ3によりキャプチャする(ステップ46)。キャプチャされた撮像画像は例えばRAM12のクリップボードに記憶される。
このとき、CPU11は、プロジェクタ2による投影像の照度を例えば1秒等の所定時間大きくする。またそれと同時にCPU11は、スピーカ14から、一般的なカメラのフラッシュ音を出力させる(ステップ47)。これらの動作により、CPU11は、一般的なカメラのフラッシュ及びフラッシュ音を擬似的に再現する。
同図(A)に示すように、ユーザが例えば手HでCDジャケットJを投影領域10内に載置すると、CPU11は、カメラ3によるその手H及びCDジャケットJの撮像画像を認識する。CPU11は、例えば予め記憶された手の形態や色等のメタデータと撮像画像とをパターンマッチングし、またエッジ抽出等の画像解析処理を行うことで、投影領域10内に手H以外の物体が存在することを検出する。この時点では、CPU11は、手以外の何らかの物体が存在することは認識できているが、その物体がCDジャケットJであることは認識していない。
CPU11は、被写体の存在を検出すると、同図(B)に示すように、プロジェクタ2を制御して、例えば投影領域10の右下等に、「Capture」ボタン50を投影させる。
もちろん、この「Capture」ボタン50は、「Capture」の文字を有するボタンに限られるものではなく、キャプチャ動作を実行させるための操作用の画像であることがユーザに認識できればどのようなボタンやアイコン等であっても構わない。
同図(A)に示すように、CPU11は、カメラ3による撮像画像を基に、当該「Capture」ボタン50周辺の撮像画像が変化したことを認識することで、ユーザが指等で「Capture」ボタン50を押したことを検出する。
「Capture」ボタン50を押したことを検出すると、CPU11は、例えばその検出から1秒後等の所定時間後に、カメラ3により撮像画像をキャプチャする。またこれと同時にCPU11は、同図(B)に示すように、投影像の照度を大きくするようにプロジェクタ2を制御する。これにより一般的なカメラのフラッシュが視覚的に再現される。これとともにCPU11は、スピーカ14からフラッシュ音を模した音を出力させる。
図6は、CPU11が投影領域10内の複数の被写体の存在を検出して「Capture」ボタン50を投影させる際の投影領域10の様子を示した図である。図7は、投影領域10内に被写体が複数存在する場合にCPU11が「Capture」ボタン50が押されたことを検出して撮像画像をキャプチャする際の投影領域10の様子を示した図である。これらの図においては、被写体として複数の名刺が撮像される場合の例を示す。
図6(A)に示すように、ユーザが例えば手Hで名刺C1〜C5を投影領域10内に載置すると、CPU11は、カメラ3による手H及び名刺C1〜C5の撮像画像を認識する。CPU11は、上記図4の場合と同様に画像解析処理等を行い、投影領域10内に手H以外の複数の物体が存在することを検出すると、同図(B)に示すように、プロジェクタ2に「Capture」ボタン50を投影させる。
図7(A)に示すように、CPU11は、上記図5の場合と同様に、カメラ3による撮像画像を基に、ユーザにより「Capture」ボタン50が押されたことを検出すると、カメラ3により撮像画像をキャプチャする。これとともにCPU11は、プロジェクタ2により投影像の照度を所定時間大きくさせ、スピーカ14からフラッシュ音を出力させる。
次に、携帯情報機器100による被写体のメタデータの記憶動作について説明する。
図8は、携帯情報機器100が被写体のメタデータを記憶する際の動作の流れを示したフローチャートである。
続いてCPU11は、投影領域10内の手H以外の被写体が、キャプチャ時の位置から移動したか否かを判断する。この判断は、カメラ3による撮像画像をキャプチャ時と所定時間経過後とで比較して差分を取ること等により行われる。
CPU11は、被写体が移動したと判断した場合(YES)には、上記被写体画像を、キャプチャ時に被写体が存在していた位置へ投影するようにプロジェクタ2を制御する(ステップ83)。
同図(A)は、被写体が上記CDジャケットJである場合の投影の様子を示す。CPU11は、ユーザが手HによりCDジャケットJをキャプチャ時の位置から移動させたことを検出すると、キャプチャ画像からCDジャケットJの領域を抽出したCDジャケット画像51を、そのCDジャケットJのキャプチャ時の位置に投影させる。
同図(B)は、被写体が上記複数の名刺C1〜C5である場合の投影の様子を示す。CPU11は、ユーザが手Hにより名刺C1〜C5をキャプチャ時の位置から移動させたことを検出すると、キャプチャ画像から名刺C1〜C5の領域をそれぞれ抽出した複数の名刺画像C1〜C5を、それら名刺C1〜C5のキャプチャ時の位置に投影させる。
同図(A)及び(B)に示した処理により、ユーザは、被写体がキャプチャされたことを容易に把握することができる。
CPU11は、全ての被写体が投影領域10外へ移動したと判断した場合(YES)には、上記「Capture」ボタン50を投影像から消去するようにプロジェクタ2を制御する(ステップ85)。当該ステップ84及び85の処理は、これ以降の処理の実行中も随時実行される。
同図(A)は、被写体が上記CDジャケットJである場合の投影の様子を示す。CPU11は、CDジャケットJのメタデータ(CDジャケットという正体)の認識に成功した場合には、認識結果表示画像53として、CDジャケット画像51近傍に例えばバルーンやポップアップ等により「Recognized」という文字をプロジェクタ2に投影させる。またCPU11は、CDジャケット画像51の周囲に、メタデータの認識対象であることを示す枠54を投影させるようにプロジェクタ2を制御する。
同図(B)は、被写体が上記複数の名刺C1〜C5である場合の投影の様子を示す。CPU11は、名刺C1〜C5のメタデータ(例えば名刺に記載された文字)の認識に成功した場合には、認識結果表示画像53として、名刺画像52の近傍に「Recognized」の文字を投影させ、失敗した場合には「Failed」の文字をプロジェクタ2に投影させる。各名刺画像52の周囲には枠54も投影される。同図では、名刺画像52a、52b、52c及び52eに対応する名刺C1、C2、C3及びC5の文字認識が成功し、名刺画像52dに対応する名刺C4の文字認識が失敗した例が示されている。
もちろん、メタデータの認識結果を示すための表示としては、上記「Recognized」及び「Failed」の文字に限られるものではなく、認識結果がユーザに把握できる態様であればどのような表示がなされてもよい。
同図(A)に示すように、CPU11は、名刺画像52a〜52eを例えば縦に並べ、各名刺画像52a〜52eの横に、文字情報として認識した名前55(55a〜55e)を投影させるようにプロジェクタ2を制御する。
同図(B)及び(C)に示すように、CPU11は、各名刺画像52a〜52eを例えば名前のアルファベット順に重ねて、既に連絡先リストに格納済みの他の名刺のアルファベット順の列56の一部の該当箇所に順次ファイルするようなアニメーションを投影させる。
ここで、連絡先リストには、文字情報とともに名刺画像52a〜52e自体も記憶されてもよい。
このようなアニメーションにより、携帯情報機器100は、名刺C1〜C5が連絡先リストの一部として記憶されたことを分かりやすくユーザに把握させるとともに、ユーザの興趣の向上を図ることができる。
また、複数の名刺の文字情報が一度に認識され記憶されるため、それぞれについて記憶処理を実行する場合に比べて、CPU11の処理を効率化でき、ユーザの手間も省略することができる。
ここでミュージックコレクションとは、CDジャケット画像51自体を写真集として記憶するものである。しかし、CPU11は、CDジャケット画像51を基にそのCDジャケットJに対応するアルバム名やアーティスト名等をメタデータとして認識して、当該CDジャケット画像51とともにミュージックコレクションに記憶してもよい。
さらに、CPU11は、当該メタデータを認識したCDジャケットJに対応する楽曲データや関連する楽曲データを例えばインターネット等からダウンロードしてもよい。また、CPU11は、当該携帯情報機器100が外部機器と接続したときに、当該楽曲データが当該外部機器に記憶されている場合には、当該楽曲データが外部機器から例えば上記外部I/F18を介して携帯情報機器100へ転送されるように予約をしてもよい。
また、以上の処理を実行する上で、名刺からメタデータを認識するアプリケーションとCDジャケットからメタデータを認識するためのアプリケーションとは別個に存在してもよいし、1つのアプリケーションの各機能として存在してもよい。
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更され得る。
例えば、CPU11は、メタデータの記憶を指示するための操作を行うためのボタン画像を投影像に含めるようにプロジェクタ2を制御してもよい。
同図に示すように、CPU11は、ステップ121からステップ129までは、上述した図8におけるステップ81からステップ89と同様の処理を実行する。
続いてCPU11は、カメラ3の撮像画像を基に、ユーザが指等で「Save as Contacts」ボタンを押したか否かを判断する(ステップ132)。
そしてCPU11は、「Save as Contacts」ボタンが押されたと判断した場合(YES)には、上述の実施形態と同様に、上記連絡先リストへメタデータを記憶する(ステップ133)。
続いてCPU11は、カメラ3の撮像画像を基に、ユーザが指等で「Save as Music Collection」ボタンを押したか否かを判断する(ステップ136)。
そしてCPU11は、「Save as Music Collection」ボタンが押されたと判断した場合(YES)には、上述の実施形態と同様に、上記ミュージックコレクションへCDジャケット画像Jを記憶する(ステップ137)。
同図(A)は、被写体がCDジャケットJである場合の例を示す。CPU11は、被写体がCDジャケットであると判断すると、例えばCDジャケット画像51の近傍に、上記「Capture」ボタン50とは明確に区別できる態様で「Save as Music Collection」ボタン61を投影するようにプロジェクタ2を制御する。
CPU11は当該「Save as Music Collection」ボタン61をユーザが押したことを検出した場合に、CDジャケット画像51の記憶処理を実行する。
同図(B)は、被写体が複数の名刺C1〜C5である場合の例を示す。CPU11は、名刺C1〜C5の全てについて文字情報を認識し、被写体が名刺であると判断すると、「Save as Contacts」ボタン62を投影するようにプロジェクタ2を制御する。
同図では、「Save as Contacts」ボタン62は、複数の名刺C1〜C5に対応する名刺画像52a〜52eについて1つのみ投影されているが、もちろん、名刺毎にそれぞれ投影されてもよい。またこの場合には、全ての名刺について文字情報の認識が成功している必要はなく、成功している名刺についてのみ「Save as Contacts」ボタンが表示されてもよい。
CPU11は当該「Save as Contacts」ボタン62をユーザが押したことを検出した場合に、複数の名刺画像52a〜52eを一度に記憶する。
図14は、このように異なる被写体が投影領域10内に同時に存在する場合の様子を示した図である。
同図(A)に示すように、CPU11は、投影領域10内に異なる被写体(CDジャケットJ及び名刺C)が存在することを認識した場合、両者を含むカメラ3の撮像画像をキャプチャするための「Capture」ボタン50をプロジェクタに投影させる。
CPU11は、「Capture」ボタン50が押されたことを検出した場合、同図(B)に示すように、当該投影画像をキャプチャし、各キャプチャ画像から、CDジャケット画像51及び名刺画像52をそれぞれ抽出する。
続いてCPU11は、認識結果表示画像53に続いて「Save as Music Collection」ボタン61及び「Save as Contacts」ボタン62をプロジェクタ2に投影させる。そしてCPU11は、これらのボタンに対するユーザの操作に応じて、名刺Cの文字情報を連絡先リストに記憶し、CDジャケット画像51をミュージックコレクションに記憶する。
また、CPU11は、「Save as Music Collection」ボタン61及び「Save as Contacts」ボタン62を投影させない場合には、CDジャケットJ及び名刺Cが投影領域10内から投影領域10外へそれぞれ移動したときにそれぞれ記憶処理を実行する。
以上の処理により、ユーザは、種類の異なる被写体を投影領域10内に一度に載置して投影像に対する操作を行うだけで、異なる被写体のメタデータ等をそれぞれのリストに容易に記憶させることができる。
図15は、この場合の投影像の例を示した図である。
同図に示すように、撮像領域110は、投影領域10の内部に、投影領域10の一部として設けられる。投影領域10のうち、撮像領域110を除いた非撮像領域120には、上記「Capture」ボタン50が投影される。
これにより、「Capture」ボタン50や、「Capture」ボタン50を押すユーザの指がキャプチャされることを防ぐことができる。したがってユーザは、所望の被写体以外の余計な物体が写っていないキャプチャ画像を携帯情報機器100に記憶させることができる。
そこで、携帯情報機器100は、そのような誤った文字列を、上記アニメーション実行途中でユーザの操作入力を基に修正してもよい。
図16は、当該アニメーション途中で誤った文字を修正する様子を示した図である。
同図(A)に示すように、アニメーション途中で縦に並べられた複数の名刺画像52のうち、名刺画像52aに対応して名前が表示されるべき箇所に、会社名161が取り違えられて表示されている。このような場合、ユーザは、同図(A)に示すように、手Hの指等で、間違って会社名161が表示されている箇所をタッチする。
携帯情報機器のCPU11は、当該タッチをカメラ3の撮像画像を基に検出する。そしてCPU11は、同図(B)に示すように、その名刺画像52aから既に認識してある文字列の一覧を修正候補として提示するための修正候補リストボックス162を表示するようにプロジェクタ2を制御する。
ユーザが、当該修正候補リストボックス162から、同図(B)に示すように指で正しい文字列(名前)をタッチにより選択すると、CPU11は、当該タッチをカメラ3の撮像画像から検出する。そしてCPU11は、同図(C)に示すように、それまでに表示されていた会社名161を、当該選択された文字列(名前55a)へと変更する。これにより、フラッシュメモリ13内の連絡先リストにも、正しい文字列が記憶されることとなる。
以上の処理により、携帯情報機器100は、仮に認識文字列の項目を誤った場合でも、修正候補を提示してユーザにタッチさせることで、当該誤りを容易に修正させることが可能となる。
CPU11は、上記修正候補リストボックス162の代わりに、例えばソフトウェアキーボードを表示させ、当該キーボードからユーザが入力した文字列によって、間違った文字列を修正してもよい。
例えば、携帯情報機器100は、レストランに置いてあるレストラン情報カードを被写体としてキャプチャし、当該キャプチャ画像から文字情報を認識して、その情報をレストランリストの一部として記憶することもできる。
また携帯情報機器100は、ワインボトルを被写体としてキャプチャし、当該キャプチャ画像から文字情報を認識して、その情報をワインリストの一部として記憶することもできる。
3…カメラ
4…ディスプレイ
10…投影領域
11…CPU
12…RAM
13…フラッシュメモリ
14…スピーカ
17…メモリカード
50…「Capture」ボタン
51…CDジャケット画像
52(52a〜52e)…名刺画像
53…認識結果表示画像
61…「Save as Music Collection」ボタン
62…「Save as Contacts」ボタン
100…携帯情報機器
110…撮像領域
120…非撮像領域
J…CDジャケット
C(C1〜C5)…名刺
Claims (13)
- 第1の操作用画像を含む投影像を所定領域に投影するプロジェクタと、
前記所定領域内の被写体を撮像するカメラと、
第1の記憶部と、
前記カメラにより撮像される撮像画像を基に、ユーザの手以外の前記被写体が前記所定領域内に存在するか否かを検出し、前記被写体が前記所定領域内に存在することが検出された場合に、前記第1の操作用画像を前記投影像に含めるように前記プロジェクタを制御し、前記撮像画像を基に前記第1の操作用画像への操作を検出し、当該操作が検出されたときに、前記撮像画像のうち少なくとも前記被写体の画像を記憶するように前記第1の記憶部を制御する制御部とを具備し、
前記制御部は、前記被写体の画像が前記第1の記憶部に記憶された後、当該被写体が当該記憶時の位置から移動したか否かを検出し、当該被写体が移動したことが検出されたときに、前記撮像画像から前記被写体の画像を抽出し、当該抽出された被写体の画像を、前記記憶時に前記被写体が存在していた位置に投影するように前記プロジェクタを制御する
情報処理装置。 - 請求項1に記載の情報処理装置であって、
第2の記憶部をさらに具備し、
前記制御部は、前記撮像画像を基に前記被写体のメタデータを認識し、当該メタデータを所定のリストの一部として記憶するように前記第2の記憶部を制御する
情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記制御部は、前記メタデータが認識できたか否かを示す情報を前記投影像に含めるように前記プロジェクタを制御する
情報処理装置。 - 請求項3に記載の情報処理装置であって、
前記制御部は、前記操作が検出されたときから所定時間、前記投影像の照度を前記検出の前よりも大きくするように前記プロジェクタを制御する
情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記制御部は、前記撮像画像を基に前記メタデータが認識された被写体が前記所定領域内に存在しなくなったことが検出されたときに、前記メタデータを記憶するように前記第2の記憶部を制御する
情報処理装置。 - 請求項5に記載の情報処理装置であって、
前記制御部は、前記所定領域内に存在する複数の被写体からそれぞれメタデータを認識し、複数の被写体が全て前記所定領域内に存在しなくなったことが検出されたときに、前記複数のメタデータをそれぞれ前記所定のリストの一部として一度に記憶するように前記第2の記憶部を制御する
情報処理装置。 - 請求項5に記載の情報処理装置であって、
前記制御部は、前記所定領域内に存在する、第1の被写体及び当該第1の被写体とは異なる種類の第2の被写体からそれぞれメタデータを認識し、第1の被写体が前記所定領域内に存在しなくなったことが検出されたときに、当該第1の被写体の第1のメタデータを第1のリストの一部として記憶し、第2の被写体が前記所定領域内に存在しなくなったことが検出されたときに、当該第2の被写体の第2のメタデータを第2のリストの一部として記憶するように、前記第2の記憶部を制御する
情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記制御部は、前記メタデータが認識されたときに、前記第1の操作用画像とは異なる第2の操作用画像を前記投影像に含めるように前記プロジェクタを制御し、前記撮像画像を基に当該第2の操作用画像への操作を検出し、当該操作が検出されたときに、前記メタデータを記憶するように前記第2の記憶部を制御する
情報処理装置。 - 請求項8に記載の情報処理装置であって、
前記制御部は、前記所定領域内に存在する複数の被写体からそれぞれメタデータを認識し、前記第2の操作用画像への操作が検出されたときに、前記複数のメタデータをそれぞれ前記所定のリストの一部として一度に記憶するように前記第2の記憶部を制御する
情報処理装置。 - 請求項8に記載の情報処理装置であって、
前記制御部は、前記所定領域内に存在する、第1の被写体及び当該第1の被写体とは異なる種類の第2の被写体からそれぞれメタデータを認識し、前記第2の操作用画像への操作が検出されたときに、当該第1の被写体及び当該第1の被写体の第1のメタデータを第1のリストの一部として記憶し、当該第2の被写体及び当該第2の被写体の第2のメタデータを第2のリストの一部として記憶するように、前記第2の記憶部を制御する
情報処理装置。 - 請求項2に記載の情報処理装置であって、
前記制御部は、前記被写体の画像を用いて、前記メタデータを前記所定のリストの一部として記憶する様子を示すアニメーションを投影するように前記プロジェクタを制御する
情報処理装置。 - プロジェクタとカメラと記憶部とを有する情報処理装置における情報処理方法であって、
操作用画像を含む投影像を前記プロジェクタにより所定領域に投影し、
前記所定領域内の被写体を前記カメラにより撮像し、
前記カメラにより撮像される撮像画像を基に、ユーザの手以外の前記被写体が前記所定領域内に存在するか否かを検出し、
前記被写体が前記所定領域内に存在することが検出された場合に、前記第1の操作用画像を前記投影像に含めるように前記プロジェクタを制御し、
前記撮像画像を基に前記操作用画像への操作を検出し、
前記操作が検出されたときに、前記撮像画像のうち少なくとも前記被写体の画像を前記記憶部に記憶し、
前記被写体の画像が前記記憶部に記憶された後、当該被写体が当該記憶時の位置から移動したか否かを検出し、
前記被写体が移動したことが検出されたときに、前記撮像画像から前記被写体の画像を抽出し、
前記抽出された被写体の画像を、前記記憶時に前記被写体が存在していた位置に投影するように前記プロジェクタを制御する
情報処理方法。 - プロジェクタとカメラと記憶部とを有する情報処理装置に、
操作用画像を含む投影像を前記プロジェクタにより所定領域に投影するステップと、
前記所定領域内の被写体を前記カメラにより撮像するステップと、
前記カメラにより撮像される撮像画像を基に、ユーザの手以外の前記被写体が前記所定領域内に存在するか否かを検出するステップと、
前記被写体が前記所定領域内に存在することが検出された場合に、前記第1の操作用画像を前記投影像に含めるように前記プロジェクタを制御するステップと、
前記撮像画像を基に前記操作用画像への操作を検出するステップと、
前記操作が検出されたときに、前記撮像画像のうち少なくとも前記被写体の画像を前記記憶部に記憶するステップと、
前記被写体の画像が前記記憶部に記憶された後、当該被写体が当該記憶時の位置から移動したか否かを検出するステップと、
前記被写体が移動したことが検出されたときに、前記撮像画像から前記被写体の画像を抽出するステップと、
前記抽出された被写体の画像を、前記記憶時に前記被写体が存在していた位置に投影するように前記プロジェクタを制御するステップと
を実行させるプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009097723A JP5347673B2 (ja) | 2009-04-14 | 2009-04-14 | 情報処理装置、情報処理方法及びプログラム |
US12/748,664 US8325234B2 (en) | 2009-04-14 | 2010-03-29 | Information processing apparatus, information processing method, and program for storing an image shot by a camera and projected by a projector |
CN201010154417.5A CN101867755B (zh) | 2009-04-14 | 2010-04-02 | 信息处理设备、信息处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009097723A JP5347673B2 (ja) | 2009-04-14 | 2009-04-14 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010250464A JP2010250464A (ja) | 2010-11-04 |
JP5347673B2 true JP5347673B2 (ja) | 2013-11-20 |
Family
ID=42934060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009097723A Expired - Fee Related JP5347673B2 (ja) | 2009-04-14 | 2009-04-14 | 情報処理装置、情報処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8325234B2 (ja) |
JP (1) | JP5347673B2 (ja) |
CN (1) | CN101867755B (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8686951B2 (en) | 2009-03-18 | 2014-04-01 | HJ Laboratories, LLC | Providing an elevated and texturized display in an electronic device |
US20110199342A1 (en) * | 2010-02-16 | 2011-08-18 | Harry Vartanian | Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound |
US20120050786A1 (en) * | 2010-08-24 | 2012-03-01 | Paul Rudolph | Printing system control using updated metadata packets |
US8582156B2 (en) * | 2010-08-24 | 2013-11-12 | Eastman Kodak Company | Printing system control using multiple metadata packets |
US8743244B2 (en) | 2011-03-21 | 2014-06-03 | HJ Laboratories, LLC | Providing augmented reality based on third party information |
JP2012208439A (ja) * | 2011-03-30 | 2012-10-25 | Sony Corp | 投影装置、投影方法及び投影プログラム |
CN103703763B (zh) * | 2011-07-29 | 2018-02-27 | 惠普发展公司,有限责任合伙企业 | 视觉分层的系统和方法 |
US20130169847A1 (en) * | 2011-11-30 | 2013-07-04 | I-Star Entertainment Llc | Digital camera with a projector |
JP6064319B2 (ja) * | 2011-12-27 | 2017-01-25 | セイコーエプソン株式会社 | プロジェクター、及び、プロジェクターの制御方法 |
JP2014086849A (ja) * | 2012-10-23 | 2014-05-12 | Sony Corp | コンテンツ取得装置及びプログラム |
KR102001218B1 (ko) * | 2012-11-02 | 2019-07-17 | 삼성전자주식회사 | 객체와 관련된 정보 제공 방법 및 이를 위한 디바이스 |
US9147275B1 (en) * | 2012-11-19 | 2015-09-29 | A9.Com, Inc. | Approaches to text editing |
US9043349B1 (en) | 2012-11-29 | 2015-05-26 | A9.Com, Inc. | Image-based character recognition |
CN104077582A (zh) * | 2013-03-25 | 2014-10-01 | 腾讯科技(深圳)有限公司 | 访问互联网的方法、装置及移动终端 |
JP6044426B2 (ja) * | 2013-04-02 | 2016-12-14 | 富士通株式会社 | 情報操作表示システム、表示プログラム及び表示方法 |
CN104156059A (zh) * | 2013-05-16 | 2014-11-19 | 原建桥 | 一种电子文件阅批的方法及装置 |
US20140362212A1 (en) * | 2013-06-05 | 2014-12-11 | Lku Technology Ltd. | Illuminating surveillance camera |
JP6090140B2 (ja) | 2013-12-11 | 2017-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9905033B1 (en) * | 2013-12-20 | 2018-02-27 | Amazon Technologies, Inc. | Adjusting graphical characteristics for recognition interfaces |
JP6267520B2 (ja) * | 2014-01-21 | 2018-01-24 | キヤノン株式会社 | 画像処理装置およびその制御方法、画像処理システム |
US20170285874A1 (en) * | 2014-09-08 | 2017-10-05 | Hewlett-Packard Development Company, L.P. | Capture and projection of an object image |
EP3192243A4 (en) * | 2014-09-10 | 2018-05-02 | Hewlett-Packard Development Company, L.P. | Image projection and capture with simultaneous display of led light |
US10417801B2 (en) | 2014-11-13 | 2019-09-17 | Hewlett-Packard Development Company, L.P. | Image projection |
WO2016088320A1 (en) * | 2014-12-01 | 2016-06-09 | Canon Kabushiki Kaisha | Image reading apparatus |
JP6065080B2 (ja) * | 2014-12-22 | 2017-01-25 | キヤノンマーケティングジャパン株式会社 | 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム |
JP6103025B2 (ja) * | 2014-12-22 | 2017-03-29 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法、及びプログラム |
US20160342449A1 (en) * | 2015-05-22 | 2016-11-24 | Microsoft Technology Licensing, Llc | Data exchange across multiple computing devices through a proactive intelligent clipboard |
WO2018136029A1 (en) * | 2017-01-17 | 2018-07-26 | Hewlett-Packard Development Company, L.P. | Input device with touch sensitive surface |
WO2018215502A1 (en) * | 2017-05-23 | 2018-11-29 | Koninklijke Kpn N.V. | Coordinate mapping for rendering panoramic scene |
JP2019062462A (ja) * | 2017-09-27 | 2019-04-18 | キヤノン株式会社 | 表示装置およびその制御装置、ならびにそれらの制御方法 |
CN109698945A (zh) | 2017-10-23 | 2019-04-30 | 中强光电股份有限公司 | 投影系统及其监控方法与显示系统及其监控方法 |
JP7062751B2 (ja) * | 2018-02-28 | 2022-05-06 | 富士フイルム株式会社 | 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム |
DE102018203349A1 (de) * | 2018-03-07 | 2019-09-12 | BSH Hausgeräte GmbH | Interaktionsmodul |
WO2020183725A1 (ja) * | 2019-03-14 | 2020-09-17 | connectome.design株式会社 | ワインソムリエシステム、ワインソムリエ方法、及びプログラム |
US10747371B1 (en) | 2019-06-28 | 2020-08-18 | Konica Minolta Business Solutions U.S.A., Inc. | Detection of finger press from live video stream |
CN112584054A (zh) * | 2019-09-29 | 2021-03-30 | 深圳市光鉴科技有限公司 | 基于图像编码的亮度自适应调节方法、系统、设备及介质 |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6037936A (en) * | 1993-09-10 | 2000-03-14 | Criticom Corp. | Computer vision system with a graphic user interface and remote camera control |
JPH07175587A (ja) * | 1993-10-28 | 1995-07-14 | Hitachi Ltd | 情報処理装置 |
JPH09319556A (ja) * | 1996-05-28 | 1997-12-12 | Matsushita Electric Ind Co Ltd | 情報処理装置 |
GB9614837D0 (en) * | 1996-07-12 | 1996-09-04 | Rank Xerox Ltd | Interactive desktop system with multiple image capture and display modes |
TW464800B (en) | 1998-10-07 | 2001-11-21 | Intel Corp | A method for inputting data to an electronic device, an article comprising a medium for storing instructions, and an image processing system |
US6690357B1 (en) * | 1998-10-07 | 2004-02-10 | Intel Corporation | Input device using scanning sensors |
US7680324B2 (en) * | 2000-11-06 | 2010-03-16 | Evryx Technologies, Inc. | Use of image-derived information as search criteria for internet and other search engines |
US20020102966A1 (en) * | 2000-11-06 | 2002-08-01 | Lev Tsvi H. | Object identification method for portable devices |
US7215322B2 (en) * | 2001-05-31 | 2007-05-08 | Siemens Corporate Research, Inc. | Input devices for augmented reality applications |
US20030164819A1 (en) * | 2002-03-04 | 2003-09-04 | Alex Waibel | Portable object identification and translation system |
US7576727B2 (en) * | 2002-12-13 | 2009-08-18 | Matthew Bell | Interactive directed light/sound system |
US20060251334A1 (en) * | 2003-05-22 | 2006-11-09 | Toshihiko Oba | Balance function diagnostic system and method |
JP4586370B2 (ja) * | 2004-01-28 | 2010-11-24 | 日本電気株式会社 | 投射表示装置及び投射表示方法 |
JP4413633B2 (ja) * | 2004-01-29 | 2010-02-10 | 株式会社ゼータ・ブリッジ | 情報検索システム、情報検索方法、情報検索装置、情報検索プログラム、画像認識装置、画像認識方法および画像認識プログラム、ならびに、販売システム |
US7812860B2 (en) * | 2004-04-01 | 2010-10-12 | Exbiblio B.V. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US7751805B2 (en) * | 2004-02-20 | 2010-07-06 | Google Inc. | Mobile image-based information retrieval system |
JP2005267034A (ja) * | 2004-03-17 | 2005-09-29 | Brother Ind Ltd | 画像入力装置 |
US7508978B1 (en) * | 2004-09-13 | 2009-03-24 | Google Inc. | Detection of grooves in scanned images |
KR100664166B1 (ko) | 2004-10-28 | 2007-01-04 | 엘지전자 주식회사 | 이동통신 단말기 입력 장치 |
JP4689684B2 (ja) | 2005-01-21 | 2011-05-25 | ジェスチャー テック,インコーポレイテッド | 動作に基づくトラッキング |
US20060262188A1 (en) * | 2005-05-20 | 2006-11-23 | Oded Elyada | System and method for detecting changes in an environment |
JP4991154B2 (ja) * | 2005-06-03 | 2012-08-01 | 株式会社リコー | 画像表示装置、画像表示方法及びコマンド入力方法 |
US7677737B2 (en) * | 2006-08-17 | 2010-03-16 | Sony Ericsson Mobile Communications Ab | Projector adaptation for self-calibration |
JP2008134868A (ja) * | 2006-11-29 | 2008-06-12 | Seiko Epson Corp | 画像認識装置、電子機器、画像認識方法、および、制御プログラム |
US7986843B2 (en) * | 2006-11-29 | 2011-07-26 | Google Inc. | Digital image archiving and retrieval in a mobile device system |
JP5109439B2 (ja) * | 2007-03-29 | 2012-12-26 | 富士ゼロックス株式会社 | 表示制御装置、及びプログラム |
JP2008283494A (ja) * | 2007-05-10 | 2008-11-20 | Sharp Corp | 画像処理システム |
JP2009094867A (ja) * | 2007-10-10 | 2009-04-30 | Fuji Xerox Co Ltd | 情報処理装置、遠隔指示システム及び制御プログラム |
CN101650520A (zh) * | 2008-08-15 | 2010-02-17 | 索尼爱立信移动通讯有限公司 | 移动电话的可视激光触摸板和方法 |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
-
2009
- 2009-04-14 JP JP2009097723A patent/JP5347673B2/ja not_active Expired - Fee Related
-
2010
- 2010-03-29 US US12/748,664 patent/US8325234B2/en active Active
- 2010-04-02 CN CN201010154417.5A patent/CN101867755B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN101867755A (zh) | 2010-10-20 |
CN101867755B (zh) | 2015-07-22 |
US20100259633A1 (en) | 2010-10-14 |
US8325234B2 (en) | 2012-12-04 |
JP2010250464A (ja) | 2010-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5347673B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11574115B2 (en) | Method of processing analog data and electronic device thereof | |
TWI475429B (zh) | 影像顯示控制設備及影像顯示控制方法 | |
US9251428B2 (en) | Entering information through an OCR-enabled viewfinder | |
US9172879B2 (en) | Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method | |
CN104756065B (zh) | 信息处理装置、信息处理方法以及计算机可读记录介质 | |
US9179090B2 (en) | Moving image recording device, control method therefor, and non-transitory computer readable storage medium | |
US20120133650A1 (en) | Method and apparatus for providing dictionary function in portable terminal | |
CN104583906A (zh) | 便携式设备的输入方法和装置 | |
KR20120006434A (ko) | 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램 | |
JP2007115045A (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
KR20110099991A (ko) | 컬러센서를 이용한 휴대단말의 기능 제공 방법 및 장치 | |
CN104662889A (zh) | 用于在便携式终端中进行拍摄的方法和设备 | |
US9646647B2 (en) | Content management apparatus, recording apparatus, operation apparatus, content management system, and control methods thereof | |
US20110037731A1 (en) | Electronic device and operating method thereof | |
US10915778B2 (en) | User interface framework for multi-selection and operation of non-consecutive segmented information | |
US9756238B2 (en) | Image capturing apparatus for performing authentication of a photographer and organizing image data for each photographer and control method thereof | |
US20160077795A1 (en) | Display apparatus and method of controlling thereof | |
US10212382B2 (en) | Image processing device, method for controlling image processing device, and computer-readable storage medium storing program | |
US8629846B2 (en) | Information processing apparatus and information processing method | |
TWI303803B (en) | Method and device for enhancing accuracy of voice control with image characters | |
JP2013192111A (ja) | 情報処理装置および情報処理方法ならびに情報処理装置のプログラム、コンピュータ読み取り可能な記録媒体 | |
JP2014203119A (ja) | 入力装置、入力処理方法及びプログラム | |
JP2016177364A (ja) | 情報処理装置、および紙媒体への撮像で得られるデータのデータ構造 | |
US9389778B2 (en) | Image capturing method of touch display module and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120229 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130311 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130628 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130723 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130805 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5347673 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |