JP5347673B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP5347673B2
JP5347673B2 JP2009097723A JP2009097723A JP5347673B2 JP 5347673 B2 JP5347673 B2 JP 5347673B2 JP 2009097723 A JP2009097723 A JP 2009097723A JP 2009097723 A JP2009097723 A JP 2009097723A JP 5347673 B2 JP5347673 B2 JP 5347673B2
Authority
JP
Japan
Prior art keywords
subject
image
information processing
metadata
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009097723A
Other languages
English (en)
Other versions
JP2010250464A (ja
Inventor
学 城井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009097723A priority Critical patent/JP5347673B2/ja
Priority to US12/748,664 priority patent/US8325234B2/en
Priority to CN201010154417.5A priority patent/CN101867755B/zh
Publication of JP2010250464A publication Critical patent/JP2010250464A/ja
Application granted granted Critical
Publication of JP5347673B2 publication Critical patent/JP5347673B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • H04N9/3176Constructional details thereof wherein the projection device is specially adapted for enhanced portability wherein the projection device is incorporated in a camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Projection Apparatus (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、カメラ及びプロジェクタを有する情報処理装置、当該情報処理装置における情報処理方法及びプログラムに関する。
従来から、カメラで撮影した画像をプロジェクタによって表示することが可能な装置が知られている。例えば、下記特許文献1には、カメラによる対象物の撮影画像と、入力装置から入力される付加情報とを合成して投影画像を作成して、当該投影画像を、対象物の存在位置に対応付けて投影させる情報提示装置が開示されている。これにより、この情報提示装置は、対象物が移動した後も対象物の痕跡を残すことができる。
特開2006−251206号公報
ところで、ユーザが、上述のようにカメラで撮像されプロジェクタで投影された対象物の画像を装置に記憶(キャプチャ)することを望む場合が考えられる。上記特許文献1に記載の技術においては、撮影された対象物の画像は、付加情報との合成のために情報提示装置に取り込まれるが、当該取り込みは自動的に実行され、ユーザはその処理に関与していない。したがって、ユーザが所望の対象物を撮影(撮像)範囲に対象物を置いたときに、ユーザの意図しない画像が記憶されてしまう可能性がある。
また、上記特許文献1に記載の技術では、対象物に関連する付加情報が投影画像に重畳されるが、この付加情報の入力は、カメラ及びプロジェクタに接続された情報提示装置の入力装置(キーボードやマウス等)によって行われる。この技術は、例えばプレゼンテーションやウェブ会議等、複数の人が大型のスクリーン等で投影画像を共有し、各人が手元に有する情報提示装置からその投影画像に対して情報を入力する場面を想定したものである。
しかし、例えば机や床等、より小さい領域に対象物を置いて撮影及び投影することを想定した場合、ユーザはその投影領域に注目しており、かつ対象物を把持したり、投影領域内に載置したりする必要がある。したがって、ユーザが、その対象物の画像を装置に記憶させるための操作を上記入力装置によって行う場合、操作が煩雑となり、直感性に欠ける結果となる。
以上のような事情に鑑み、本発明の目的は、カメラにより撮像されプロジェクタにより投影された画像を、容易かつ直感的な操作で記憶することが可能な情報処理装置、情報処理方法及びプログラムを提供することにある。
上記目的を達成するため、本発明の一形態に係る情報処理装置は、プロジェクタと、カメラと、第1の記憶部と、制御部とを有する。上記プロジェクタは、第1の操作用画像を含む投影像を所定領域に投影する。上記カメラは、上記所定領域内の被写体を撮像する。第1の記憶部は、RAM(Random Access Memory)、内蔵フラッシュメモリ、メモリカード、HDD(Hard Disk Drive)、光ディスク等である。上記制御部は、上記カメラにより撮像される撮像画像を基に上記第1の操作用画像への操作を検出し、当該操作が検出されたときに、上記撮像画像のうち少なくとも上記被写体の画像を記憶するように上記第1の記憶部を制御する。
上記第1の操作用画像とは、アイコン、ボタン、図形、文字等、ユーザの操作の対象となる画像をいう。上記第1の記憶部は、上記第1の操作用画像への操作の検出は、例えば異なる時間の撮像画像の差分を用いて、例えば第1の操作用画像がユーザの指で触れられたか否かを検出することで実行される。上記被写体は、例えば名刺や音楽CDジャケット等であるが、これらに限られず、あらゆる物が想定される。
この構成により、投影像に含まれる第1の操作用画像への操作が検出されたときに被写体の画像が記憶される。したがってユーザは、所望の被写体の画像を、情報処理装置自体には触れずに投影像に対する操作のみで容易かつ直感的に第1の記憶部に記憶させることができる。
上記情報処理装置は、第2の記憶部をさらに有してもよい。この場合、上記制御部は、上記撮像画像を基に上記被写体のメタデータを認識し、当該メタデータを所定のリストの一部として記憶するように上記第2の記憶部を制御してもよい。
また、第2の記憶部は、上記メタデータとともに、上記第1の記憶部に記憶された撮像画像や、当該撮像画像から抽出された被写体の画像を記憶してもよい。
上記第2の記憶部は、RAM、内蔵フラッシュメモリ、メモリカード、HDD、光ディスク等であり、上記第1の記憶部と同一のものであってもよいし、別個のものであってもよい。第1の記憶部と第2の記憶部とが別個のものである場合、典型的には、第1の記憶部はRAM(クリップボード)等の一時記憶媒体であり、第2の記憶部は内蔵フラッシュメモリ、メモリカード、HDD、光ディスク等の不揮発性の記憶媒体である。
上記メタデータとは、例えば被写体の正体(アイデンティティ)、著作情報、被写体に含まれる文字等のデータ等、被写体に関連するデータである。メタデータの認識は、例えばパターンマッチングや特徴認識等の画像認識技術、OCR(Optical Character Reader)等の文字認識技術を用いて実行される。所定のリストとは、例えばコンテンツリスト、連絡先リスト等、各被写体の種類に応じたリストである。メタデータは、上記被写体の画像とともにリストの一部として記憶されてもよいし、被写体の画像とは別個に記憶されてもよい。
これによりユーザは、被写体の画像自体のみならず、当該被写体のメタデータも情報処理装置に容易かつ直感的な操作で第2の記憶部へ記憶させることができる。
上記制御部は、上記メタデータが認識できたか否かを示す情報を上記投影像に含めるように上記プロジェクタを制御してもよい。
これによりユーザは、被写体のメタデータが認識できたか否かを容易に把握できる。また、メタデータが認識できなかった場合には、ユーザは、所定領域内における被写体の位置や姿勢を変更する等、認識精度を高めるための作業を行い、認識を確実に実行させることができる。
上記制御部は、上記操作が検出されたときから所定時間、上記投影像の照度を上記検出の前よりも大きくするように上記プロジェクタを制御してもよい。
これにより情報処理装置は、従来のスチルカメラのフラッシュをプロジェクタの投影像で擬似的に再現することができる。よってユーザは、記憶された画像を確認することなく、当該画像が記憶されたことを直感的に認識することができる。上記所定時間とは例えば0.5秒〜1.5秒程度であるが、この範囲に限られず、画像が記憶されたことをユーザが認識できればいかなる時間でもよい。
上記制御部は、上記撮像画像を基に上記被写体が上記所定領域内に存在するか否かを検出し、上記被写体が上記所定領域内に存在することが検出された場合に、上記第1の操作用画像を上記投影像に含めるように上記プロジェクタを制御してもよい。
これにより、所定領域内に被写体が存在する場合にのみ第1の操作用画像が投影されるため、被写体が存在しないにも関わらず第1の操作用画像が投影され視認性が損なわれることを防ぐことができる。またユーザは、被写体の画像を記憶させるための準備が整ったことを容易に認識することができる。被写体の存在の有無の検出は、例えば異なる時間の撮像画像の差分を用いて行われる。
上記制御部は、上記メタデータが認識された被写体が上記所定領域内に存在しなくなったことが検出されたときに、上記メタデータを記憶するように上記第2の記憶部を制御してもよい。
これによりユーザは、第1の記憶部へ被写体の画像が記憶された後、所定領域から被写体を取り除くだけで、被写体の画像及びメタデータをリストの一部として第2の記憶部へ記憶させることができる。
この場合上記制御部は、上記所定領域内に存在する複数の被写体からそれぞれメタデータを認識してもよい。そして上記制御部は、複数の被写体が全て上記所定領域内に存在しなくなったことが検出されたときに、上記複数のメタデータをそれぞれ上記所定のリストの一部として一度に記憶するように上記第2の記憶部を制御してもよい。
これによりユーザは、上記所定領域内に複数の被写体を置き、第1の記憶部へ各被写体の画像が記憶された後、各被写体を所定領域内から取り除くだけで、全ての被写体の画像及びメタデータを一度に第2の記憶部へ記憶させることができる。
また上記制御部は、上記所定領域内に存在する、第1の被写体及び当該第1の被写体とは異なる種類の第2の被写体からそれぞれメタデータを認識してもよい。そして上記制御部は、第1の被写体が上記所定領域内に存在しなくなったことが検出されたときに、当該第1の被写体の第1のメタデータを第1のリストの一部として記憶するように上記第2の記憶部を制御してもよい。同様に上記制御部は、第2の被写体が上記所定領域内に存在しなくなったことが検出されたときに、当該第2の被写体の第2のメタデータを第2のリストの一部として記憶するように、上記第2の記憶部を制御してもよい。
これによりユーザは、異なる種類の被写体を所定領域内に置き、第1の記憶部への各被写体の画像の記憶後、所定領域から各被写体を取り除くだけで、各被写体の種類に応じた各リストの一部として各被写体のメタデータを第2の記憶部へ記憶できる。
上記制御部は、上記メタデータが認識されたときに、上記第1の操作用画像とは異なる第2の操作用画像を上記投影像に含めるように上記プロジェクタを制御してもよい。そして上記制御部は、上記撮像画像を基に当該第2の操作用画像への操作を検出し、当該操作が検出されたときに、上記メタデータを記憶するように上記第2の記憶部を制御してもよい。
この第2の操作用画像も、アイコン、ボタン、図形、文字等、ユーザの操作の対象となる画像であり、上記第1の操作用画像とは区別可能な状態で投影される。
これにより、ユーザは、第2の操作用画像に対する容易かつ直感的な操作により、各被写体のメタデータをリストの一部として第2の記憶部へ記憶させることができる。
この場合上記制御部は、上記所定領域内に存在する複数の被写体からそれぞれメタデータを認識してもよい。そして上記制御部は、上記第2の操作用画像への操作が検出されたときに、上記複数のメタデータをそれぞれ上記所定のリストの一部として一度に記憶するように上記第2の記憶部を制御してもよい。
これによりユーザは、上記所定領域内に複数の被写体を置き、第1の記憶部へ各被写体の画像が記憶された後、第2の操作用画像に対して一度の操作を行うだけで、全ての被写体のメタデータを第2の記憶部へ記憶させることができる。
また上記制御部は、上記所定領域内に存在する、第1の被写体及び当該第1の被写体とは異なる種類の第2の被写体からそれぞれメタデータを認識してもよい。そして上記制御部は、上記第2の操作用画像への操作が検出されたときに、当該第1の被写体及び当該第1の被写体の第1のメタデータを第1のリストの一部として記憶するように上記第2の記憶部を制御してもよい。同様に上記制御部は、当該第2の被写体及び当該第2の被写体の第2のメタデータを第2のリストの一部として記憶するように、上記第2の記憶部を制御してもよい。
これによりユーザは、異なる種類の被写体を所定領域内に置き、第1の記憶部への各被写体の画像の記憶後、第2の操作用画像を一度操作するだけで、各被写体の種類に応じた各リストの一部として各被写体のメタデータを第2の記憶部へ記憶できる。
上記制御部は、上記被写体の画像を用いて、上記メタデータを上記所定のリストの一部として記憶する様子を示すアニメーションを投影するように上記プロジェクタを制御してもよい。
これにより情報処理装置は、被写体のメタデータを記憶する様子をユーザに閲覧させることで、ユーザの興趣の向上を図りながら、記憶したことを分かり易くユーザに把握させることができる。
上記制御部は、上記被写体の画像が上記第1の記憶部に記憶された後、当該被写体が当該記憶時の位置から移動したか否かを検出してもよい。そして上記制御部は、当該被写体が移動したことが検出されたときに、上記第1の記憶部に記憶された上記被写体の画像を、当該記憶時の位置に投影するように上記プロジェクタを制御してもよい。
これにより、ユーザは、被写体を所定領域から取り除いても、当該被写体が第1の記憶部に記憶されたことを容易に認識することができる。
本発明の他の形態に係る情報処理方法は、プロジェクタとカメラと記憶部とを有する情報処理装置における情報処理方法である。
この情報処理方法においては、操作用画像を含む投影像が上記プロジェクタにより所定領域に投影される。上記所定領域内の被写体が、上記カメラにより撮像される。上記カメラにより撮像される撮像画像を基に上記操作用画像への操作が検出される。上記操作が検出されたときに、上記撮像画像のうち少なくとも上記被写体の画像が記憶部に記憶される。
この方法により、投影像に含まれる操作用画像への操作が検出されたときに被写体の画像が記憶されるため、ユーザは、所望の被写体の画像を、情報処理装置自体に触れることなく、投影像に対する操作のみで容易かつ直感的に記憶部に記憶させることができる。
本発明のまた別の形態に係るプログラムは、プロジェクタとカメラと記憶部とを有する情報処理装置に、投影ステップと、撮像ステップと、検出ステップと、記憶ステップとを実行させる。
上記投影ステップは、操作用画像を含む投影像をプロジェクタにより所定領域に投影する。上記撮像ステップは、上記所定領域内の被写体をカメラにより撮像する。上記検出ステップは、上記カメラにより撮像される撮像画像を基に上記操作用画像への操作を検出する。上記記憶ステップは、上記操作が検出されたときに、上記撮像画像のうち少なくとも上記被写体の画像を記憶部に記憶する。
このプログラムの実行により、投影像に含まれる操作用画像への操作が検出されたときに被写体の画像が記憶されるため、ユーザは、所望の被写体の画像を、情報処理装置自体に触れずに、投影像への操作のみで容易かつ直感的に記憶部に記憶させることができる。
本発明によれば、カメラにより撮像されプロジェクタにより投影された画像を、容易かつ直感的な操作で記憶することができる。
本発明の一実施形態に係る携帯情報機器の外観及びその使用状態を示す図である。 本発明の一実施形態に係る携帯情報機器のハードウェア構成を示した図である。 本発明の一実施形態に係る携帯情報機器がカメラの撮影画像をキャプチャする際の動作の流れを示したフローチャートである。 本発明の一実施形態において、CPUが投影領域内の被写体の存在を検出して「Capture」ボタンを投影させる際の投影領域の様子を示した図である。 本発明の一実施形態において、CPUが「Capture」ボタンが押されたことを検出して撮像画像をキャプチャする際の投影領域の様子を示した図である。 本発明の一実施形態において、CPUが投影領域内の複数の被写体の存在を検出して「Capture」ボタンを投影させる際の投影領域の様子を示した図である。 本発明の一実施形態において、投影領域内に被写体が複数存在する場合にCPUが「Capture」ボタンが押されたことを検出して撮像画像をキャプチャする際の投影領域の様子を示した図である。 本発明の一実施形態に係る携帯情報機器が被写体の画像及び被写体のメタデータを記憶する際の動作の流れを示したフローチャートである。 本発明の一実施形態において、キャプチャ後に被写体画像が投影される様子を示した図である。 本発明の一実施形態において、メタデータの認識結果表示画像が投影される様子を示した図である。 本発明の一実施形態において、名刺の文字情報が連絡先リストに記憶される際に投影されるアニメーションを示した図である。 本発明の他の実施形態において、メタデータの記憶を、ボタンへのユーザの操作を基に実行する場合における携帯情報機器の動作の流れを示したフローチャートである。 本発明の他の実施形態において、投影領域内にメタデータを記憶させるためのボタンが投影された様子を示す図である。 本発明の他の実施形態において、投影領域内の異なる種類の被写体がそれぞれキャプチャされそれぞれについてメタデータが記憶される例を示した図である。 本発明の他の実施形態において、投影領域と撮像領域とが一致しない場合の投影像の例を示した図である。 本発明の他の実施形態において、アニメーション途中で誤った文字が修正される様子を示した図である。
以下、図面を参照しながら、本発明の実施形態を説明する。
[システムの概要]
図1は、本発明の一実施形態に係る携帯情報機器の外観及びその使用状態を示す図である。
同図に示すように、本実施形態に係る携帯情報機器100は、例えば手に収まる程度の大きさの筐体1を有し、例えば机や床等の水平面に載置されて使用される。もちろん、携帯情報機器100は、壁等の垂直面に掛けられて使用されても構わない。
この携帯情報機器100は、プロジェクタ2、カメラ3、ディスプレイ4を有する。
プロジェクタ2は、机上や床上の、所定範囲の矩形の投影領域10に、例えばGUI(Graphical User Interface)やイメージデータ等を含む投影像を投影する。カメラ3は、当該投影領域10を撮像する。すなわち、プロジェクタ2の投影範囲とカメラ3の撮像範囲とは一致している。ユーザは、プロジェクタ2の投影像に対して手Hの指等で操作を行い、携帯情報機器100は、カメラ3によりそのユーザの操作を認識し、その操作に応じた処理を実行する。また携帯情報機器100は、ユーザにより投影領域10内に載置された被写体を撮像し、投影像に対するユーザの操作に応じて当該撮像画像を記憶(キャプチャ)する。さらに携帯情報機器100は、キャプチャされた撮像画像または当該撮像画像から抽出された被写体の画像をプロジェクタ2により投影する。
[携帯情報機器のハードウェア構成]
図2は、上記携帯情報機器100のハードウェア構成を示した図である。
同図に示すように、携帯情報機器100は、上記プロジェクタ2、カメラ3、ディスプレイ4のほか、CPU(Central Processing Unit)11、RAM(Random Access Memory)12、フラッシュメモリ13、スピーカ14、キー/スイッチ部15を有する。また携帯情報機器100は、メモリカードI/F(インタフェース)16、外部I/F18等の各種インタフェースを有する。
CPU11は、携帯情報機器100の各部と信号をやり取りして各種演算を行い、投影処理、撮像処理及びその他の処理を統括的に制御する。
RAM12は、CPU11の作業領域として用いられ、CPU11が処理する例えばカメラ3による撮像画像、当該撮像画像から抽出された被写体の画像、当該被写体から認識されたメタデータ等の各種データやプログラムを一時的に格納する。RAM12は、上記撮像画像や被写体の画像を一時的に記憶する(キャプチャ)するための領域(クリップボード)を有する。
フラッシュメモリ13は、例えばNAND型のものである。フラッシュメモリ13は、上記撮像画像、被写体の画像及びメタデータ、プロジェクタ2により投影される画像、その他音声、テキスト等の各種データ、CPU11が実行する制御プログラムやアプリケーション等の各種プログラムを記憶する。またフラッシュメモリ13は、本実施形態において撮像画像または抽出された被写体の画像をキャプチャし、メタデータを認識して記憶するためのアプリケーションプログラムも記憶する。当該アプリケーションは、メモリカード17等の他の記録媒体に記憶されていても構わない。携帯情報機器100は、当該フラッシュメモリ13に代えて、またはそれに加えて、HDDを有していてもよい。
スピーカ14は、例えば撮像時やその他の操作時等に、上記フラッシュメモリ13等に記憶された音声を出力する。
キー/スイッチ部15は、例えば電源のON/OFFや各種機能の切替等、上記タッチパネル5への操作では実行できない機能や、タッチパネル5への操作で実行できる機能と同等の機能に対応した操作を受け付け、入力信号をCPU11へ伝える。
メモリカードI/F16は、例えばメモリースティック等の各種メモリカード17と接続して、例えば上記撮像画像等の各種データをメモリカード17へ記憶させる。またメモリカードI/F16は、メモリカード17内の各種データをRAM12へ読み出し、CPU11により再生させる。
外部I/F18は、例えばUSB(Universal Serial Bus)や無線LAN(Local Area Network)等の各種規格に基づいて、有線または無線により外部機器と接続し、各種データのやり取りを行う。
上記プロジェクタ2は、例えば液晶プロジェクタであり、投影制御部21、光源22、液晶パネル23及び投影光学系24を有する。
光源22は例えばLED(Light Emitting Diode)であり、供給される電流に応じた明るさで液晶パネル23を照明する。液晶パネル23は変調素子として機能し、投影制御部21からの駆動信号に応じて投影像(光像)を生成する。投影光学系24は、液晶パネル23から出射される変調光を投影する。投影制御部21は、CPU11からの指示に基づき、光源22及び液晶パネル23へ制御信号を供給する。
もちろん、プロジェクタ2は、液晶プロジェクタに限られず、DLP(登録商標)プロジェクタやLCOS(Liquid Crystal On Silicon)プロジェクタ等の、他の動作方式のプロジェクタであってもよい。
プロジェクタ2は、後述するユーザの操作用の画像を含む投影像を上記投影領域10へ投影し、また、カメラ3により撮像されRAM12にキャプチャされた撮像画像または被写体の画像を上記投影領域10へ投影する。
上記カメラ3は、撮像制御部31、撮像素子32及び撮像光学系33を有する。
撮像素子32としては、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサが用いられる。撮像光学系33は、撮像素子32の撮像面上に被写体像を結像させる。撮像制御部31は、CPU11からの指示に基づき、撮像素子32を駆動し、撮像素子32から出力される画像信号に対して所定の信号処理を行う。
信号処理後の撮像画像は、CPU11が投影像に対するユーザの操作を検出するために用いられる。また当該撮像画像は、当該検出されたユーザの操作に基づいて上記RAM12のクリップボード等にキャプチャされ、その後、適宜フラッシュメモリ13またはメモリカード17に記憶される。
ディスプレイ4は例えばTFT(Thin Film Transistor)等のLCD(Liquid Crystal Display)やOELD(Organic Electro-Luminescence Display)であり、タッチパネル5を有する。ディスプレイ4は、CPU11の制御の下、例えばユーザが携帯情報機器100内のデータについて操作を行う場合や、プロジェクタ2及びカメラ3の各種設定操作を行う場合等に、タッチ操作用のGUIや各種データを表示する。
ディスプレイ4がタッチパネル5を有さずに、ユーザの操作が上記キー/スイッチ部15のみから入力されても構わない。
[携帯情報機器の動作]
次に、以上のように構成された携帯情報機器100の動作について説明する。以下の説明では、CPU11を動作の主体として説明するが、このCPU11の動作は、RAM12に展開されるプログラムと協働して実行される。
(携帯情報機器のキャプチャ動作)
まず、携帯情報機器100のキャプチャ動作について説明する。
図3は、携帯情報機器100がカメラ3の撮影画像をキャプチャする際の動作の流れを示したフローチャートである。
同図に示すように、まず、携帯情報機器100のCPU11は、上記プロジェクタ2により上記投影領域10に投影像を投影し、カメラ3により当該投影領域10を撮像する(ステップ41)。
続いてCPU11は、カメラ3による撮像画像を解析し、当該投影領域10内にユーザの手H以外の被写体が存在するか否かを判断する(ステップ42)。
当該被写体の存在を認識できた場合(YES)には、CPU11は、投影領域10内に「Capture」ボタンの画像を投影させるようにプロジェクタ2を制御する(ステップ43)。
続いてCPU11は、上記投影された「Capture」ボタンがユーザの指で押されたか否か(投影領域10のうち、「Capture」ボタンの領域にユーザの指が触れたか否か)を判断する。当該判断も、カメラ3の撮像画像について画像解析を行うことで実行される。
続いてCPU11は、上記「Capture」ボタン50が押されたことを検出した場合(YES)、投影領域10内に存在する被写体にフォーカスを合わせるようにカメラ3を制御する(ステップ45)。
そしてCPU11は、当該フォーカスが合わされた撮像画像をカメラ3によりキャプチャする(ステップ46)。キャプチャされた撮像画像は例えばRAM12のクリップボードに記憶される。
このとき、CPU11は、プロジェクタ2による投影像の照度を例えば1秒等の所定時間大きくする。またそれと同時にCPU11は、スピーカ14から、一般的なカメラのフラッシュ音を出力させる(ステップ47)。これらの動作により、CPU11は、一般的なカメラのフラッシュ及びフラッシュ音を擬似的に再現する。
図4は、CPU11が上記投影領域10内の被写体の存在を検出して上記「Capture」ボタンを投影させる際の投影領域10の様子を示した図である。同図においては、被写体としてCDジャケット(CDケース)が撮像される場合の例を示す。
同図(A)に示すように、ユーザが例えば手HでCDジャケットJを投影領域10内に載置すると、CPU11は、カメラ3によるその手H及びCDジャケットJの撮像画像を認識する。CPU11は、例えば予め記憶された手の形態や色等のメタデータと撮像画像とをパターンマッチングし、またエッジ抽出等の画像解析処理を行うことで、投影領域10内に手H以外の物体が存在することを検出する。この時点では、CPU11は、手以外の何らかの物体が存在することは認識できているが、その物体がCDジャケットJであることは認識していない。
CPU11は、被写体の存在を検出すると、同図(B)に示すように、プロジェクタ2を制御して、例えば投影領域10の右下等に、「Capture」ボタン50を投影させる。
もちろん、この「Capture」ボタン50は、「Capture」の文字を有するボタンに限られるものではなく、キャプチャ動作を実行させるための操作用の画像であることがユーザに認識できればどのようなボタンやアイコン等であっても構わない。
図5は、CPU11が上記「Capture」ボタン50が押されたことを検出して撮像画像をキャプチャする際の投影領域10の様子を示した図である。
同図(A)に示すように、CPU11は、カメラ3による撮像画像を基に、当該「Capture」ボタン50周辺の撮像画像が変化したことを認識することで、ユーザが指等で「Capture」ボタン50を押したことを検出する。
「Capture」ボタン50を押したことを検出すると、CPU11は、例えばその検出から1秒後等の所定時間後に、カメラ3により撮像画像をキャプチャする。またこれと同時にCPU11は、同図(B)に示すように、投影像の照度を大きくするようにプロジェクタ2を制御する。これにより一般的なカメラのフラッシュが視覚的に再現される。これとともにCPU11は、スピーカ14からフラッシュ音を模した音を出力させる。
被写体は投影領域10内に複数存在してもよい。
図6は、CPU11が投影領域10内の複数の被写体の存在を検出して「Capture」ボタン50を投影させる際の投影領域10の様子を示した図である。図7は、投影領域10内に被写体が複数存在する場合にCPU11が「Capture」ボタン50が押されたことを検出して撮像画像をキャプチャする際の投影領域10の様子を示した図である。これらの図においては、被写体として複数の名刺が撮像される場合の例を示す。
図6(A)に示すように、ユーザが例えば手Hで名刺C1〜C5を投影領域10内に載置すると、CPU11は、カメラ3による手H及び名刺C1〜C5の撮像画像を認識する。CPU11は、上記図4の場合と同様に画像解析処理等を行い、投影領域10内に手H以外の複数の物体が存在することを検出すると、同図(B)に示すように、プロジェクタ2に「Capture」ボタン50を投影させる。
図7(A)に示すように、CPU11は、上記図5の場合と同様に、カメラ3による撮像画像を基に、ユーザにより「Capture」ボタン50が押されたことを検出すると、カメラ3により撮像画像をキャプチャする。これとともにCPU11は、プロジェクタ2により投影像の照度を所定時間大きくさせ、スピーカ14からフラッシュ音を出力させる。
(携帯情報機器による被写体のメタデータ記憶動作)
次に、携帯情報機器100による被写体のメタデータの記憶動作について説明する。
図8は、携帯情報機器100が被写体のメタデータを記憶する際の動作の流れを示したフローチャートである。
同図に示すように、CPU11は、撮像画像のキャプチャ後、キャプチャ画像についてエッジ検出等の画像解析処理を行い、被写体の領域の画像を抽出する(ステップ81)。以下、この抽出された被写体の領域の画像を被写体画像と称する。被写体画像は例えばRAM12等に一時的に記憶される。
続いてCPU11は、投影領域10内の手H以外の被写体が、キャプチャ時の位置から移動したか否かを判断する。この判断は、カメラ3による撮像画像をキャプチャ時と所定時間経過後とで比較して差分を取ること等により行われる。
CPU11は、被写体が移動したと判断した場合(YES)には、上記被写体画像を、キャプチャ時に被写体が存在していた位置へ投影するようにプロジェクタ2を制御する(ステップ83)。
図9は、この被写体画像が投影される様子を示した図である。
同図(A)は、被写体が上記CDジャケットJである場合の投影の様子を示す。CPU11は、ユーザが手HによりCDジャケットJをキャプチャ時の位置から移動させたことを検出すると、キャプチャ画像からCDジャケットJの領域を抽出したCDジャケット画像51を、そのCDジャケットJのキャプチャ時の位置に投影させる。
同図(B)は、被写体が上記複数の名刺C1〜C5である場合の投影の様子を示す。CPU11は、ユーザが手Hにより名刺C1〜C5をキャプチャ時の位置から移動させたことを検出すると、キャプチャ画像から名刺C1〜C5の領域をそれぞれ抽出した複数の名刺画像C1〜C5を、それら名刺C1〜C5のキャプチャ時の位置に投影させる。
同図(A)及び(B)に示した処理により、ユーザは、被写体がキャプチャされたことを容易に把握することができる。
図8に戻り、続いてCPU11は、投影領域10内から全ての被写体が投影領域10外へ移動したか(存在しなくなったか)否かを判断する(ステップ84)。この判断も、カメラ3による撮像画像を解析することで行われる。
CPU11は、全ての被写体が投影領域10外へ移動したと判断した場合(YES)には、上記「Capture」ボタン50を投影像から消去するようにプロジェクタ2を制御する(ステップ85)。当該ステップ84及び85の処理は、これ以降の処理の実行中も随時実行される。
続いてCPU11は、上記抽出された被写体画像から、被写体のメタデータを認識する(ステップ86)。ここでメタデータとは、例えば被写体の正体(被写体が何であるか)、被写体に含まれる文字等のデータ等の被写体に関連するデータである。このメタデータの認識は、例えばパターンマッチングや特徴認識等の画像認識技術を用いて実行される。被写体が著作物である場合には、メタデータとして著作情報(著作者・著作物名)が認識されてもよい。この認識には、上記画像認識技術のほか、OCR等の文字認識技術が用いられてもよい。また携帯情報機器100は、被写体画像をネットワーク上の検索エンジンに送信して対応する著作情報を取得するための通信手段を有していてもよい。
続いてCPU11は、被写体からメタデータを認識できた場合(YES)には、認識成功を示す画像を投影し、認識できなかった場合に(NO)には、認識失敗を示す画像を投影するようにプロジェクタ2を制御する(ステップ88、89)。
図10は、当該メタデータの認識の成功及び失敗を示す画像(以下、認識結果表示画像と称する)が投影される様子を示した図である。
同図(A)は、被写体が上記CDジャケットJである場合の投影の様子を示す。CPU11は、CDジャケットJのメタデータ(CDジャケットという正体)の認識に成功した場合には、認識結果表示画像53として、CDジャケット画像51近傍に例えばバルーンやポップアップ等により「Recognized」という文字をプロジェクタ2に投影させる。またCPU11は、CDジャケット画像51の周囲に、メタデータの認識対象であることを示す枠54を投影させるようにプロジェクタ2を制御する。
同図(B)は、被写体が上記複数の名刺C1〜C5である場合の投影の様子を示す。CPU11は、名刺C1〜C5のメタデータ(例えば名刺に記載された文字)の認識に成功した場合には、認識結果表示画像53として、名刺画像52の近傍に「Recognized」の文字を投影させ、失敗した場合には「Failed」の文字をプロジェクタ2に投影させる。各名刺画像52の周囲には枠54も投影される。同図では、名刺画像52a、52b、52c及び52eに対応する名刺C1、C2、C3及びC5の文字認識が成功し、名刺画像52dに対応する名刺C4の文字認識が失敗した例が示されている。
これにより、ユーザはメタデータの認識結果を容易に把握することができる。また、メタデータの認識に失敗した名刺画像については、ユーザは、当該名刺画像に対応する名刺を再度投影領域10内に載置して再度キャプチャさせることで、メタデータを正しく認識させることができる。
もちろん、メタデータの認識結果を示すための表示としては、上記「Recognized」及び「Failed」の文字に限られるものではなく、認識結果がユーザに把握できる態様であればどのような表示がなされてもよい。
図8に戻り、CPU11は、続いて、メタデータ認識対象の被写体が名刺であるか否かを判断する(ステップ90)。被写体が名刺であると判断した場合(YES)には、CPU11は、名刺のメタデータを連絡先リストの一部として例えばフラッシュメモリ13等に記憶させる(ステップ91)。名刺が複数存在する場合には、各名刺のメタデータが一度に記憶される。
ここで連絡先リストとは、名刺から認識した名前、会社名、住所、電話番号、メールアドレス等の文字情報を人物毎にリスト化したものである。この連絡先リストに名刺の文字情報を記憶させる場合、CPU11は、その記憶の様子を示すアニメーションを投影させるようにプロジェクタ2を制御する。
図11は、当該名刺の文字情報が連絡先リストに記憶される際のアニメーションを示した図である。このアニメーションは、上記キャプチャ動作及びメタデータ認識結果の投影動作からの一連の処理として投影される。また同図では、CPU11は上記名刺C1〜C5の全てについて文字情報の認識に成功したものとして説明する。
同図(A)に示すように、CPU11は、名刺画像52a〜52eを例えば縦に並べ、各名刺画像52a〜52eの横に、文字情報として認識した名前55(55a〜55e)を投影させるようにプロジェクタ2を制御する。
同図(B)及び(C)に示すように、CPU11は、各名刺画像52a〜52eを例えば名前のアルファベット順に重ねて、既に連絡先リストに格納済みの他の名刺のアルファベット順の列56の一部の該当箇所に順次ファイルするようなアニメーションを投影させる。
ここで、連絡先リストには、文字情報とともに名刺画像52a〜52e自体も記憶されてもよい。
このようなアニメーションにより、携帯情報機器100は、名刺C1〜C5が連絡先リストの一部として記憶されたことを分かりやすくユーザに把握させるとともに、ユーザの興趣の向上を図ることができる。
また、複数の名刺の文字情報が一度に認識され記憶されるため、それぞれについて記憶処理を実行する場合に比べて、CPU11の処理を効率化でき、ユーザの手間も省略することができる。
図8に戻り、CPU11は、被写体が名刺でないと判断した場合(NO)には被写体がCDジャケットであるか否かを判断する(ステップ92)。被写体がCDジャケットであると判断した場合(YES)には、CDジャケットのメタデータをミュージックコレクションの一部として例えばフラッシュメモリ13等に記憶させる。
ここでミュージックコレクションとは、CDジャケット画像51自体を写真集として記憶するものである。しかし、CPU11は、CDジャケット画像51を基にそのCDジャケットJに対応するアルバム名やアーティスト名等をメタデータとして認識して、当該CDジャケット画像51とともにミュージックコレクションに記憶してもよい。
さらに、CPU11は、当該メタデータを認識したCDジャケットJに対応する楽曲データや関連する楽曲データを例えばインターネット等からダウンロードしてもよい。また、CPU11は、当該携帯情報機器100が外部機器と接続したときに、当該楽曲データが当該外部機器に記憶されている場合には、当該楽曲データが外部機器から例えば上記外部I/F18を介して携帯情報機器100へ転送されるように予約をしてもよい。
被写体が名刺でもCDジャケットでもないと判断した場合(NO)には、CPU11は処理を終了する。しかし、携帯情報機器100が、名刺及びCDジャケット以外の被写体からメタデータを認識して記憶するためのアプリケーションも有している場合には、それに応じた処理が実行される。
また、以上の処理を実行する上で、名刺からメタデータを認識するアプリケーションとCDジャケットからメタデータを認識するためのアプリケーションとは別個に存在してもよいし、1つのアプリケーションの各機能として存在してもよい。
上記ステップ85において消去された「Capture」ボタン50は、被写体が投影領域10内に存在することが検出された場合には、上記図3のステップ42以降で説明した処理により再度投影される。
以上の処理により、携帯情報機器100は、投影像に含まれる「Capture」ボタン50への操作が検出されたときに被写体の画像をキャプチャすることができる。さらに携帯情報機器100は、全ての被写体が投影領域10内に存在しなくなったことをトリガとして、被写体画像からメタデータを認識して記憶することができる。したがってユーザは、所望の被写体の画像を、携帯情報機器100自体には触れずに投影像に対する操作のみで容易かつ直感的にキャプチャさせ、メタデータを認識及び記憶させることができる。またユーザは、投影領域10内に所望の被写体を載置して「Capture」ボタン50を押すことで、当該携帯情報機器100を、投影領域10をファインダ、「Capture」ボタン50をシャッターボタンとする擬似的な大きなカメラとして使用することができる。
[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更され得る。
上述の実施形態においては、CPU11は、全ての被写体が投影領域10内に存在しなくなった(投影領域10外へ移動した)ことをトリガとして、被写体画像からメタデータを認識して記憶していた。しかし、認識されたメタデータを記憶するか否かをユーザに判断させ、ユーザの操作を基にメタデータを記憶してもよい。
例えば、CPU11は、メタデータの記憶を指示するための操作を行うためのボタン画像を投影像に含めるようにプロジェクタ2を制御してもよい。
図12は、上記メタデータの記憶を、ボタンの画像へのユーザの操作を基に実行する場合における携帯情報機器100の動作の流れを示したフローチャートである。
同図に示すように、CPU11は、ステップ121からステップ129までは、上述した図8におけるステップ81からステップ89と同様の処理を実行する。
続いて、CPU11は、被写体が名刺であると判断した場合(ステップ130のYES)には、投影像に「Save as Contacts」ボタンを含ませるようにプロジェクタ2を制御する(ステップ131)。
続いてCPU11は、カメラ3の撮像画像を基に、ユーザが指等で「Save as Contacts」ボタンを押したか否かを判断する(ステップ132)。
そしてCPU11は、「Save as Contacts」ボタンが押されたと判断した場合(YES)には、上述の実施形態と同様に、上記連絡先リストへメタデータを記憶する(ステップ133)。
またCPU11は、被写体がCDジャケットであると判断した場合(ステップ134のYES)には、投影像に「Save as Music Collection」ボタンを含ませるようにプロジェクタ2を制御する(ステップ135)。
続いてCPU11は、カメラ3の撮像画像を基に、ユーザが指等で「Save as Music Collection」ボタンを押したか否かを判断する(ステップ136)。
そしてCPU11は、「Save as Music Collection」ボタンが押されたと判断した場合(YES)には、上述の実施形態と同様に、上記ミュージックコレクションへCDジャケット画像Jを記憶する(ステップ137)。
もちろん、この「Save as Contacts」ボタン及び「Save as Music Collection」ボタンは、それらの文字を有するボタンに限られるものではない。すなわち、各被写体のメタデータの記憶処理を実行させるための操作用の画像であることがユーザに認識できればどのようなボタンやアイコン等が投影されも構わない。
図13は、投影領域10内に上記「Save as Music Collection」ボタン及び「Save as Contacts」ボタンが投影された様子を示す図である。
同図(A)は、被写体がCDジャケットJである場合の例を示す。CPU11は、被写体がCDジャケットであると判断すると、例えばCDジャケット画像51の近傍に、上記「Capture」ボタン50とは明確に区別できる態様で「Save as Music Collection」ボタン61を投影するようにプロジェクタ2を制御する。
CPU11は当該「Save as Music Collection」ボタン61をユーザが押したことを検出した場合に、CDジャケット画像51の記憶処理を実行する。
同図(B)は、被写体が複数の名刺C1〜C5である場合の例を示す。CPU11は、名刺C1〜C5の全てについて文字情報を認識し、被写体が名刺であると判断すると、「Save as Contacts」ボタン62を投影するようにプロジェクタ2を制御する。
同図では、「Save as Contacts」ボタン62は、複数の名刺C1〜C5に対応する名刺画像52a〜52eについて1つのみ投影されているが、もちろん、名刺毎にそれぞれ投影されてもよい。またこの場合には、全ての名刺について文字情報の認識が成功している必要はなく、成功している名刺についてのみ「Save as Contacts」ボタンが表示されてもよい。
CPU11は当該「Save as Contacts」ボタン62をユーザが押したことを検出した場合に、複数の名刺画像52a〜52eを一度に記憶する。
以上の処理により、携帯情報機器100は、メタデータの認識後、当該メタデータ及び被写体画像を連絡先リストやミュージックコレクション等のリストに記憶するか否かを、投影像に対するユーザの操作を基に判断して実行することができる。したがって、ユーザは、被写体のメタデータ及び被写体画像をリストに記憶するか否かにつき、容易な操作で能動的に決定することができる。
上述の実施形態においては、投影領域10内に被写体としてCDジャケットが存在する場合と名刺が存在する場合とを別個に示した。しかし、このような異なる種類の被写体が投影領域10内に同時に存在する場合には、CPU11は、それぞれについてキャプチャ処理及びメタデータ認識・記憶処理を実行してもよい。
図14は、このように異なる被写体が投影領域10内に同時に存在する場合の様子を示した図である。
同図(A)に示すように、CPU11は、投影領域10内に異なる被写体(CDジャケットJ及び名刺C)が存在することを認識した場合、両者を含むカメラ3の撮像画像をキャプチャするための「Capture」ボタン50をプロジェクタに投影させる。
CPU11は、「Capture」ボタン50が押されたことを検出した場合、同図(B)に示すように、当該投影画像をキャプチャし、各キャプチャ画像から、CDジャケット画像51及び名刺画像52をそれぞれ抽出する。
続いてCPU11は、認識結果表示画像53に続いて「Save as Music Collection」ボタン61及び「Save as Contacts」ボタン62をプロジェクタ2に投影させる。そしてCPU11は、これらのボタンに対するユーザの操作に応じて、名刺Cの文字情報を連絡先リストに記憶し、CDジャケット画像51をミュージックコレクションに記憶する。
また、CPU11は、「Save as Music Collection」ボタン61及び「Save as Contacts」ボタン62を投影させない場合には、CDジャケットJ及び名刺Cが投影領域10内から投影領域10外へそれぞれ移動したときにそれぞれ記憶処理を実行する。
以上の処理により、ユーザは、種類の異なる被写体を投影領域10内に一度に載置して投影像に対する操作を行うだけで、異なる被写体のメタデータ等をそれぞれのリストに容易に記憶させることができる。
上述の実施形態においては、プロジェクタ2の投影領域10とカメラ3の撮像領域とは一致していた。しかし、この投影領域10と撮像領域とは一致していなくてもよい。
図15は、この場合の投影像の例を示した図である。
同図に示すように、撮像領域110は、投影領域10の内部に、投影領域10の一部として設けられる。投影領域10のうち、撮像領域110を除いた非撮像領域120には、上記「Capture」ボタン50が投影される。
これにより、「Capture」ボタン50や、「Capture」ボタン50を押すユーザの指がキャプチャされることを防ぐことができる。したがってユーザは、所望の被写体以外の余計な物体が写っていないキャプチャ画像を携帯情報機器100に記憶させることができる。
上述の実施形態において、CPU11は、キャプチャ時に、投影像の照度を大きくするようにプロジェクタ2を制御したり、フラッシュ音を出力するようにスピーカ14を制御したりしていた。しかし、CPU11は、それらの処理の代わりに、キャプチャした旨を示すアイコンやテキストをプロジェクタ2により投影させてもよい。
上述の実施形態においては、「Capture」ボタン50が押されたときにキャプチャ処理が実行された。しかし、当該キャプチャ処理のトリガは「Capture」ボタン50の押下のみに限られない。携帯情報機器100は、例えば「Capture」等、キャプチャを指示するユーザの音声を認識したときにキャプチャ処理を実行してもよい。この場合、「Capture」ボタン50は表示されなくてもよい。
上述の実施形態においては、上記図11に示したように、例えば名刺等の被写体のキャプチャ画像(被写体画像)から認識されたメタデータ(例えば文字情報)が、所定のリスト(連絡先リスト)に記憶される様子がアニメーションとして表示された。ここで、文字認識の対象である被写体に複数項目(例えば、名前、会社名、住所等)の文字列が含まれる場合、認識文字自体が誤っている場合のほか、各文字列の項目と各認識文字列との対応が取れない場合も考えられる。例えば、会社名として認識すべき文字列が誤って名前として認識されてしまう場合が考えられる。このような誤った文字認識がなされると、記憶されるリストも誤ったままの状態となり、不都合が生じる。
そこで、携帯情報機器100は、そのような誤った文字列を、上記アニメーション実行途中でユーザの操作入力を基に修正してもよい。
図16は、当該アニメーション途中で誤った文字を修正する様子を示した図である。
同図(A)に示すように、アニメーション途中で縦に並べられた複数の名刺画像52のうち、名刺画像52aに対応して名前が表示されるべき箇所に、会社名161が取り違えられて表示されている。このような場合、ユーザは、同図(A)に示すように、手Hの指等で、間違って会社名161が表示されている箇所をタッチする。
携帯情報機器のCPU11は、当該タッチをカメラ3の撮像画像を基に検出する。そしてCPU11は、同図(B)に示すように、その名刺画像52aから既に認識してある文字列の一覧を修正候補として提示するための修正候補リストボックス162を表示するようにプロジェクタ2を制御する。
ユーザが、当該修正候補リストボックス162から、同図(B)に示すように指で正しい文字列(名前)をタッチにより選択すると、CPU11は、当該タッチをカメラ3の撮像画像から検出する。そしてCPU11は、同図(C)に示すように、それまでに表示されていた会社名161を、当該選択された文字列(名前55a)へと変更する。これにより、フラッシュメモリ13内の連絡先リストにも、正しい文字列が記憶されることとなる。
以上の処理により、携帯情報機器100は、仮に認識文字列の項目を誤った場合でも、修正候補を提示してユーザにタッチさせることで、当該誤りを容易に修正させることが可能となる。
CPU11は、上記修正候補リストボックス162の代わりに、例えばソフトウェアキーボードを表示させ、当該キーボードからユーザが入力した文字列によって、間違った文字列を修正してもよい。
上述の実施形態においては、被写体としてCDジャケット及び名刺を例に挙げたが、被写体はもちろんこれらに限られない。
例えば、携帯情報機器100は、レストランに置いてあるレストラン情報カードを被写体としてキャプチャし、当該キャプチャ画像から文字情報を認識して、その情報をレストランリストの一部として記憶することもできる。
また携帯情報機器100は、ワインボトルを被写体としてキャプチャし、当該キャプチャ画像から文字情報を認識して、その情報をワインリストの一部として記憶することもできる。
上述の実施形態において本発明を適用可能な携帯情報機器100としては、例えば携帯電話機、PDA(Personal Digital Assistant)、スマートフォン、携帯型音楽/動画プレイヤー、電子辞書、電子手帳等のあらゆる情報処理装置が挙げられる。また本発明は携帯情報機器に限られず据置型のあらゆる情報処理装置にも同様に適用可能である。
2…プロジェクタ
3…カメラ
4…ディスプレイ
10…投影領域
11…CPU
12…RAM
13…フラッシュメモリ
14…スピーカ
17…メモリカード
50…「Capture」ボタン
51…CDジャケット画像
52(52a〜52e)…名刺画像
53…認識結果表示画像
61…「Save as Music Collection」ボタン
62…「Save as Contacts」ボタン
100…携帯情報機器
110…撮像領域
120…非撮像領域
J…CDジャケット
C(C1〜C5)…名刺

Claims (13)

  1. 第1の操作用画像を含む投影像を所定領域に投影するプロジェクタと、
    前記所定領域内の被写体を撮像するカメラと、
    第1の記憶部と、
    前記カメラにより撮像される撮像画像を基に、ユーザの手以外の前記被写体が前記所定領域内に存在するか否かを検出し、前記被写体が前記所定領域内に存在することが検出された場合に、前記第1の操作用画像を前記投影像に含めるように前記プロジェクタを制御し、前記撮像画像を基に前記第1の操作用画像への操作を検出し、当該操作が検出されたときに、前記撮像画像のうち少なくとも前記被写体の画像を記憶するように前記第1の記憶部を制御する制御部とを具備し、
    前記制御部は、前記被写体の画像が前記第1の記憶部に記憶された後、当該被写体が当該記憶時の位置から移動したか否かを検出し、当該被写体が移動したことが検出されたときに、前記撮像画像から前記被写体の画像を抽出し、当該抽出された被写体の画像を、前記記憶時に前記被写体が存在していた位置に投影するように前記プロジェクタを制御する
    情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    第2の記憶部をさらに具備し、
    前記制御部は、前記撮像画像を基に前記被写体のメタデータを認識し、当該メタデータを所定のリストの一部として記憶するように前記第2の記憶部を制御する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記メタデータが認識できたか否かを示す情報を前記投影像に含めるように前記プロジェクタを制御する
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記制御部は、前記操作が検出されたときから所定時間、前記投影像の照度を前記検出の前よりも大きくするように前記プロジェクタを制御する
    情報処理装置。
  5. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記撮像画像を基に前記メタデータが認識された被写体が前記所定領域内に存在しなくなったことが検出されたときに、前記メタデータを記憶するように前記第2の記憶部を制御する
    情報処理装置。
  6. 請求項5に記載の情報処理装置であって、
    前記制御部は、前記所定領域内に存在する複数の被写体からそれぞれメタデータを認識し、複数の被写体が全て前記所定領域内に存在しなくなったことが検出されたときに、前記複数のメタデータをそれぞれ前記所定のリストの一部として一度に記憶するように前記第2の記憶部を制御する
    情報処理装置。
  7. 請求項5に記載の情報処理装置であって、
    前記制御部は、前記所定領域内に存在する、第1の被写体及び当該第1の被写体とは異なる種類の第2の被写体からそれぞれメタデータを認識し、第1の被写体が前記所定領域内に存在しなくなったことが検出されたときに、当該第1の被写体の第1のメタデータを第1のリストの一部として記憶し、第2の被写体が前記所定領域内に存在しなくなったことが検出されたときに、当該第2の被写体の第2のメタデータを第2のリストの一部として記憶するように、前記第2の記憶部を制御する
    情報処理装置。
  8. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記メタデータが認識されたときに、前記第1の操作用画像とは異なる第2の操作用画像を前記投影像に含めるように前記プロジェクタを制御し、前記撮像画像を基に当該第2の操作用画像への操作を検出し、当該操作が検出されたときに、前記メタデータを記憶するように前記第2の記憶部を制御する
    情報処理装置。
  9. 請求項8に記載の情報処理装置であって、
    前記制御部は、前記所定領域内に存在する複数の被写体からそれぞれメタデータを認識し、前記第2の操作用画像への操作が検出されたときに、前記複数のメタデータをそれぞれ前記所定のリストの一部として一度に記憶するように前記第2の記憶部を制御する
    情報処理装置。
  10. 請求項8に記載の情報処理装置であって、
    前記制御部は、前記所定領域内に存在する、第1の被写体及び当該第1の被写体とは異なる種類の第2の被写体からそれぞれメタデータを認識し、前記第2の操作用画像への操作が検出されたときに、当該第1の被写体及び当該第1の被写体の第1のメタデータを第1のリストの一部として記憶し、当該第2の被写体及び当該第2の被写体の第2のメタデータを第2のリストの一部として記憶するように、前記第2の記憶部を制御する
    情報処理装置。
  11. 請求項2に記載の情報処理装置であって、
    前記制御部は、前記被写体の画像を用いて、前記メタデータを前記所定のリストの一部として記憶する様子を示すアニメーションを投影するように前記プロジェクタを制御する
    情報処理装置。
  12. プロジェクタとカメラと記憶部とを有する情報処理装置における情報処理方法であって、
    操作用画像を含む投影像を前記プロジェクタにより所定領域に投影し、
    前記所定領域内の被写体を前記カメラにより撮像し、
    前記カメラにより撮像される撮像画像を基に、ユーザの手以外の前記被写体が前記所定領域内に存在するか否かを検出し、
    前記被写体が前記所定領域内に存在することが検出された場合に、前記第1の操作用画像を前記投影像に含めるように前記プロジェクタを制御し、
    前記撮像画像を基に前記操作用画像への操作を検出し、
    前記操作が検出されたときに、前記撮像画像のうち少なくとも前記被写体の画像を前記記憶部に記憶し、
    前記被写体の画像が前記記憶部に記憶された後、当該被写体が当該記憶時の位置から移動したか否かを検出し、
    前記被写体が移動したことが検出されたときに、前記撮像画像から前記被写体の画像を抽出し、
    前記抽出された被写体の画像を、前記記憶時に前記被写体が存在していた位置に投影するように前記プロジェクタを制御する
    情報処理方法。
  13. プロジェクタとカメラと記憶部とを有する情報処理装置に、
    操作用画像を含む投影像を前記プロジェクタにより所定領域に投影するステップと、
    前記所定領域内の被写体を前記カメラにより撮像するステップと、
    前記カメラにより撮像される撮像画像を基に、ユーザの手以外の前記被写体が前記所定領域内に存在するか否かを検出するステップと、
    前記被写体が前記所定領域内に存在することが検出された場合に、前記第1の操作用画像を前記投影像に含めるように前記プロジェクタを制御するステップと、
    前記撮像画像を基に前記操作用画像への操作を検出するステップと、
    前記操作が検出されたときに、前記撮像画像のうち少なくとも前記被写体の画像を前記記憶部に記憶するステップと
    前記被写体の画像が前記記憶部に記憶された後、当該被写体が当該記憶時の位置から移動したか否かを検出するステップと、
    前記被写体が移動したことが検出されたときに、前記撮像画像から前記被写体の画像を抽出するステップと、
    前記抽出された被写体の画像を、前記記憶時に前記被写体が存在していた位置に投影するように前記プロジェクタを制御するステップと
    を実行させるプログラム。
JP2009097723A 2009-04-14 2009-04-14 情報処理装置、情報処理方法及びプログラム Expired - Fee Related JP5347673B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009097723A JP5347673B2 (ja) 2009-04-14 2009-04-14 情報処理装置、情報処理方法及びプログラム
US12/748,664 US8325234B2 (en) 2009-04-14 2010-03-29 Information processing apparatus, information processing method, and program for storing an image shot by a camera and projected by a projector
CN201010154417.5A CN101867755B (zh) 2009-04-14 2010-04-02 信息处理设备、信息处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009097723A JP5347673B2 (ja) 2009-04-14 2009-04-14 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2010250464A JP2010250464A (ja) 2010-11-04
JP5347673B2 true JP5347673B2 (ja) 2013-11-20

Family

ID=42934060

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009097723A Expired - Fee Related JP5347673B2 (ja) 2009-04-14 2009-04-14 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US8325234B2 (ja)
JP (1) JP5347673B2 (ja)
CN (1) CN101867755B (ja)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8686951B2 (en) 2009-03-18 2014-04-01 HJ Laboratories, LLC Providing an elevated and texturized display in an electronic device
US20110199342A1 (en) * 2010-02-16 2011-08-18 Harry Vartanian Apparatus and method for providing elevated, indented or texturized sensations to an object near a display device or input detection using ultrasound
US20120050786A1 (en) * 2010-08-24 2012-03-01 Paul Rudolph Printing system control using updated metadata packets
US8582156B2 (en) * 2010-08-24 2013-11-12 Eastman Kodak Company Printing system control using multiple metadata packets
US8743244B2 (en) 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
JP2012208439A (ja) * 2011-03-30 2012-10-25 Sony Corp 投影装置、投影方法及び投影プログラム
CN103703763B (zh) * 2011-07-29 2018-02-27 惠普发展公司,有限责任合伙企业 视觉分层的系统和方法
US20130169847A1 (en) * 2011-11-30 2013-07-04 I-Star Entertainment Llc Digital camera with a projector
JP6064319B2 (ja) * 2011-12-27 2017-01-25 セイコーエプソン株式会社 プロジェクター、及び、プロジェクターの制御方法
JP2014086849A (ja) * 2012-10-23 2014-05-12 Sony Corp コンテンツ取得装置及びプログラム
KR102001218B1 (ko) * 2012-11-02 2019-07-17 삼성전자주식회사 객체와 관련된 정보 제공 방법 및 이를 위한 디바이스
US9147275B1 (en) * 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9043349B1 (en) 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
CN104077582A (zh) * 2013-03-25 2014-10-01 腾讯科技(深圳)有限公司 访问互联网的方法、装置及移动终端
JP6044426B2 (ja) * 2013-04-02 2016-12-14 富士通株式会社 情報操作表示システム、表示プログラム及び表示方法
CN104156059A (zh) * 2013-05-16 2014-11-19 原建桥 一种电子文件阅批的方法及装置
US20140362212A1 (en) * 2013-06-05 2014-12-11 Lku Technology Ltd. Illuminating surveillance camera
JP6090140B2 (ja) 2013-12-11 2017-03-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9905033B1 (en) * 2013-12-20 2018-02-27 Amazon Technologies, Inc. Adjusting graphical characteristics for recognition interfaces
JP6267520B2 (ja) * 2014-01-21 2018-01-24 キヤノン株式会社 画像処理装置およびその制御方法、画像処理システム
US20170285874A1 (en) * 2014-09-08 2017-10-05 Hewlett-Packard Development Company, L.P. Capture and projection of an object image
EP3192243A4 (en) * 2014-09-10 2018-05-02 Hewlett-Packard Development Company, L.P. Image projection and capture with simultaneous display of led light
US10417801B2 (en) 2014-11-13 2019-09-17 Hewlett-Packard Development Company, L.P. Image projection
WO2016088320A1 (en) * 2014-12-01 2016-06-09 Canon Kabushiki Kaisha Image reading apparatus
JP6065080B2 (ja) * 2014-12-22 2017-01-25 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP6103025B2 (ja) * 2014-12-22 2017-03-29 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム
US20160342449A1 (en) * 2015-05-22 2016-11-24 Microsoft Technology Licensing, Llc Data exchange across multiple computing devices through a proactive intelligent clipboard
WO2018136029A1 (en) * 2017-01-17 2018-07-26 Hewlett-Packard Development Company, L.P. Input device with touch sensitive surface
WO2018215502A1 (en) * 2017-05-23 2018-11-29 Koninklijke Kpn N.V. Coordinate mapping for rendering panoramic scene
JP2019062462A (ja) * 2017-09-27 2019-04-18 キヤノン株式会社 表示装置およびその制御装置、ならびにそれらの制御方法
CN109698945A (zh) 2017-10-23 2019-04-30 中强光电股份有限公司 投影系统及其监控方法与显示系统及其监控方法
JP7062751B2 (ja) * 2018-02-28 2022-05-06 富士フイルム株式会社 投影制御装置、投影装置、投影制御方法、及び投影制御プログラム
DE102018203349A1 (de) * 2018-03-07 2019-09-12 BSH Hausgeräte GmbH Interaktionsmodul
WO2020183725A1 (ja) * 2019-03-14 2020-09-17 connectome.design株式会社 ワインソムリエシステム、ワインソムリエ方法、及びプログラム
US10747371B1 (en) 2019-06-28 2020-08-18 Konica Minolta Business Solutions U.S.A., Inc. Detection of finger press from live video stream
CN112584054A (zh) * 2019-09-29 2021-03-30 深圳市光鉴科技有限公司 基于图像编码的亮度自适应调节方法、系统、设备及介质

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6037936A (en) * 1993-09-10 2000-03-14 Criticom Corp. Computer vision system with a graphic user interface and remote camera control
JPH07175587A (ja) * 1993-10-28 1995-07-14 Hitachi Ltd 情報処理装置
JPH09319556A (ja) * 1996-05-28 1997-12-12 Matsushita Electric Ind Co Ltd 情報処理装置
GB9614837D0 (en) * 1996-07-12 1996-09-04 Rank Xerox Ltd Interactive desktop system with multiple image capture and display modes
TW464800B (en) 1998-10-07 2001-11-21 Intel Corp A method for inputting data to an electronic device, an article comprising a medium for storing instructions, and an image processing system
US6690357B1 (en) * 1998-10-07 2004-02-10 Intel Corporation Input device using scanning sensors
US7680324B2 (en) * 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US20020102966A1 (en) * 2000-11-06 2002-08-01 Lev Tsvi H. Object identification method for portable devices
US7215322B2 (en) * 2001-05-31 2007-05-08 Siemens Corporate Research, Inc. Input devices for augmented reality applications
US20030164819A1 (en) * 2002-03-04 2003-09-04 Alex Waibel Portable object identification and translation system
US7576727B2 (en) * 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US20060251334A1 (en) * 2003-05-22 2006-11-09 Toshihiko Oba Balance function diagnostic system and method
JP4586370B2 (ja) * 2004-01-28 2010-11-24 日本電気株式会社 投射表示装置及び投射表示方法
JP4413633B2 (ja) * 2004-01-29 2010-02-10 株式会社ゼータ・ブリッジ 情報検索システム、情報検索方法、情報検索装置、情報検索プログラム、画像認識装置、画像認識方法および画像認識プログラム、ならびに、販売システム
US7812860B2 (en) * 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US7751805B2 (en) * 2004-02-20 2010-07-06 Google Inc. Mobile image-based information retrieval system
JP2005267034A (ja) * 2004-03-17 2005-09-29 Brother Ind Ltd 画像入力装置
US7508978B1 (en) * 2004-09-13 2009-03-24 Google Inc. Detection of grooves in scanned images
KR100664166B1 (ko) 2004-10-28 2007-01-04 엘지전자 주식회사 이동통신 단말기 입력 장치
JP4689684B2 (ja) 2005-01-21 2011-05-25 ジェスチャー テック,インコーポレイテッド 動作に基づくトラッキング
US20060262188A1 (en) * 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
JP4991154B2 (ja) * 2005-06-03 2012-08-01 株式会社リコー 画像表示装置、画像表示方法及びコマンド入力方法
US7677737B2 (en) * 2006-08-17 2010-03-16 Sony Ericsson Mobile Communications Ab Projector adaptation for self-calibration
JP2008134868A (ja) * 2006-11-29 2008-06-12 Seiko Epson Corp 画像認識装置、電子機器、画像認識方法、および、制御プログラム
US7986843B2 (en) * 2006-11-29 2011-07-26 Google Inc. Digital image archiving and retrieval in a mobile device system
JP5109439B2 (ja) * 2007-03-29 2012-12-26 富士ゼロックス株式会社 表示制御装置、及びプログラム
JP2008283494A (ja) * 2007-05-10 2008-11-20 Sharp Corp 画像処理システム
JP2009094867A (ja) * 2007-10-10 2009-04-30 Fuji Xerox Co Ltd 情報処理装置、遠隔指示システム及び制御プログラム
CN101650520A (zh) * 2008-08-15 2010-02-17 索尼爱立信移动通讯有限公司 移动电话的可视激光触摸板和方法
US9569001B2 (en) * 2009-02-03 2017-02-14 Massachusetts Institute Of Technology Wearable gestural interface

Also Published As

Publication number Publication date
CN101867755A (zh) 2010-10-20
CN101867755B (zh) 2015-07-22
US20100259633A1 (en) 2010-10-14
US8325234B2 (en) 2012-12-04
JP2010250464A (ja) 2010-11-04

Similar Documents

Publication Publication Date Title
JP5347673B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11574115B2 (en) Method of processing analog data and electronic device thereof
TWI475429B (zh) 影像顯示控制設備及影像顯示控制方法
US9251428B2 (en) Entering information through an OCR-enabled viewfinder
US9172879B2 (en) Image display control apparatus, image display apparatus, non-transitory computer readable medium, and image display control method
CN104756065B (zh) 信息处理装置、信息处理方法以及计算机可读记录介质
US9179090B2 (en) Moving image recording device, control method therefor, and non-transitory computer readable storage medium
US20120133650A1 (en) Method and apparatus for providing dictionary function in portable terminal
CN104583906A (zh) 便携式设备的输入方法和装置
KR20120006434A (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
JP2007115045A (ja) 情報処理装置および方法、プログラム、並びに記録媒体
KR20110099991A (ko) 컬러센서를 이용한 휴대단말의 기능 제공 방법 및 장치
CN104662889A (zh) 用于在便携式终端中进行拍摄的方法和设备
US9646647B2 (en) Content management apparatus, recording apparatus, operation apparatus, content management system, and control methods thereof
US20110037731A1 (en) Electronic device and operating method thereof
US10915778B2 (en) User interface framework for multi-selection and operation of non-consecutive segmented information
US9756238B2 (en) Image capturing apparatus for performing authentication of a photographer and organizing image data for each photographer and control method thereof
US20160077795A1 (en) Display apparatus and method of controlling thereof
US10212382B2 (en) Image processing device, method for controlling image processing device, and computer-readable storage medium storing program
US8629846B2 (en) Information processing apparatus and information processing method
TWI303803B (en) Method and device for enhancing accuracy of voice control with image characters
JP2013192111A (ja) 情報処理装置および情報処理方法ならびに情報処理装置のプログラム、コンピュータ読み取り可能な記録媒体
JP2014203119A (ja) 入力装置、入力処理方法及びプログラム
JP2016177364A (ja) 情報処理装置、および紙媒体への撮像で得られるデータのデータ構造
US9389778B2 (en) Image capturing method of touch display module and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120229

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130628

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130805

R151 Written notification of patent or utility model registration

Ref document number: 5347673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees