JP2017045407A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2017045407A
JP2017045407A JP2015169628A JP2015169628A JP2017045407A JP 2017045407 A JP2017045407 A JP 2017045407A JP 2015169628 A JP2015169628 A JP 2015169628A JP 2015169628 A JP2015169628 A JP 2015169628A JP 2017045407 A JP2017045407 A JP 2017045407A
Authority
JP
Japan
Prior art keywords
imaging
optical path
path length
camera
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015169628A
Other languages
English (en)
Inventor
中津 治彦
Haruhiko Nakatsu
治彦 中津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015169628A priority Critical patent/JP2017045407A/ja
Priority to PCT/JP2016/003704 priority patent/WO2017038025A1/en
Priority to US15/754,494 priority patent/US20180249055A1/en
Publication of JP2017045407A publication Critical patent/JP2017045407A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/48Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus
    • G03B17/54Details of cameras or camera bodies; Accessories therefor adapted for combination with other photographic or optical apparatus with projector
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/10Projectors with built-in or built-on screen
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/28Reflectors in projection beam
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3102Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators
    • H04N9/3105Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] using two-dimensional electronic spatial light modulators for displaying all colours simultaneously, e.g. by using two or more electronic spatial light modulators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Projection Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

【課題】装置の大型化を抑制しつつ良好な画像の読取が行える情報処理装置を提供する。【解決手段】撮像面の付近の被検出物の動きを検出するジェスチャセンサと、撮像面に載置された対象物を撮影するカメラとを備える情報処理装置において、ジェスチャセンサのレンズ107bの光軸を通る光線Saの光路長は、カメラの光線Iaの光路長よりも短くする(Ia>Sa)。【選択図】図5

Description

本発明は、対象物を撮像する第二の撮像部と、ユーザの動きを検出するための第一の撮像部を有する情報処理装置に関する。
プロジェクタによって投影された映像に対し、ユーザのジェスチャを認識することによって直感的な操作を行うユーザインターフェースシステムが利用されている。こうしたシステムでは、タッチパネルや映像認識技術を利用して投影映像に対するユーザのジェスチャを認識する。
特許文献1は、テーブル等の被投影体に投影部から映像を投影し、ユーザが投影画像に対して行う手の動きを第1のカメラで撮影・解析し、手の動きに応じた画像を投影部から投影面に投影するインタラクティブプロジェクタが開示されている。また、投影面に置かれた文字情報などを記録する場合には、第2のカメラで撮影することで画像を記録することができる。
特開2014−204196号公報
ここで、対象物をカメラが正しく読み取れるかどうかの指標として被写界深度がある。被写界深度が深いほど対象物に対してピントが合う範囲が広くなる。カメラの被写界深度を深くするためには、カメラの光路長を伸ばすことが考えられる。カメラで撮影する画像が文書原稿などである場合には撮影画像全域において文字などを正しく読み取るために深い被写界深度が求められる。撮影画像に対してOCR(Optical Character Reader)処理を行う場合はなお一層その必要性は高まる。特許文献1に示される装置構成では、第1のカメラ、第2のカメラは装置上部に配設されている。光路長を伸ばすためには、カメラを高い位置に配置することで、対象物とカメラとの距離を長くする方法が考えられる。しかしながら、この様な構成では、装置の高さ方向の大きさが大きくなってしまう。
本発明は上述した課題に鑑みてなされたものであり、その目的は装置の大型化を抑制しつつ第二の撮像手段によって、良好な画像を取得すことができる情報処理装置を提供することである。
上記課題を解決する情報処理装置は、第一の撮像素子を備え、撮像面の付近の被検出物の動きを検出する第一の撮像手段と、第二の撮像素子を備え、撮像面に載置された対象物を撮影する第二の撮像手段と、前記撮像面に載置された対象物を前記第二の撮像手段により撮影するために前記対象物から前記撮像手段までの光路の間に配置される撮像ミラーと、を備え、前記第二の撮像素子の光路長>前記第一の撮像素子の光路長、を満たすことを特徴とする情報処理装置。
本発明によれば、装置の大型化を抑制しつつ第二の撮像手段によって、良好な画像を取得することができる情報処理装置を提供することができる。
実施形態1に係る情報処理装置の使用状態を示す概略図。 実施形態1に係る情報処理装置の構成を示す図。 実施形態1に係るプロジェクタのブロック図を示す図。 実施形態1に係る情報処理装置の斜視図。 実施形態1に係るカメラ、ジェスチャセンサの断面模式図。 実施形態1に係るプロジェクタの断面模式図。 実施形態1に係る情報処理装置を上方からみた模式図。
(実施形態1)
以下、本発明の実施形態1について、添付図面を参照して詳細に説明する。ただし、以下の実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらのみに限定するものではない。
≪情報処理装置109の使用状態≫
図1に本実施形態における情報処理装置109の使用状態を表す図を示す。
情報処理装置109は、投影手段であるプロジェクタ106、第一の撮像手段であるジェスチャセンサ107、第二の撮像手段であるカメラ105、及びレンズ鏡筒132を備える。(図2(A)、図4参照)
プロジェクタ106は投影面110に画像111を投影する。(なお、後述する撮像面301と投影面110は同義であるので、投影面110で説明をする。)
ユーザはこの画像111に対して操作を行う。投影された画像111にはメニューボタン122が含まれており、ユーザは手指を使って電源のON/OFFやその他の操作選択を行っていく。ユーザによる操作選択は、ジェスチャセンサ107によって検出され、インターフェースとして機能する。
ユーザが書類等を撮像をしたい時には、投影面110に撮影したい対象物(書類等)を設置し、カメラ105によって画像を撮影する。
装置本体において画像投影する側を手前側とし、反対側を奥側、それぞれの側面は装置本体を手前側から見た状態で右側、左側とする。
≪情報処理装置109の説明≫
図2(A)は、本実施形態における情報処理装置のハードウェア構成を示す図である。図2(A)において、マイクロコンピュータからなるCPU101は、各種処理のための演算や論理判断などを行い、システムバス108に接続された各構成要素を制御する。ROM102は、プログラムメモリであって、CPU101による制御のためのプログラムを格納する。RAM103は、データメモリであり、CPU101の上記プログラムのワーク領域、エラー処理時のデータの退避領域、上記制御プログラムのロード領域などを有する。記憶装置104はハードディスクや外部に接続された記憶装置などからなり、本実施形態に係る電子データなどの各種データやプログラムを記憶する。第二の撮像手段としてのカメラ105は、ユーザが操作を行う作業空間を撮像し、入力画像としてシステムに提供する。投影手段としてのプロジェクタ106は作業空間に電子データやユーザインタフェース部品を含む映像を投影する。第一の撮像手段としてのジェスチャセンサ107は、RGBあるいはモノクロのCCDカメラである。ジェスチャセンサ107は、作業空間にあるユーザの手などの被検出物の動きを検知し、その検知に基づいて、ユーザが投影面110(図1参照)に投影されている操作ボタン等にタッチしたかを検知する。本実施形態において、投影面110は、情報処理装置の下方に位置する平面であり、例えば、情報処理装置109が置かれるテーブルの面である。なお、情報処理装置109の一部に、プロジェクタ106からの画像を投影できるように投影面110を設けるような構成としてもよい。
図2(B)は、本実施形態における情報処理装置の機能構成を示す図である。図2(B)において、カメラ105は、投影面110に置かれた対象物、例えばユーザが手書きで書いた文書などを撮影し、その文字などを判断する。また、プロジェクタ106は、投影面110(図1参照)に、ユーザインタフェース等の画面を投影する。プロジェクタ106は、カメラ105により撮影された画像を投影することも可能である。ジェスチャセンサ107は、投影面110(図1参照)上の作業空間において、プロジェクタ106により投影面110に投影されたユーザインタフェース等に対するユーザの手などによる操作を検知する。ユーザの手などによりユーザインタフェースが操作されると、プロジェクタ106により投影される画像を変更したり、カメラ105による撮影を行ったりする。検出部202は、CPU、ROM、RAM(以下、CPU101等)によって構成され、ジェスチャセンサ107による検知信号により、ユーザの手が存在する領域、及びユーザの手の指が存在する領域を検出する。以降、ユーザの手指(被検出物)を検出する、と言う。
認識部203は、CPU等によって構成され、ジェスチャセンサ107及び検出部202によって検出されたユーザの手と指を追跡し、ユーザが行うジェスチャ操作を認識する。識別部204は、CPU等によって構成され、認識部203によって認識された操作を実行した指がユーザのどの指であるかを識別する。保持部205は、CPU等によって構成され、RAM103に設けられる記憶領域に、投影されている電子データに含まれるオブジェクトのうち、ユーザがジェスチャ操作で指定したオブジェクトの情報を、ジェスチャ操作に用いられた指に関連付けて保持する。受付部206は、CPU等によって構成され、認識部203が認識したジェスチャ操作によって、電子データに対して指示された編集操作を受け付け、必要に応じて記憶装置104に記憶された電子データを更新する。記憶装置104は、編集操作の対象となる電子データを記憶する。CPU101は、認識部203によって認識されたジェスチャに応じて保持部205に保持されている情報を参照し、作業空間に投影される投影画像を生成する。プロジェクタ106は、CPU101によって生成された投影映像を、投影面110と投影面付近のユーザの手を含む作業空間に投影する。
≪プロジェクタ106のブロック図≫
図3にプロジェクタ106のブロック図を示す。
プロジェクタ106は液晶制御部150、液晶素子151R、151G、151B、光源制御部160、光源161、色分離部162、色合成部163、光学系制御部170、投影光学系171を有する。
液晶制御部150は、画像処理部140で処理の施された画像信号に基づいて、液晶素子151R、151G、151Bの画素の液晶に印可する電圧を制御して、液晶素子151R、151G、151Bの透過率を調整する。
液晶制御部150は、制御用のマイクロプロセッサからなる。
画像処理部140に画像信号が入力されている場合、液晶制御部150は、画像処理部140から1フレームの画像を受信する度に、画像に対応する透過率となるように、液晶素子151R、151G、151Bを制御する。
液晶素子151Rは、赤色に対応する液晶素子であって、光源161から出力された光のうち、色分離部162で赤色(R)、緑色(G)、青色(B)に分離された光のうち、赤色の光の透過率を調整するためのものである。
液晶素子151Gは、緑色に対応する液晶素子であって、光源161から出力された光のうち、色分離部162で赤色(R)、緑色(G)、青色(B)に分離された光のうち、緑色の光の透過率を調整するためのものである。
液晶素子151Bは、青色に対応する液晶素子であって、光源161から出力された光のうち、色分離部162で赤色(R)、緑色(G)、青色(B)に分離された光のうち、青色の光の透過率を調整するためのものである。
光源制御部160は、光源161のオン/オフの制御や光量の制御をするものであり、制御用のマイクロプロセッサからなる。
光源161は、投影面に画像を投影するための光を出力するものであり、例えばハロゲンランプである。
色分離部162は、光源161から出力された光を、赤色(R)、緑色(G)、青色(B)に分離するものであり、例えば、ダイクロイックミラーである。
光源161として、各色に対応するLED等を使用する場合には、色分離部162は不要である。
色合成部163は、液晶素子151R、151G、151Bを透過した赤色(R)、緑色(G)、青色(B)の光を合成するものであり、例えば、ダイクロイックミラーである。
色合成部163により赤色(R)、緑色(G)、青色(B)の成分を合成した光は、投影光学系171に送られる。
液晶素子151R、151G、151Bは、画像処理部140から入力された画像に対応する光の透過率となるように、液晶制御部150により制御されている。
色合成部163により合成された光は、投影光学系171によりスクリーンに投影されると、画像処理部140により入力された画像に対応する画像が投影面上に表示されることになる。
光学系制御部170は、投影光学系171を制御するものであり、制御用のマイクロプロセッサからなる。
投影光学系171は、色合成部163から出力された合成光を投影面に投影するためのものである。投影光学系171は、複数のレンズからなる。
光源ユニット119は光源161、色分離部162、液晶素子151R、151G、151B、色合成部163で構成される。
≪プロジェクタ106の構成≫
図4は、情報処理装置109の全体斜視図である。図4を用いてプロジェクタ106の構成を説明する。
プロジェクタ106は、光源ユニット119、投影光学系171を格納する鏡筒部115を備えている。
光源ユニット119と鏡筒部115は、屈曲部135を介して接続されている。光源ユニット119は屈曲部135の奥側に配置される。屈曲部135の位置に反射ミラー136(図6参照)が配置されている。
反射ミラー134は、鏡筒部115の上方手前側に配置される。反射ミラー134は、光を投影面110に向けて反射し、投影面110に画像を投影する。屈曲部135に配置された反射ミラー134は、光源ユニット119から出た光を反射ミラー134に向けて反射する。
光源ユニット119の周辺には冷却機構137が設けられており、光源ユニット119から発生した熱を放熱する。
図6はプロジェクタの断面模式図である。図6において、液晶素子151Rのみ記載し、液晶素子151G、151Bは記載を省略する。投影面110と液晶素子151R、151G、151Bは共役の関係にあり、各液晶素子から色合成部163および投影光学系171を通って反射ミラー134で反射された光線が投影面110に至る。投影面110に画像を投影する際に、投影面110の中央部に向かう光線をJaとする。プロジェクタ106の光路長は、光線Jaの光路長で定義される。光路長Jaは、投影面110と交わる点Ra1と反射ミラー134の反射面と交わる点Ra2の距離と、反射ミラー134の反射面と交わる点Ra2と屈曲部135内に設けられた反射ミラー136の反射面と交わる点Ra3の距離と、反射ミラー136の反射面と交わる点Ra3と液晶素子151Rの距離の和とする。
≪カメラ105、レンズ鏡筒132の構成≫
図4及び図5を用いてカメラ105等の構成を説明する。
カメラ105は、第二の撮像素子としてのCCDセンサ114(図5参照)を備える。台座112にはメインフレーム113が固定されている。メインフレーム113にはカメラアタッチメント130が固定されている。カメラ105は、カメラアタッチメント130を介してカメラマウント131に取り付けられる。カメラマウント131には、第2の撮像光学系である複数のレンズ207(図5参照)を組み込んだレンズ鏡筒132が取り付けられる。撮像ミラー117は凹形状の曲面ミラーであり、メインフレームに組み付けられている。撮像ミラー117はレンズ207の光軸より奥側に配置される。
投影面110に載置された対象物をカメラで読み取る際には、対象物の像は、撮像ミラー117でレンズ鏡筒132へと反射させられ、レンズ鏡筒内132の内側のレンズ207を通り、CCDセンサ114(図5参照)で画像を読み取られる。
図5はカメラ105、ジェスチャセンサ107の断面模式図である。図5を用いてカメラ105および光路長の説明をする。
CCDセンサ114は投影面110に対して略水平になるように取り付けられている。レンズ207の光軸は投影面110に対して略垂直になるように取り付けられている。
投影面110と同一面である撮像面301上に載置された対象物の像被写体像は、撮像ミラー117および複数のレンズ207を通過してCCDセンサ114の受光面に結像される。
CCDセンサ208の受光面に結像される像面IMGは複数のレンズ207の光軸に対して図面上右側にずらされている所謂シフト光学系となっている。
撮像面301を撮影する際に、撮像面301の中央部に向かう光線をIaとする。撮像面301を撮影する際に、撮像面301の両外側に向かう光線をそれぞれIb、Icとする。
カメラ105の光路長は、光線Iaの光路長で定義される。
光線Iaの光路長は撮像面301と交わる点Pa1と撮像ミラー117の反射面と交わる点Pa2の距離と、撮像ミラー117の反射面と交わる点Pa2とIMG上に結像する点Pa3の距離の和とする。
≪ジェスチャセンサ107の構成≫
図4および図5を用いてジェスチャセンサ107の構成を示す。
ジェスチャセンサ107はメインフレーム113に取り付けられている。ジェスチャセンサ107は第一の撮像手段であるCCDセンサ107aと樹脂で形成された少なくとも一枚のレンズ107b(第一の撮像光学系)を備える。ジェスチャセンサ107は撮像ミラー117の先端に取り付けられている。
ジェスチャセンサは投影面110の上にかざした手指の動きを検知するために、投影面110に対して高さ100mmまでの領域Aを検出できるように検出領域を確保する必要がある。ジェスチャセンサ107は光軸に対して手前奥方向に60°、左右方向に90°の画角で手指の動きを認識する。ジェスチャセンサ107は、カメラ105、プロジェクタ106の光線と干渉しない領域に配設されている。
ジェスチャセンサ107において、レンズ107bの光軸を通る光線をSaとする。
ジェスチャセンサ107の光路長は、光線Saの光路長で定義される。光線Saの光路長は撮像面301と交わる点Qa1とCCDセンサ107aに結像する点Qa2の間の距離とする。
≪カメラ105の光路長、ジェスチャセンサ107の光路長の関係≫
図5、図6を用いて、カメラ105等の光路長の説明をする。
ここでカメラ105の光線Iaの光路長と、ジェスチャセンサ107の光線Saの光路長とプロジェクタ106の光線Jaの光路長の関係は以下のとおりとする。
カメラ105の光路長>プロジェクタ106の光路長>ジェスチャセンサ107の光路長
カメラ105の光路長>ジェスチャセンサ107の光路長である理由を説明する。カメラ105は、OCRが必要な文書画像を読取る場合がある。そのため、撮像ミラー117を用いて光線Iaの光路長を伸ばし,被写界深度を深くすることにより読取り画像の読取可能な範囲(ピントが合う範囲)を増やしている。一方、ジェスチャセンサ107は、ユーザの手指を検出することができればよく、カメラ105ほどの精度の高い読取りは要求されない。そのため、ジェスチャセンサ107の光線Saの光路長は、カメラ105の光線Iaの光路長よりも短くしている(Ia>Sa)。
ジェスチャセンサ107の光線Saの光路長を、カメラ105の光線Iaの光路長のように長くしようとすると、ジェスチャセンサ107の光線Saを折り返すためのミラーが必要となる。そうすると、情報処理装置109の装置が大型化してしまう。したがって、Ia>Saの関係を満たすようにすることにより装置の小型化を実現することができる。なお、ここで言う、ジェスチャセンサ107の光線Saを折り返すためのミラーは、ジェスチャセンサ107の内部に備えられている光学系を指すものではなく、ジェスチャセンサ107の外部に設けられるミラーを指す。
また、プロジェクタ106の光路長と、カメラ105の光路長及びジェスチャセンサ107の光路長との関係を説明する。プロジェクタ106は、カメラ105のような読み取り性能が求められるわけではないため、カメラ105ほど光路長を伸ばす必要はない。一方、プロジェクタ106は、投影面110に対して画像111を投影する必要があるため、ジェスチャセンサ107よりかは光路長を長く伸ばしておくことが好ましい。そのため、カメラ105の光路長>プロジェクタ106の光路長>ジェスチャセンサ107の光路長としている。
≪画角の関係≫
カメラ105の画角と、ジェスチャセンサ107の画角との関係を図5を用いて説明する。
図5において、カメラ105のレンズ207の画角をDI、ジェスチャセンサ107のレンズ107bの画角をDSとする。
ジェスチャセンサ107のレンズ107bの画角DSは、カメラ105のレンズ207の画角DIよりも広く設定されている。このようにすることで、Iaの光路長>Saの光路長を満たしつつ、ジェスチャセンサ107の読み取り可能領域を、カメラ105の読み取り可能領域と略同じ範囲に設定することができる。
≪撮像ミラー117と、ジェスチャセンサ107との配置構成≫
図7に情報処理装置109を上方から視た場合(投影面110に対し垂直な方向から視た場合)の模式図を示す。撮像ミラー117はレンズ207の光軸より奥側に配置されている。そして、撮像ミラー117とレンズ207と左右方向において並ぶように光源ユニット119と反射ミラー134は配置されている。また、図5に示されるように、撮像ミラー117と、ジェスチャセンサ107とは、高さ方向におして少なくとも一部が重なる位置に配置されている。言い換えれば、図5において、奥側から手前側の方向(水平方向)に視た時に、撮像ミラー117と、ジェスチャセンサ107とは、オーバーラップするように配置されている。このように配置することにより、情報処理装置109の、手前奥方向、及び左右方向において装置を小型化するとともに、高さ方向も小型化することができる。
105 カメラ
107 ジェスチャセンサ
132 レンズ鏡筒
117 撮像ミラー

Claims (5)

  1. 第一の撮像素子を備え、撮像面の付近の被検出物の動きを検出する第一の撮像手段と、
    第二の撮像素子を備え、撮像面に載置された対象物を撮影する第二の撮像手段と、
    前記撮像面に載置された対象物を前記第二の撮像手段により撮影するために前記対象物から前記撮像手段までの光路の間に配置される撮像ミラーと、を備え
    前記第二の撮像素子の光路長>前記第一の撮像素子の光路長
    を満たすことを特徴とする情報処理装置。
  2. 第一の撮像手段は、第一の撮像光学系を備え、前記第二の撮像手段は第二の撮像光学系を備え、前記第一の撮像光学系の画角は前記第二の撮像光学系の画角より広いことを特徴とする請求項1に記載の情報処理装置。
  3. 水平方向に視た時に、前記第一の撮像手段と前記撮像ミラーは、オーバーラップするように配置されていることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記撮像面に対して画像を投影する投影手段を備え、
    前記第二の撮像素子の光路長>前記投影手段の光路長>前記第一の撮像素子の光路長
    を満たすことを特徴とする請求項1乃至請求項3のいずれか1項に記載の情報処理装置。
  5. 前記第一の撮像手段による検知に基づいて、第二の撮像手段の撮像を行うことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
JP2015169628A 2015-08-28 2015-08-28 情報処理装置 Pending JP2017045407A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015169628A JP2017045407A (ja) 2015-08-28 2015-08-28 情報処理装置
PCT/JP2016/003704 WO2017038025A1 (en) 2015-08-28 2016-08-10 Imaging apparatus
US15/754,494 US20180249055A1 (en) 2015-08-28 2016-08-10 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015169628A JP2017045407A (ja) 2015-08-28 2015-08-28 情報処理装置

Publications (1)

Publication Number Publication Date
JP2017045407A true JP2017045407A (ja) 2017-03-02

Family

ID=58186912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015169628A Pending JP2017045407A (ja) 2015-08-28 2015-08-28 情報処理装置

Country Status (3)

Country Link
US (1) US20180249055A1 (ja)
JP (1) JP2017045407A (ja)
WO (1) WO2017038025A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102677290B1 (ko) * 2020-02-07 2024-06-21 엘지전자 주식회사 증강현실용 프로젝터 및 이의 제어방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282456A (ja) * 2000-04-03 2001-10-12 Japan Science & Technology Corp マンマシーン・インターフェース・システム
JP2002359765A (ja) * 2001-06-01 2002-12-13 Victor Co Of Japan Ltd 資料提示装置
JP2004040177A (ja) * 2002-06-28 2004-02-05 Victor Co Of Japan Ltd 資料提示装置
JP2004104341A (ja) * 2002-09-06 2004-04-02 Canon Inc 書画カメラ
JP2015022624A (ja) * 2013-07-22 2015-02-02 キヤノン株式会社 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体
JP2015097074A (ja) * 2013-10-08 2015-05-21 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム、並びに、投影システム、その制御方法、及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6554434B2 (en) * 2001-07-06 2003-04-29 Sony Corporation Interactive projection system
US7134756B2 (en) * 2004-05-04 2006-11-14 Microsoft Corporation Selectable projector and imaging modes of display table
US8111879B2 (en) * 2007-04-05 2012-02-07 Honeywell International Inc. Face and iris imaging system and method
US8998414B2 (en) * 2011-09-26 2015-04-07 Microsoft Technology Licensing, Llc Integrated eye tracking and display system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001282456A (ja) * 2000-04-03 2001-10-12 Japan Science & Technology Corp マンマシーン・インターフェース・システム
JP2002359765A (ja) * 2001-06-01 2002-12-13 Victor Co Of Japan Ltd 資料提示装置
JP2004040177A (ja) * 2002-06-28 2004-02-05 Victor Co Of Japan Ltd 資料提示装置
JP2004104341A (ja) * 2002-09-06 2004-04-02 Canon Inc 書画カメラ
JP2015022624A (ja) * 2013-07-22 2015-02-02 キヤノン株式会社 情報処理装置およびその制御方法、コンピュータプログラム、記憶媒体
JP2015097074A (ja) * 2013-10-08 2015-05-21 キヤノンマーケティングジャパン株式会社 情報処理装置、その制御方法、及びプログラム、並びに、投影システム、その制御方法、及びプログラム

Also Published As

Publication number Publication date
WO2017038025A1 (en) 2017-03-09
US20180249055A1 (en) 2018-08-30

Similar Documents

Publication Publication Date Title
US10469737B2 (en) Display control device and display control method
JP5725793B2 (ja) 撮像装置およびその制御方法
US10021307B2 (en) Processing apparatus for camera shake correction
US10013068B2 (en) Information processing apparatus including a mirror configured to reflect an image and a projector and an image capturing unit arranged below the mirror
US20140139668A1 (en) Projection capture system and method
JP4611932B2 (ja) 移動体追従撮影投影装置
JP6597615B2 (ja) 投射型表示装置
WO2017026371A1 (ja) ヘッドマウントディスプレイ
JP2009015828A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP4552997B2 (ja) 撮像装置及びプログラム
JP2008287142A (ja) 画像投影装置
JP2009295031A (ja) 画像投影装置及びその制御方法
US20140071302A1 (en) Processing apparatus, processing method, and program
KR20220003088A (ko) 카메라 모듈, 단말 디바이스, 촬상 방법 및 촬상 장치
JP2017045407A (ja) 情報処理装置
JP2015171116A (ja) カメラの表示装置
JP4622541B2 (ja) 虹彩撮影装置
US11822714B2 (en) Electronic device and control method for capturing an image of an eye
JP5889719B2 (ja) 撮像装置、撮像方法及びプログラム
JP2016075897A (ja) 情報処理装置
JP2005346012A (ja) 表示装置、表示方法、及びプログラム
JP5309827B2 (ja) プロジェクタ
JP5309828B2 (ja) プロジェクタ
JP2014107735A (ja) 撮像装置
US10244214B2 (en) Image capturing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200331