JP2008015915A - 画像処理方法、入力インタフェース装置 - Google Patents

画像処理方法、入力インタフェース装置 Download PDF

Info

Publication number
JP2008015915A
JP2008015915A JP2006188272A JP2006188272A JP2008015915A JP 2008015915 A JP2008015915 A JP 2008015915A JP 2006188272 A JP2006188272 A JP 2006188272A JP 2006188272 A JP2006188272 A JP 2006188272A JP 2008015915 A JP2008015915 A JP 2008015915A
Authority
JP
Japan
Prior art keywords
image
display
illumination
brightness
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006188272A
Other languages
English (en)
Other versions
JP4707034B2 (ja
Inventor
Akio Oba
章男 大場
Hiroyuki Segawa
博之 勢川
Akira Suzuki
章 鈴木
Masaru Saito
勝 斉藤
Tomokazu Kake
智一 掛
Michinari Kouno
道成 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2006188272A priority Critical patent/JP4707034B2/ja
Priority to EP07737099.7A priority patent/EP2040145B1/en
Priority to PCT/JP2007/000442 priority patent/WO2008004332A1/ja
Priority to US12/307,390 priority patent/US8241122B2/en
Publication of JP2008015915A publication Critical patent/JP2008015915A/ja
Application granted granted Critical
Publication of JP4707034B2 publication Critical patent/JP4707034B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Position Input By Displaying (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】オブジェクトの動きを認識する入力インタフェース装置において、撮影対象であるオブジェクトの明るさが不足する場合がある。
【解決手段】カメラ20は、プレイヤーにより操作されるオブジェクトを撮影する。奥行位置検出部122は、撮影されたフレームに基づいてオブジェクトの位置を検出するアクション特定部132は、オブジェクトの検出結果をもとにプレイヤーのアクションを特定する。入力受付部136は、アクションをディスプレイに表示された入力受付画像に対する指示として受けとる。照明制御部140は、アクションに応答して、アクションが検出される前の状態よりもディスプレイに映し出される画像の明るさを高める。
【選択図】図4

Description

この発明は、オブジェクトの動きを入力として認識する入力インタフェース装置および入力インタフェース装置における画像処理方法に関する。
従来から、プレイヤーの動作をビデオカメラなどの撮像装置を用いて撮影し、プレイヤーの動作を画面に映し出して、コマンドの入力やゲームのプレイを可能にしたものが知られている。
上述のようにプレイヤーの動画像を入力インタフェースとして利用する場合、カメラによって撮影されるオブジェクトが十分な明るさを有している必要がある。しかしながら、部屋の照明を落としてゲームなどをプレイするユーザも多く、光量不足からオブジェクトを正確に認識できないことが起こりえる。また、プレイ環境の制約などによって、オブジェクトを十分に照明するような照明器具が準備できない場合もある。
本発明はこうした課題に鑑みてなされたものであり、その目的は、オブジェクトの動きを入力として認識する入力インタフェース装置において、撮影対象であるオブジェクトの明るさを確保する技術を提供することにある。
本発明のある態様は、プレイヤーにより操作されるオブジェクトを撮影し、オブジェクトの動きをディスプレイに表示された入力受付画像に対する指示として受けとる画像処理方法において、少なくとも前記オブジェクトの動きが検出されたときにディスプレイに映し出される画像の明るさを高める画像処理方法である。
ここで、「オブジェクト」とは、カメラの撮影範囲内でプレイヤーにより操作されるものの総称であり、プレイヤーの頭、腕、手、足、口などの身体の一部と、プレイヤーの身体の一部(例えば手、足、口)により操作される棒、シート、箱などの物体、およびコントローラなどの装置が含まれる。
この態様によると、ディスプレイに映し出される画面をオブジェクトの照明手段として利用することができる。
本発明の別の態様は、入力インタフェース装置である。この装置は、プレイヤーにより操作されるオブジェクトを撮影するカメラと、撮影されたフレームに基づいてオブジェクトの位置を検出する位置検出部と、前記オブジェクトの検出結果をもとにプレイヤーのアクションを特定するアクション特定部と、前記アクションをディスプレイに表示された入力受付画像に対する指示として受けとる入力受付部と、前記アクションに応答して、アクションが検出される前の状態よりも前記ディスプレイに映し出される画像の明るさを高める照明制御部と、を備える。
この態様によると、プレイヤーによって何らかのアクションがなされたときに、明るさを高めた画像がディスプレイに表示される。その結果、これによってオブジェクトを取り巻く空間の光量が増加するため、カメラにより撮影される画像が明るくなり、オブジェクトのマッチング等の処理を正確に実行することが可能になる。
なお、本発明の構成要素や表現を方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。
本発明によれば、オブジェクトの動きを入力として認識する入力インタフェース装置において、撮影対象であるオブジェクトの明るさを確保できる。
本発明の一実施形態である入力インタフェース装置は、プレイヤーの操作するオブジェクトをカメラで撮影し、オブジェクトの動きをディスプレイに表示された入力受付画像に対する指示として受けとる装置である。入力インタフェース装置を利用するアプリケーションの典型例は、画面に表示されたキャラクタ等をプレイヤーの動作で操作するアクションゲームであるが、他の形態のゲームや、簡単なビジネスアプリケーション、ディジタル写真のアルバム表示、楽曲データ再生のアプリケーションなどにも適用することができる。
本実施形態の入力インタフェース装置は、撮影対象であるオブジェクトの明るさが不足するときに、ディスプレイにオブジェクトを照明するための照明用領域を表示することで、オブジェクトを取り巻く空間の光量を増加させ、オブジェクトの検出精度を向上させる。
図1は、入力インタフェース装置10の全体構成を示す。入力インタフェース装置10は、ディスプレイ40と、ディスプレイの上側に設置されるカメラ20と、画像処理装置30と、反射体50と、から構成される。
ディスプレイ40は、好ましくはプレイヤー72の前方に配置される。プレイヤー72は、カメラ20により撮影された自分の像を見ながらオブジェクトの操作をするかたちになる。
カメラ20はプレイヤー72により操作されるオブジェクト70を撮影し、所定のフレームレートでフレームを画像処理装置30に出力する。画像検出の応答性を早めるために、フレームレートはなるべく高いことが好ましい。カメラ20は、ディスプレイ40の上側に設置される。カメラ20の撮影範囲26は、少なくともプレイヤー72の操作するオブジェクト70を捉えるように設定される。これによって、プレイヤー72はディスプレイ40側に正面を向けた状態でオブジェクト70を操作することができる。しかし、入力インタフェース装置10により実施されるアプリケーションの特性に応じて、カメラ20をディスプレイ40の下方や側方に設置したり、またはプレイヤー72がディスプレイ40を見る向きとは異なる場所にカメラ20を設置してもよい。
カメラ20から出力されたフレームは、画像処理装置30を経由してディスプレイ40に映し出される。この場合、撮影されたフレームは画像処理装置30によって鏡面処理を施され、ディスプレイ40にはプレイヤー72の鏡面画像が映し出されることが好ましい。鏡面画像を映し出すことで、プレイヤーが例えば手を挙げたときに画面内の像は鏡に映したように同じ側の手を挙げるため、プレイヤーは自らの動作を認識しやすくなる。しかしながら、画像処理装置30によって鏡面処理を施さず、撮影したままの画面をディスプレイ40に映し出してもよい。さらに、入力インタフェース装置10により実施されるアプリケーションの特性に応じて、画像処理装置30によって上下を反転させた画面をディスプレイ40に映し出してもよい。
画像処理装置30は、外部記憶媒体に格納されたアプリケーションソフトウェアをロードして実行する機能を有する。画像処理装置30は、カメラ20から出力されたフレームに対して上述の鏡面処理を施すほか、フレーム内でオブジェクトの像を検出して所定の画像をオブジェクトに重ねて表示したり、プレイヤーのアクションに応じた指示をアプリケーションに与えるなどの処理を行う。画像処理装置30により所定の処理を施された鏡面画像は、ディスプレイ40に出力される。画像処理装置30は、典型的にはゲームコンソールなどの専用機であるが、画像の入出力機能を備えた汎用のパーソナルコンピュータやサーバなどであってもよい。画像処理装置30のさらに詳細な機能および構成については後述する。
反射体50は、プレイヤー72とディスプレイ40およびカメラ20との間に設置され、オブジェクト70の反射像をカメラ20に撮影させる役割を有する。本明細書において「オブジェクト」とは、カメラ20の撮影範囲26内でプレイヤー72により操作されるものの総称であり、プレイヤーの頭、腕、手、足、口などの身体の一部と、プレイヤーの身体の一部(例えば手、足、口)により操作される棒、シート、箱などの物体、およびコントローラなどの装置が含まれる。オブジェクトがプレイヤーの意志により動かされることを、オブジェクトが身体の一部である場合を含め、本明細書では「プレイヤーにより操作されるオブジェクト」のように表現する。図1では、一例として、プレイヤーの指がオブジェクト70として示されている。
オブジェクト70は、その直接像がカメラ20により撮影されるのと同時に、反射体50による反射像もカメラ20により撮影される。言い換えると、カメラ20により撮影されるひとつのフレームの中に、オブジェクト70の直接像と反射像の両方を含むことになる。このように、直接像と反射像という二つの方向から見た像としてオブジェクト70を捉えることで、後述するように、単一のカメラからの画像のみでオブジェクト70の三次元位置を特定することができる。
なお、説明を簡単にするために、以下の説明ではプレイヤー72により操作されるオブジェクト70はひとつとするが、二つ以上のオブジェクトが存在しても同様の処理ができることはいうまでもない。
反射体50は二つの反射面52、54を備えており、それぞれがオブジェクト70を反射させ、それら反射像がカメラ20によって撮影される。したがって、反射面52、54には、オブジェクト70の反射像がカメラ20のレンズで結ばれるように所定の角度が付けられている。また、反射体50の設置場所は、カメラ20から所定の距離だけ離間した位置に限られる。
反射体50は、オブジェクト70の反射像をカメラ20に撮影させなくてはならないので、反射体50を配置すべき位置はある一定の範囲に制限される。そこで、プレイヤーに反射体50を正しい位置に設置させるために、ディスプレイ40に例えば枠線を表示して、カメラ20により撮影された反射体50が枠線の内側に収まるように、反射体50の位置を調節してもらうようにしてもよい。
図1に示すように、第1反射面52、第2反射面54の上方には、それぞれがオブジェクト70の反射像をカメラ20に向けて投影できる領域である第1進入領域62、第2進入領域64が広がる。進入領域62、64の広がりは、反射面52、54の傾斜の度合いによって決まり、オブジェクト70が進入すると想定される範囲になる。図1の例では、それぞれの進入領域62、64は互いに交差しないように設定されている。したがって、オブジェクト70が第1進入領域62内に存在するときは、第1反射面52により反射された反射像がカメラ20により撮影され、オブジェクト70が第2進入領域64内に存在するときは、第2反射面54により反射された反射像がカメラ20により撮影される。但し、オブジェクト70が指や棒のように反射体50の奥行方向にある程度の長さを有する場合、オブジェクト70は進入領域62と64の両方に同時に存在する。
一般に、フレーム間の差分に基づいてオブジェクトの動作を検出しようとした場合、カメラの光軸に沿った方向(図1のz方向)に略平行な動作は、フレーム内でのオブジェクトの差分がわずかになるため検出するのは困難である。そこで、本実施形態では、オブジェクトの直接像とは異なる方向からの像を、反射体50による反射を利用することで取得し、この反射像を利用してz方向のオブジェクトの動作を確実に検出できるようにしたものである。以下では、カメラの光軸に沿った方向のことを単に「奥行方向」と呼ぶことにする。
図2は、カメラ20と画像処理装置30のハードウェア構成を簡略化して説明した図である。カメラ20は、撮像素子としての画像センサ22と、画像処理部24を備える。画像センサ22は、一般にCCDセンサやCMOSセンサであり、図示しないレンズにより結ばれた像を受光素子に蓄電することで像を得る。撮影された像は、RAM等の図示しないメモリに一時的に記憶される。カメラ20の構成については周知であるため、これ以上詳細な記載は省略する。
画像処理部24はASIC等の回路からなり、画像センサ22から出力された画像データに対して、A/D変換、デモザイク、ホワイトバランス処理、ノイズ除去、コントラスト強調、色差強調、ガンマ処理などのうち、必要なものを実施する。画像処理部24により処理された画像データは、図示しない通信インタフェースを介して画像処理装置30に転送される。以下の説明では、簡単のために、画像処理部24から画像処理装置30に渡される画像データは画像センサ22からの出力信号をそのままディジタル化したRAWデータであるものとするが、画像データは他の形式、例えばJPEGなどの圧縮されたデータであってもよい。後者の場合、画像処理装置30には、処理部32の前段に圧縮データを復号化する画像復号部が配置される。
画像処理装置30は、処理部32と、処理部32から渡された画像データをディスプレイ40に出力する画像出力部34とを含む。画像処理装置30は、このほかにも、CD−ROM、DVD−ROM、フラッシュメモリを初めとする任意の記録媒体に格納されたアプリケーションソフトウェアを読み出すロード部や、ソフトウェアにしたがって所定のアプリケーションを実行するアプリケーション実行部などを備える。これらの機能は、ゲームコンソールなどの専用機やパーソナルコンピュータなどには当然備えられているものであるから、これ以上詳細な説明は省略する。
図3は、反射体50の構造を示す平面図である。反射体50は、全体として薄板状であり、上述したように奥行方向に離間して配置された第1反射面52と第2反射面54とを有している。反射面52、54は、一例では鏡であり、鏡面加工を施した金属、プラスチック、金属を蒸着させたガラスなどでもよい。第1反射面52と第2反射面54とは平行に配置され、また、その長軸がカメラ20の光軸に対して略垂直となるように配置される。第1反射面52と第2反射面54は、図1に示すように、反射面の上方のオブジェクトを反射して、反射像をカメラ20のレンズに向けて投影する角度に設定される。
反射体50の長軸方向の両端には、反射体50の位置を画像処理装置30に認識させるためのマーカ56がそれぞれ配置される。このマーカ56は、色付けされた部分であってもよいし、チェックなどの所定の模様が施されていてもよく、あるいは二次元コードなどでもよい。両端にLEDなどの光源を埋め込んでおいてもよい。要するに、カメラ20から出力されるフレーム内で、反射体50の位置を特定するために必要な情報を付与できるものであれば、その形態は問わない。
反射体50が奥行方向に所定の幅を有し、また奥行方向に複数の反射面を備えることで、奥行方向に複数の進入領域62、64を設定することができる。各反射面52、54は、オブジェクトが進入すると想定される相異なる進入領域の反射像をカメラ20に向けて投影し、オブジェクトの反射像をカメラ20に撮影させる。こうすることで、後述するように、奥行方向のオブジェクトの移動を検出できる。
図4は、処理部32の詳細な構成を示す図である。これらの構成は、CPU、メモリ、メモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックとして描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
画像取得部102は、カメラ20から出力されたフレームを一枚ずつ取得し、画像反転部104に送る。
画像反転部104は、画像取得部102から受けとったフレームに対して鏡面処理(すなわち、画像の左右反転処理)を施し、鏡面画像を生成する。
反射面領域特定部112は、カメラ20により撮影されたフレームから、反射体50の第1反射面52および第2反射面54に対応する領域である反射面領域を特定する。反射面領域特定部112は、フレーム内から二カ所のマーカ56を検出し、それらの間に挟まれた領域を反射面領域と特定する。
奥行位置検出部122は、反射面領域特定部112により特定された反射面領域から反射像を検出することで、オブジェクトの奥行方向の位置を検出する。具体的には、奥行位置検出部122は、複数のフレーム間で反射面領域同士を比較してその差分を検出する。あるフレームで反射面領域に反射像がなく、後続するフレームで反射面領域に反射像が映っていれば、オブジェクトがその反射面に対応する進入領域内に位置していると判定できる。
この判定を確実に実行するためには、第1反射面52および第2反射面54に映ったオブジェクトの反射像とそれ以外の画像とを明確に識別できる必要がある。したがって、一実施例では、三次元位置の特定処理を開始する前に、奥行位置検出部122は反射面領域のデフォルト画像を取得しておき、このデフォルト画像と任意のフレームの反射面領域との間に差分が検出されたときに、オブジェクトが進入領域内に位置すると判定するようにしてもよい。
奥行位置検出部122は、第1反射面52、第2反射面54に対応する反射面領域について同様の処理をすることで、第1進入領域62、第2進入領域64のそれぞれにオブジェクトが進入したか否かを判定する。この判定の結果は、入力制御部130に送られる。
フレーム内定位部114は、オブジェクトのフレーム内位置を特定する。フレーム内定位部114は、画像反転部104から受けとったフレームに対して、オブジェクトの参照画像(テンプレート)を用いた周知のパターンマッチングを実行して、オブジェクトのフレーム内位置を特定する。マッチングを実行する対象は、画像反転部104から受けとったフレームそのものであってもよいし、反射面領域特定部112において特定された反射面領域をフレームから除いたものであってもよい。
フレーム内定位部114は、オブジェクトを特定するために予め準備された参照画像を格納している。例えばオブジェクトが手だとすると、数十人ないし数千人の手の画像の平均を取って作成された基準画像を格納しておいてもよいし、プレイヤーの年齢、性別、体格などに応じて分類された複数の参照画像を格納しておいてもよい。参照画像を用いたマッチング技術は、任意のものを使用できる。これらは当業者には周知であるからこれ以上詳細な説明を省略する。フレーム内定位部114で特定されたオブジェクトのフレーム内位置の情報は、入力制御部130に与えられる。
入力制御部130は、ゲームを初めとするアプリケーションを実行する図示しないアプリケーション実行部に対して、カメラ20により撮影されたフレームに対する画像処理によって得られた情報に基づく指示を与える。入力制御部130は、アクション特定部132、入力受付画像表示部134、入力受付部136を含む。
アクション特定部132は、奥行位置検出部122による奥行位置の検出結果をもとに、第1進入領域62と第2進入領域64の間の奥行方向へのオブジェクト70の移動を検出して、プレイヤーのアクションを特定する。アクション特定部132は、奥行方向におけるオブジェクト70のカメラ20へ向かう移動と、カメラ20から離れる移動とを異なるプレイヤーのアクションとして特定してもよい。アクション特定部132は、特定したアクションの情報を入力受付画像表示部134、入力受付部136、照明制御部140に与える。
入力受付画像表示部134は、カメラ20により撮影されたオブジェクトの直接像に重ね合わせて、オブジェクト70の動きにしたがった入力指示を受けとるための入力受付画像をオンスクリーン表示部144に出力する。入力受付画像の例には、カーソルなどのポインタ、楽器や武器などの道具、またはキーボードや電卓などの入力デバイスの画像がある。入力受付画像表示部134は、オブジェクトが第1反射面52に対応する第1進入領域62に位置するときと、第2反射面54に対応する第2進入領域64に位置するときで、異なる表示態様の入力受付画像を表示してもよい。
入力受付部136は、与えられたアクションを入力受付画像に対する指示として受けとり、図示しないアプリケーション実行部に対してその指示を与える。
照明制御部140は、アクションに応答して、撮影されたフレームよりも明度または輝度の高い照明用領域をオンスクリーン表示部144に出力し、アクションが検出される前の状態よりもディスプレイ40に映し出される画像の明るさを高める。照明制御部140は、画像全体から入力受付画像を除いた部分を照明用領域とする。照明制御部140は、光量判定部116によってオブジェクトの光量が不足すると判定されたとき、照明用領域を表示してもよいし、被撮影空間の明るさに基づいて照明用領域のパラメータを調整してもよい。
画面解析部118は、光量判定部116、距離推定部146、色解析部148を含む。
光量判定部116は、オブジェクト70を含むカメラ20による被撮影空間の光量が十分であるか否かを判定する。光量判定部116は、フレームを解析することによって被撮影空間の光量を判定してもよいし、カメラ20、画像処理装置30またはディスプレイ40の一部にフォトセンサを設けておき、その出力信号に基づいて判定してもよい。光量が十分であるか否かは、フレーム内でのオブジェクトのマッチングが正確に実行できることを基準値として判定される。一例として、ディスプレイ40とプレイヤー72との想定距離(例えば1m)を設定しておき、そのときに必要な光量を実験により求めて基準値としてもよい。または、奥行位置検出部122や後述する距離推定部146によってディスプレイ40とプレイヤー72との距離を推定し、その距離に応じて予め準備された複数の基準値から適切なものを選択してもよい。
距離推定部146は、ディスプレイ40の左右に照明用領域を交互に表示し、そのときに撮影されたフレームに基づいて、被撮影空間にある物体のディスプレイ40からの距離を推定する。この詳細は、図8を参照して後述する。
色解析部148は、単色の照明用領域を、複数の色についてディスプレイ40に交互に表示し、そのときに撮影されたフレームに基づいて、被撮影空間にある物体の色情報を取得する。この詳細は、図8を参照して後述する。
顔領域検出部120は、フレームからプレイヤーの顔に相当する領域を検出する。これは、フレーム内定位部114と同様に、顔の基準画像を用いたマッチングにより実行される。
身体領域推定部124は、顔領域検出部120により検出された顔領域の大きさ、位置などから、オブジェクト70とともに撮影されたプレイヤー72の身体に相当する領域を推定する。例えば、人の形をしたテンプレートを保持しておき、顔領域の大きさに応じてそのテンプレートを拡大縮小して身体領域を推定してもよいし、顔領域の位置を基準にして、フレーム内で背景分離を実行して身体領域を推定してもよい。照明制御部140は、画像全体からプレイヤーの身体領域を除いた部分を照明用領域としてオンスクリーン表示部144に出力する。
オンスクリーン表示部144は、画像反転部104からの鏡面画像に、入力受付画像表示部134から出力された入力受付画像と、照明制御部140から出力された照明用領域をオンスクリーン表示させ、画像出力部34に送る。画像出力部34によって、プレイヤーの鏡面画像に入力受付画像と照明用領域とが重畳された画面がディスプレイ40に表示される。
図5(a)〜(d)は、カメラにより撮影されたフレームの明るさに応じて照明用領域を表示する実施例を示す。図5(a)、(c)はカメラ20により撮影され画像反転部104で左右反転して出力されるフレームの全体を示す。図5(b)、(d)は、図5(a)、(b)のフレームが処理部32により取得されたとき、ディスプレイ40に表示されプレイヤー72により認識される画像であり、鏡面画像に対し入力受付画像80または照明用領域82が重ねられて、オンスクリーン表示部144によってディスプレイに表示される画面の全体を示している。
図5(a)に示すように、フレームには、プレイヤー72、オブジェクト70および反射体50の直接像が映し出される。反射面領域特定部112は、フレームからマーカ56を検出することで、反射面領域50’を特定しておく。
カメラ20および画像処理装置30がスイッチオンされ待機している状態のとき、反射面領域50’のデフォルト画像を記憶しておいてもよい。待機状態では、第1進入領域62および第2進入領域64の上方には背景以外何も存在しない。そこで、デフォルト画像を記憶しておくと、第1進入領域62および第2進入領域64にオブジェクトが進入したときの差分を容易に取ることができ、したがって反射面領域内でのオブジェクトの反射像の検出処理がロバストになる。
図5(a)〜(d)は、プレイヤー72の操作するオブジェクト70が第1進入領域62に進入したときのものとする。オブジェクト70が第1進入領域62に進入したことにより、第1反射面52に対応する領域に、オブジェクト70の反射像70aが映し出されている。奥行位置検出部122は、フレーム間で反射面領域の差分を取ることでこの反射像70aを検出する。
図5(a)の撮影時には、プレイヤー72が位置する部屋が暗く、十分な光量が得られていないものとする。プレイヤーが操作するオブジェクトが第1進入領域62に進入すると、アクション特定部132によりそのアクションが特定され、これに応じて入力受付画像表示部134が入力受付画像80をディスプレイ40に表示する。光量判定部116は、被撮影空間の光量が十分でないことを、フォトセンサの出力に基づいてまたはフレームの解析を通じて判定する。これに応じて、照明制御部140は、画面全体から入力受付画像80を除いた部分を照明用領域82とし、明度または輝度を高めた画像をディスプレイ40に表示する(図5(b)参照)。ディスプレイ40に照明用領域を表示することで、オブジェクト70やプレイヤー72を照らし出す状態になり、したがってカメラ20により撮影されるフレームも明るくなる。
図5(c)は、照明用領域82によってオブジェクト70およびプレイヤー72が照らされた状態でカメラ20により撮影されたフレームを示す。光量判定部116が十分な光量があると判定すると、顔領域検出部120は、フレーム内でプレイヤー72の顔に相当する顔領域74を検出する。身体領域推定部124は、検出された顔領域に基づいてプレイヤー72の身体に相当する身体領域76を推定する。照明制御部140は、照明用領域82から身体領域推定部124によって推定された身体領域76に対応する部分を切り取ってオンスクリーン表示部144に出力する。オンスクリーン表示部144がこれらの画像を重ね合わせることで、図5(d)に示すように、プレイヤー72の身体の回りが照明用領域82となって表示される。図5(b)から図5(d)に遷移するとき、照明制御部140は、照明用領域82の面積が小さくなった分を補うように、照明用領域82の明度または輝度をさらに高めて表示してもよい。
このように、オブジェクト70およびプレイヤー72の像と入力受付画像80とがディスプレイ40に表示され、入力インタフェースとしての機能を果たすとともに、照明用領域82もディスプレイ40に表示されるので、同時にオブジェクトを照明する機能を果たすことができる。
また、反射体50により設定される進入領域62、64へのオブジェクト70の進入を、照明用領域を表示するためのスイッチとして利用することで、プレイヤー72がオブジェクト70を操作して入力受付画像80への指示を与えようとするときに、オブジェクト70を照明することができる。プレイヤー72が入力受付画像80への指示を終了し、第1進入領域62よりも手前側にオブジェクト70を戻すとき、照明制御部140が照明用領域82を非表示にするように構成しておけば、ディスプレイ40が不要な光を発し続けることがなく、入力インタフェースの実現に必要なときにのみ照明として機能することになり、省エネルギーにもなる。また、進入領域62、64にオブジェクトを進入させるとディスプレイ40の画面が明るくなることから、プレイヤーに対する演出的な効果も期待できる。
また、二つの進入領域62、64へのオブジェクトの進入を使い分けることで、さらに細かな制御をすることができる。例えば、オブジェクト70が第1進入領域62に入るとディスプレイ40のスリープ状態が解除され、オブジェクト70が第2進入領域64に入ると、照明用領域82がディスプレイ40に表示されてオブジェクトのトラッキングが開始されるようにしてもよい。オブジェクト70を第2進入領域64から第1進入領域62に戻すと、照明用領域82が非表示にされ、ディスプレイ40にはカメラ20により撮影されたフレームの鏡面画像がそのまま表示される。さらにオブジェクト70を第1進入領域62より手前に戻すと、ディスプレイ40が再びスリープ状態に戻るように構成してもよい。
さらに、反射体50の二つの反射面52、54を奥行方向にやや広めの距離(例えば数十cm)離して配置した場合、オブジェクト70が第1進入領域62にあるときと第2進入領域64にあるときとでは、オブジェクト70とディスプレイ40の距離が大きく異なるため、照明用領域82の明度または輝度を変えるようにしてもよい。この場合、アクション特定部132によってオブジェクト70の検出位置の情報が照明制御部140に伝えられ、照明制御部140は、いずれの領域にあるかで照明用領域82の明度または輝度を増減させる。
図6は、図5の実施例に係る照明用領域を表示するプロセスのフローチャートである。
まず、カメラ20により撮影されたフレームが取得され、鏡面処理を施される(S10)。反射面領域特定部112は、フレーム内からマーカ56を検出することで反射面領域を特定する。反射面領域を特定できないほど光量が不足する場合(S12のN)、照明制御部140は、一旦画面全体を明るくして反射面領域を特定できるようにする(S28)。反射面領域が特定されると(S12のY)、奥行位置検出部122は、複数のフレーム間で反射面領域の差分を取ることで反射像を検出し、これによりオブジェクトの奥行位置が検出される(S14)。アクション特定部132は、オブジェクトの奥行位置の情報を用いて、予め定められたアクションが実行されたか否かを判定する(S16)。アクションが実行されていなければ(S16のN)、このフローを終了する。
アクションが実行された場合(S16のY)、入力受付画像表示部134が入力受付画像をディスプレイに表示する(S18)。光量判定部116は、被撮影空間の光量を判定して照明用領域をディスプレイに表示する(S20)。顔領域検出部120は、フレーム内からプレイヤーの顔領域を検出し(S22)、さらに身体領域推定部124はプレイヤーの身体領域を推定し、その情報を照明制御部140に渡す(S24)。照明制御部140は、身体領域に対応する部分を切り取った照明用領域をオンスクリーン表示部144に送り、オンスクリーン表示部144によって、身体領域の回りを照明用領域が囲んだ画面がディスプレイ40に表示される(S26)。
図7(a)〜(d)は、カメラにより撮影されたフレームの明るさに応じて照明用領域を表示する別の実施例を示す。この実施例では、被撮影空間の状況に応じて明度または輝度などの照明用領域82のパラメータを調節をする。
図7(b)〜(d)は、図7(a)のフレームが処理部32により取得されたとき、ディスプレイに表示されプレイヤーにより認識される画像であり、鏡面画像に対し照明用領域が重ねられて表示された画面の全体を示す。
光量判定部116は、フレームを解析するかフォトセンサの信号に基づいて、オブジェクトを取り囲む空間の光量が十分であるか否かを判定する。また、図7(a)に示すように、顔領域検出部120がプレイヤーの顔の領域を検出する。光量判定部116は、不足する光量に応じて、図7(b)に示すように照明用領域84をディスプレイの左上および右上に表示するか、または、図7(c)、(d)に示すように照明用領域84をいずれか一方に表示するかを決定する。照明制御部140は、顔領域に重ならないように照明用領域84を表示する。
照明用領域84の明度または輝度は、固定でもよいし、ディスプレイ40とオブジェクト70との間の距離に応じて変化させてもよい。前者の場合、例えばディスプレイ40に対する反射体50の推奨配置位置にしたがって想定距離を予め定めておき、それに合わせて設定した光量がオブジェクトに照射されるように照明用領域の明るさを設定する。後者の場合、後述するように、距離推定部146でディスプレイ40とオブジェクト70までの距離を推定し、その情報をもとに照明用領域の明度または輝度を変化させてもよい。
照明制御部140により照明用領域の明るさを変化させる毎に、光量判定部116において光量の判定をし、それに応じて照明用領域の明るさを増減するようにしてもよい。こうすれば、オブジェクトが適切な明るさで照らされるような照明用領域の明度または輝度を試行錯誤的に決定することができる。
図8(a)〜(c)は、入力インタフェース装置10における照明用領域の表示の別の実施例を示す。この実施例では、照明用領域の表示時間、表示位置、および発する色をアクティブに制御することで、カメラにより撮影されるフレームから得られる情報量を増大させる。
図8(a)に示すように、照明制御部140は、複数の色の異なる照明用領域86、88(図では、赤と青)を、短時間ずつ連続してディスプレイに表示させてもよい。そして、色解析部148は、それぞれの色の照明用領域86、88がディスプレイに表示されたときにカメラ20で撮影されたフレームを取得し、それらフレーム間での色の変化に基づいて、被撮影空間にある物体の色情報を取得するようにしてもよい。
また、図8(b)、(c)に示すように、照明制御部140は、ディスプレイの左半分および右半分に含まれる照明用領域84を、短時間ずつ連続してディスプレイに表示させてもよい。そして、距離推定部146は、左右それぞれの照明用領域84がディスプレイに表示されたときにカメラ20で撮影されたフレームを取得し、それらフレーム間の差分を取ることで、被撮影空間にある物体のディスプレイからの距離を推定するようにしてもよい。
図9は、図8の実施例に係る照明用領域を表示するプロセスのフローチャートである。S50〜S56までの処理は、図6のS10〜S16と同様である。
アクションが実行されている場合(S56のY)、照明制御部140は、色の異なる照明用領域を連続してディスプレイに表示させるか、またはディスプレイの左右で照明用領域を連続して表示させる(S58)。距離推定部146または色解析部148は、それぞれの照明用領域がディスプレイに表示されたときにカメラで撮影されたフレームを取得する(S60)。そして、複数フレーム間の差分を取ることで、被撮影空間の色情報または距離情報を取得する(S62)。
以上説明したように、本実施形態によれば、オブジェクトの動きを認識する入力インタフェース装置においてディスプレイを照明として積極的に使用するようにした。プレイヤーが暗い室内において入力インタフェース装置を用いると、カメラにより撮影されるフレームも暗くなってしまう。入力インタフェース装置は、フレーム内でのオブジェクトの検出により入力を受けとる装置であるから、フレームが暗い状態のままではそれ以上何の処理もできなくなってしまう。そこで、ディスプレイを自動的に明るくすることによって、オブジェクトの明るさを確保するようにしたのである。
近年普及してきたハイビジョンテレビの視野角は、従来のブラウン管テレビや液晶テレビなどよりもかなり広くなっており、視聴者が適正視野角でテレビを見ようとすると、視聴者とディスプレイとの距離が一層近づくことが予想される。このような状況では、たとえ部屋の照明が暗くても、ディスプレイを明るくすることでプレイに必要な光量を確保することができる。
照明用領域が表示されてプレイヤーの顔領域および身体領域が特定されると、入力インタフェースとして不要な部分だけを照明用領域として用いる。プレイヤーに視認させたい部分、つまりインタフェースにとって必要な部分である入力指示画面とプレイヤー自身の像と、照明用領域とを分けることで、画面全体を明るくする必要がなく、省エネルギーにもなる。
また、フレームの明度データまたは輝度データのビット数を増やした場合、オブジェクトを照らす光量を増加させることでより多くの情報量を取得することができ、種々の画像処理に活用できる。
以上、実施の形態をもとに本発明を説明した。これらの実施の形態は例示であり、各構成要素またはプロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。また、実施の形態で述べた構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
実施の形態では、反射体50が二つの反射面52、54を備えることを述べたが、反射面の数はひとつでも、または三つ以上でもよい。反射面がひとつの場合、プレイヤーによるオブジェクトの押し込みや引き出しなどのアクションは特定できないが、少なくともその反射面に対応する進入領域内にオブジェクトが位置するか否かを特定することができる。反射面が三つ以上の場合でも、それぞれに対応して進入領域が設定され、奥行位置検出部によって各進入領域にオブジェクトが進入したか否かを判定する点は上述したのと同様である。反射面の数を多くすることで、さらに複雑なプレイヤーのアクションを識別することが可能になり、アクションに合わせて、より詳細に照明用領域を制御することができる。例えば、オブジェクトの位置に応じた照明用領域の明度または輝度に多数の段階を持たせることができる。
実施の形態では、ディスプレイに照明用領域を表示することでオブジェクトを照明することを述べたが、照明制御部がディスプレイの制御回路に対して、画面の輝度を高めるように信号を発するようにしてもよい。この場合、オブジェクトが第1進入領域または第2進入領域のいずれに位置するかの情報にしたがって、ディスプレイの制御回路に対し、スリープモードの開始または停止を指令するように構成してもよい。
実施の形態では、プレイヤーおよびオブジェクトの鏡面画像をディスプレイに映し出すことを述べたが、カメラにより撮影された動画は、ディスプレイに映し出されなくてもよい。
入力インタフェース装置の全体構成を示す図である。 カメラと画像処理装置のハードウェア構成を簡略化して説明した図である。 反射体の構造を示す平面図である。 処理部の詳細な構成を示す図である。 (a)〜(d)は、カメラにより撮影されたフレームの明るさに応じて照明用領域を表示する実施例を示す図である。 図5の実施例に係る照明用領域を表示するプロセスのフローチャートである。 (a)〜(d)は、カメラにより撮影されたフレームの明るさに応じて照明用領域を表示する別の実施例を示す図である。 (a)〜(d)は、入力インタフェース装置を使用した照明用領域の表示の別の実施例を示す図である。 図8の実施例に係る照明用領域を表示するプロセスのフローチャートである。
符号の説明
10 入力インタフェース装置、 20 カメラ、 30 画像処理装置、 40 ディスプレイ、 50 反射体、 52 第1反射面、 54 第2反射面、 56 マーカ、 62 第1進入領域、 64 第2進入領域、 70 オブジェクト、 72 プレイヤー、 74 顔領域、 76 身体領域、 80 入力受付画像、 82〜88 照明用領域、 112 反射面領域特定部、 116 光量判定部、 120 顔領域検出部、 122 奥行位置検出部、 132 アクション特定部、 134 入力受付画像表示部、 136 入力受付部、 140 照明制御部、 146 距離推定部、 148 色解析部。

Claims (10)

  1. プレイヤーにより操作されるオブジェクトを撮影し、オブジェクトの動きをディスプレイに表示された入力受付画像に対する指示として受けとる画像処理方法において、少なくとも前記オブジェクトの動きが検出されたときにディスプレイに映し出される画像の明るさを高めることを特徴とする画像処理方法。
  2. プレイヤーにより操作されるオブジェクトを撮影するカメラと、
    撮影されたフレームに基づいてオブジェクトの位置を検出する位置検出部と、
    前記オブジェクトの検出結果をもとにプレイヤーのアクションを特定するアクション特定部と、
    前記アクションをディスプレイに表示された入力受付画像に対する指示として受けとる入力受付部と、
    前記アクションに応答して、アクションが検出される前の状態よりも前記ディスプレイに映し出される画像の明るさを高める照明制御部と、
    を備えることを特徴とする入力インタフェース装置。
  3. 前記オブジェクトの反射像を前記カメラに向けて投影するように配置され、前記オブジェクトの直接像とともに反射像を前記カメラに撮影させる反射体をさらに備えることを特徴とする請求項2に記載の入力インタフェース装置。
  4. 前記照明制御部は、撮影されたフレームよりも明度または輝度の高い照明用領域を前記ディスプレイに表示して画像の明るさを高めることを特徴とする請求項2または3に記載の入力インタフェース装置。
  5. 前記照明制御部は、画像全体から前記オブジェクトの動きにしたがった入力指示を受けとるための入力画像を除いた部分を前記照明用領域とすることを特徴とする請求項4に記載の入力インタフェース装置。
  6. 前記照明制御部は、画像全体から前記オブジェクトとともに撮影された前記プレイヤーの像を除いた部分を前記照明用領域とすることを特徴とする請求項4または5に記載の入力インタフェース装置。
  7. 前記オブジェクトを含む被撮影空間の明るさを推定する画像解析部をさらに備え、
    前記照明制御部は、前記オブジェクトを正確に検出するために明るさが不足すると判定されたとき、前記照明用領域の明るさを高めることを特徴とする請求項4ないし6のいずれかに記載の入力インタフェース装置。
  8. 前記照明制御部は、被撮影空間の明るさに基づいて前記照明用領域のパラメータを調整することを特徴とする請求項7に記載の入力インタフェース装置。
  9. 前記照明制御部は、ディスプレイの左半分および右半分に含まれる照明用領域を左右交互にディスプレイに表示させ、
    左右それぞれの照明用領域がディスプレイに表示されたときに撮影されたフレームに基づいて、被撮影空間にある物体のディスプレイからの距離を推定する距離推定部をさらに備えることを特徴とする請求項4ないし6のいずれかに記載の入力インタフェース装置。
  10. 前記照明制御部は、複数の色の異なる照明用領域を順番にディスプレイに表示させ、
    それぞれの色の照明用領域がディスプレイに表示されたときに撮影されたフレームに基づいて、被撮影空間にある物体の色情報を取得する色解析部をさらに備えることを特徴とする請求項4ないし6のいずれかに記載の入力インタフェース装置。
JP2006188272A 2006-07-07 2006-07-07 画像処理方法、入力インタフェース装置 Active JP4707034B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006188272A JP4707034B2 (ja) 2006-07-07 2006-07-07 画像処理方法、入力インタフェース装置
EP07737099.7A EP2040145B1 (en) 2006-07-07 2007-04-23 Image processing method and input interface apparatus
PCT/JP2007/000442 WO2008004332A1 (fr) 2006-07-07 2007-04-23 Procédé de traitement d'images et appareil d'interface d'entrée
US12/307,390 US8241122B2 (en) 2006-07-07 2007-04-23 Image processing method and input interface apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006188272A JP4707034B2 (ja) 2006-07-07 2006-07-07 画像処理方法、入力インタフェース装置

Publications (2)

Publication Number Publication Date
JP2008015915A true JP2008015915A (ja) 2008-01-24
JP4707034B2 JP4707034B2 (ja) 2011-06-22

Family

ID=38894307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006188272A Active JP4707034B2 (ja) 2006-07-07 2006-07-07 画像処理方法、入力インタフェース装置

Country Status (4)

Country Link
US (1) US8241122B2 (ja)
EP (1) EP2040145B1 (ja)
JP (1) JP4707034B2 (ja)
WO (1) WO2008004332A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250571A (ja) * 2009-04-16 2010-11-04 Mitsubishi Electric Corp 人物計数装置
JP2012168748A (ja) * 2011-02-15 2012-09-06 Denso Corp 投光システム及び顔撮影システム
JP2016123517A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント プログラム及びコンピュータシステム
JP2017141111A (ja) * 2016-02-11 2017-08-17 シク ユン,イル モニターを用いたエレベーターの動作制御装置および方法
JP2019008749A (ja) * 2017-06-28 2019-01-17 株式会社クボタ 圃場の空撮システム

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101419391B (zh) * 2007-10-24 2010-06-02 佛山普立华科技有限公司 自动调整显示器亮度的系统及方法
WO2010061448A1 (ja) * 2008-11-27 2010-06-03 パイオニア株式会社 操作入力装置、情報処理装置及び選択ボタン特定方法
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8963829B2 (en) * 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
JP2011239370A (ja) * 2010-04-14 2011-11-24 Sanyo Electric Co Ltd 撮影機能を有する画像表示装置
JP2012190184A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012190183A (ja) * 2011-03-09 2012-10-04 Sony Corp 画像処理装置および方法、並びにプログラム
FR2972820B1 (fr) * 2011-03-18 2013-04-19 Intui Sense Dispositif interactif robuste aux ombres portees
JP5914992B2 (ja) * 2011-06-02 2016-05-11 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
JP5433737B2 (ja) * 2012-07-06 2014-03-05 株式会社コナミデジタルエンタテインメント ゲーム機、それに用いる制御方法及びコンピュータプログラム
JP2015088096A (ja) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US9571751B2 (en) 2015-07-13 2017-02-14 International Business Machines Corporation Selective brightness control in photography
CN112637492B (zh) * 2020-12-19 2022-04-15 中建浩运有限公司 一种智能实体展会系统
DE102022208956B3 (de) * 2022-08-30 2024-01-25 Siemens Healthcare Gmbh Computerimplementiertes Verfahren zur Visualisierung einer Verzögerungszeit in einem übertragenen Bild und Vorrichtung zur Ausgabe eines Bildes

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127809A (ja) * 1991-04-19 1993-05-25 Sharp Corp 三次元空間座標入力装置
JPH10104572A (ja) * 1996-09-27 1998-04-24 Kokusai Electric Co Ltd 液晶表示駆動素子及びバックライト駆動素子制御方法及び装置
JP2001005437A (ja) * 1999-06-17 2001-01-12 Sony Corp 情報処理システムのモニタ調整装置
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
JP2003532216A (ja) * 2000-05-01 2003-10-28 トゥルバート、デビッド、ジェイ. ヒューマン・マシーンインターフェイス

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5255211A (en) * 1990-02-22 1993-10-19 Redmond Productions, Inc. Methods and apparatus for generating and processing synthetic and absolute real time environments
US5763872A (en) * 1997-01-20 1998-06-09 Ness; Ronald James Motion actuated night light
ES2260830T3 (es) * 1997-02-18 2006-11-01 Sega Corporation Dispositivo y metodo para el procesamiento de imagenes.
US5912454A (en) * 1997-06-30 1999-06-15 Microsoft Corporation System and method for detecting a relative change in light intensity
US6554724B2 (en) * 2000-10-19 2003-04-29 Carl Taylor Action-responsive basketball backboard
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) * 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US20030052903A1 (en) * 2001-09-20 2003-03-20 Weast John C. Method and apparatus for focus based lighting
US20030122810A1 (en) 2001-12-31 2003-07-03 Tsirkel Aaron M. Method and apparatus to adjust the brightness of a display screen
US7019736B2 (en) * 2002-03-20 2006-03-28 Hewlett-Packard Development Company, L.P. Method and apparatus for image display
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US20030227435A1 (en) * 2002-06-06 2003-12-11 Chang-Fa Hsieh Method for adjusting and detecting brightness of liquid crystal displays
US7379560B2 (en) 2003-03-05 2008-05-27 Intel Corporation Method and apparatus for monitoring human attention in dynamic power management
US7394451B1 (en) * 2003-09-03 2008-07-01 Vantage Controls, Inc. Backlit display with motion sensor
KR20050112251A (ko) * 2004-05-25 2005-11-30 삼성전자주식회사 디스플레이장치 및 그 제어방법
US7599044B2 (en) * 2005-06-23 2009-10-06 Apple Inc. Method and apparatus for remotely detecting presence
JP2006054504A (ja) * 2004-08-09 2006-02-23 Olympus Corp 画像生成方法および装置
JP2006236159A (ja) * 2005-02-25 2006-09-07 Toshiba Corp 情報処理装置及びその省電力制御方法
US7661828B2 (en) * 2005-06-10 2010-02-16 Hewlett-Packard Development Company, L.P. Adjusting light intensity
US8358273B2 (en) * 2006-05-23 2013-01-22 Apple Inc. Portable media device with power-managed display
US20090103853A1 (en) * 2007-10-22 2009-04-23 Tyler Jon Daniel Interactive Surface Optical System

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127809A (ja) * 1991-04-19 1993-05-25 Sharp Corp 三次元空間座標入力装置
JPH10104572A (ja) * 1996-09-27 1998-04-24 Kokusai Electric Co Ltd 液晶表示駆動素子及びバックライト駆動素子制御方法及び装置
JP2001005437A (ja) * 1999-06-17 2001-01-12 Sony Corp 情報処理システムのモニタ調整装置
JP2003532216A (ja) * 2000-05-01 2003-10-28 トゥルバート、デビッド、ジェイ. ヒューマン・マシーンインターフェイス
JP2002196855A (ja) * 2000-10-06 2002-07-12 Sony Computer Entertainment Inc 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250571A (ja) * 2009-04-16 2010-11-04 Mitsubishi Electric Corp 人物計数装置
JP2012168748A (ja) * 2011-02-15 2012-09-06 Denso Corp 投光システム及び顔撮影システム
JP2016123517A (ja) * 2014-12-26 2016-07-11 株式会社バンダイナムコエンターテインメント プログラム及びコンピュータシステム
JP2017141111A (ja) * 2016-02-11 2017-08-17 シク ユン,イル モニターを用いたエレベーターの動作制御装置および方法
JP2019008749A (ja) * 2017-06-28 2019-01-17 株式会社クボタ 圃場の空撮システム

Also Published As

Publication number Publication date
EP2040145A1 (en) 2009-03-25
WO2008004332A1 (fr) 2008-01-10
EP2040145A4 (en) 2012-12-12
EP2040145B1 (en) 2014-06-04
US8241122B2 (en) 2012-08-14
US20090203440A1 (en) 2009-08-13
JP4707034B2 (ja) 2011-06-22

Similar Documents

Publication Publication Date Title
JP4707034B2 (ja) 画像処理方法、入力インタフェース装置
US9609206B2 (en) Image processing apparatus, method for controlling image processing apparatus and storage medium
US9852339B2 (en) Method for recognizing iris and electronic device thereof
US7978248B2 (en) Data processing apparatus and data processing method for displaying image capture mode candidates
US9767612B2 (en) Method, system and apparatus for removing a marker projected in a scene
JP4627052B2 (ja) 画像に連携した音声出力方法および装置
US11736792B2 (en) Electronic device including plurality of cameras, and operation method therefor
JP2004312733A (ja) 網膜トラッキングを組み込んだ装置及び方法
US8830374B2 (en) Image capture device with first and second detecting sections for detecting features
KR20130138225A (ko) 통합형 저전력 깊이 카메라 및 비디오 프로젝터 장치
JP5012872B2 (ja) 表示モード制御装置及び表示モード制御プログラム
JP2005353010A (ja) 画像処理装置および撮像装置
JP2009100084A (ja) 情報処理装置、指示システム及び制御プログラム
JP2022535520A (ja) 電子機器の制御方法及び電子機器
EP2466896A2 (en) Integrated camera-projection device
US20220329729A1 (en) Photographing method, storage medium and electronic device
JP4409545B2 (ja) 三次元位置特定装置および方法、奥行位置特定装置
WO2015129522A1 (ja) 容器、画像表示システム、画像表示方法、画像表示プログラム及び記録媒体
JP6680294B2 (ja) 情報処理装置、情報処理方法、プログラム及び画像表示システム
US20150178589A1 (en) Apparatus for processing digital image and method of controlling the same
JP2020115679A (ja) 物体検出装置、検出制御方法及びプログラム
WO2020240989A1 (ja) 撮像装置、撮像制御方法および撮像制御プログラム
KR101670582B1 (ko) 뒷모습 디스플레이 시스템 및 그 방법
JP2010157969A (ja) 撮像装置、対象物検出方法及びプログラム
JPWO2018207235A1 (ja) 入出力システム、スクリーンセット、入出力方法、及び、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100928

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20101125

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20110127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110308

R150 Certificate of patent or registration of utility model

Ref document number: 4707034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250