JP5395956B2 - 情報処理システムおよび情報処理方法 - Google Patents

情報処理システムおよび情報処理方法 Download PDF

Info

Publication number
JP5395956B2
JP5395956B2 JP2012522362A JP2012522362A JP5395956B2 JP 5395956 B2 JP5395956 B2 JP 5395956B2 JP 2012522362 A JP2012522362 A JP 2012522362A JP 2012522362 A JP2012522362 A JP 2012522362A JP 5395956 B2 JP5395956 B2 JP 5395956B2
Authority
JP
Japan
Prior art keywords
camera
image
target
image data
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012522362A
Other languages
English (en)
Other versions
JPWO2012001755A1 (ja
Inventor
章男 大場
博之 勢川
徹悟 稲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc, Sony Computer Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2012522362A priority Critical patent/JP5395956B2/ja
Publication of JPWO2012001755A1 publication Critical patent/JPWO2012001755A1/ja
Application granted granted Critical
Publication of JP5395956B2 publication Critical patent/JP5395956B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • G01S3/784Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Description

本発明は、撮影した画像に基づき逐次出力画像を表示する情報処理システム、当該システムに含まれる情報処理装置、および当該システムで用いる情報処理方法に関する。
近年、パーソナルコンピュータやゲーム機などにカメラを搭載し、ユーザの姿を撮像して様々な形で利用することが一般的に行われるようになってきた。例えばテレビ電話、ビデオチャットなど、ユーザの画像を、ネットワークを介してそのまま相手に伝送するものや、画像解析によってユーザの動きを認識してゲームや情報処理の入力情報とするものなどが実用化されている(例えば特許文献1参照)。
WO 2007/050885 A2公報
撮影画像を利用して様々な処理を応答性よく高精度に実現するためには、その処理内容に応じた撮影条件が求められる。しかしながら製造コスト、画像の伝送帯域、撮影から出力までの応答性などの点から、単にカメラの性能や画質を上げることのみによって情報処理装置の機能を充実化させるのは困難な状況にある。
本発明はこのような課題に鑑みてなされたものであり、その目的は、安価かつ効率的に、撮影画像を利用した情報処理装置の機能を充実化させることのできる技術を提供することにある。
本発明のある態様は情報処理システムに関する。この情報処理システムは、被写体を撮影し、その画像データを逐次取得して出力画像データを生成する情報処理システムであって、同じ被写体に関する個別の情報を得るためにそれぞれ設定された異なる撮影条件で対象物を撮影する、同一の構造を有する第1のカメラおよび第2のカメラからなる一対のカメラと、一対のカメラのそれぞれが撮影して得られた2系統の画像データに含まれる個別の情報を統合して1系統の出力画像データを生成する情報統合部と、を備えたことを特徴とする。
ここで「被写体」は、撮影対象として明確に位置づけられた人などに限らず、カメラの視野に入る部屋、人、物、動物などを含む。したがって「被写体に関する個別の情報」とは、同一の個体に関する個別の情報に限らず、被写体に含まれる複数の個体のいずれかに関する情報でよく、別の個体に関する個別の情報でもよい。
本発明の別の態様は情報処理装置に関する。この情報処理装置は、被写体を撮影した画像データを逐次取得して出力画像データを生成する情報処理装置であって、接続された同一の構造を有する一対のカメラを、同じ被写体に関する個別の情報を得るためにそれぞれ設定した異なる撮影条件にて撮影を行うように制御する撮影条件制御部と、一対のカメラのそれぞれが撮影して得られた2系統の画像データを取得し、各画像データに含まれる個別の情報を統合して1系統の出力画像データを生成する情報統合部と、を備えたことを特徴とする。
本発明のさらに別の態様は情報処理方法に関する。この情報処理方法は、被写体を撮影した画像データを逐次取得して、それに応じた出力画像データを出力する情報処理方法であって、同一の構造を有する一対のカメラによって、同じ被写体に関する個別の情報を得るためにそれぞれ設定した異なる撮影条件にて撮影を行うステップと、一対のカメラのそれぞれが撮影して得られた2系統の画像データを取得し、各画像データに含まれる個別の情報を統合して1系統の出力画像データを生成するステップと、出力画像データを表示装置に出力するステップと、を含むことを特徴とする。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によると、撮影画像を利用した様々な機能を安価に実現できる。
本実施の形態を適用できる情報処理システムの構成例を示す図である。 本実施の形態の撮像装置および情報処理装置の構成を詳細に示す図である。 本実施の形態で想定する撮影状況例を説明するための図である。 本実施の形態の、画角の大きさと解像度を異ならせる態様において、撮像装置が撮影した画像と、それを利用して得られる出力画像の例を示す図である。 本実施の形態の、画角の大きさと解像度を異ならせる態様における情報処理の処理手順を示すフローチャートである。 本実施の形態の、画角の大きさと解像度を異ならせる態様の変形例を示す図である。 本実施の形態の、画角の大きさと解像度を異ならせる態様の変形例を示す図である。 本実施の形態の、画角の大きさとフレームレートを異ならせる態様において、撮像装置が撮影した画像と、それを利用して得られる出力画像の例を示す図である。 本実施の形態の、画角の大きさとフレームレートを異ならせる態様における情報処理の処理手順を示すフローチャートである。 本実施の形態の、画角の大きさとフレームレートを異ならせる態様における、画像のスキャン時間を説明するための図である。 本実施の形態の、画角の大きさとフレームレートを異ならせる態様において、撮像装置が撮影した画像と、それを利用して得られる出力画像の例を示す図である。 本実施の形態の、露光時間/絞り値を異ならせる態様において、撮像装置が撮影した画像と、それを利用して得られる出力画像の例を示す図である。 本実施の形態の、露光時間/絞り値を異ならせる態様における情報処理の処理手順を示すフローチャートである。
実施形態1
図1は本実施の形態を適用できる情報処理システムの構成例を示す。情報処理システム10は、ユーザ1a、1bなどの対象物を撮影する2つのカメラを搭載した撮像装置12、撮影した画像に基づき、ユーザの要求に応じた情報処理を行う情報処理装置14、情報処理装置14が処理した結果得られた画像データを出力する表示装置16を含む。また情報処理装置14はインターネットなどのネットワーク18と接続可能とする。
情報処理装置14と、撮像装置12、表示装置16、ネットワーク18とは、有線ケーブルで接続されてよく、また無線LAN(Local Area Network)などにより無線接続されてもよい。撮像装置12、情報処理装置14、表示装置16のうちいずれか2つ、または全てが組み合わされて一体的に装備されていてもよい。また、撮像装置12は必ずしも表示装置16の上に設置されていなくてもよい。さらにユーザ1a、1bは人でなくてもよく、その数も限定されない。
撮像装置12は、同じ構造を有する一対のカメラで同一空間に存在する対象物を撮影する。撮像装置12として、対象物の奥行き情報を取得するために実用化されているステレオカメラなどを利用してもよい。すなわち並べて設置することによりほぼ同一の視野を得ることのできる、それぞれにレンズを有するカメラの対であってよい。一方、カメラの間隔が既知であり視差を補正することにより、少なくとも視野の一部の対応関係が導出できれば、2つのカメラの間隔や相対位置は限定されない。またレンズを1つとし、当該レンズが捉えた画像を撮像装置12内部で分光することにより実質上、2つのカメラを実現してもよい。
2つのカメラの少なくとも一方は電子ズーム、電子パンチルタ、もしくは相当の画像切り出し機能を備え、情報処理装置14の制御によって視野を独立に変化させることができるようにする。また撮影条件、例えばホワイトバランス、フレームレート、露光時間、絞り値は、情報処理装置14によって2つのカメラでそれぞれ独立に制御可能とする。
撮像装置12は情報処理装置14が指定した撮影条件で、ユーザ1a、1bなどを含む画像のデータを動画または静止画として取得する。取得した画像データは情報処理装置14に入力される。情報処理装置14は、撮像装置12から取得した画像データに基づきその後の撮影条件を決定し、撮像装置12へ当該撮影条件をフィードバックする。情報処理装置14はさらに、撮像装置12から取得した画像データに基づき、ユーザが指定した機能に応じた情報処理を行い、出力する画像データを生成する。
生成した画像データは表示装置16に出力するか、ネットワーク18を介して接続した別の情報処理装置へ送信する。表示装置16は画像を出力するディスプレイおよび音声を出力するスピーカを有するテレビであってよい。
図2は撮像装置12および情報処理装置14の構成を詳細に示している。情報処理装置14は、ユーザからの指示入力を受け付ける入力情報取得部22、ユーザの指示または撮影された画像の解析結果に基づき決定した撮影条件で撮影を開始させる撮影条件制御部24、目的とする機能と撮影条件とを対応づけた撮影条件テーブルを記憶する撮影条件記憶部26、撮像装置12に搭載された第1カメラ28、第2カメラ30が撮影した画像をそれぞれ取得して必要な画像解析を行う第1画像解析部32および第2画像解析部34、一対のカメラで撮影された画像や解析結果を統合する情報統合部36、および、処理の結果として出力する画像のデータを生成する画像データ生成部38を含む。
図2において、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メモリ、その他のLSIで構成することができ、ソフトウェア的には、画像処理を行うプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
入力情報取得部22は、ユーザが情報処理装置14に対し行う指示入力を受け付けるインターフェースであり、ポインティングデバイス、マウス、キーボード、タッチパネル、ゲームコントローラ、ボタンなど一般的な入力装置で実現できる。入力情報取得部22は情報処理装置14本体と別の筐体を有する、無線又は有線で接続した装置としてもよい。ユーザによる指示入力は、情報処理装置14が実行可能な機能のいずれかを選択する入力、表示装置16に表示されたカーソルや枠を移動させたり選択したりする入力を含む。入力情報取得部22が取得した情報は、撮影条件制御部24、第1画像解析部32、第2画像解析部34、情報統合部36に適宜通知される。情報処理装置14が実行可能な機能の例については後述する。
撮影条件制御部24は、ユーザが入力情報取得部22に入力した指示入力に従い第1カメラ28および第2カメラ30における撮影条件を決定し、当該2台のカメラの少なくともいずれかに撮影要求信号を送信することにより、決定した条件での撮影を開始させる。撮影条件の初期値は、ユーザが指示する機能に基づき、撮影条件記憶部26に格納された撮影条件テーブルを参照することによって得られる。また撮影条件制御部24は、第1カメラ28、第2カメラ30の少なくともいずれかが撮影した画像を解析した結果に基づき、さらに撮影条件を決定し、少なくともいずれかのカメラに当該条件にて撮影を開始させる。
第1画像解析部32は第1カメラ28が撮影した画像を取得し、第2画像解析部34は第2カメラ30が撮影した画像を取得し、いずれもユーザが選択した機能に応じた画像解析を行う。ただしユーザが選択した機能によっては画像解析を必要としない場合もあり、その場合は画像データをそのまま情報統合部36などへ送出してよい。そのため第1画像解析部32および第2画像解析部34は、入力情報取得部22から、ユーザが選択した機能についての情報を取得したうえ処理を実行する。第1画像解析部32や第2画像解析部34による解析結果は撮影条件制御部24へ送信され、さらなる撮影条件の決定に利用されるか、情報統合部36へ送信される。
情報統合部36は、第1画像解析部32および第2画像解析部34が解析した結果、またはそれぞれから送信された画像データを統合する。どのような統合を行うかはユーザが選択した機能によって異なる。そのため情報統合部36は、入力情報取得部22から、ユーザが選択した機能についての情報を取得したうえ処理を実行する。画像データ生成部38は、情報統合部36が統合した結果を画像として出力するための画像データを生成し、表示装置16またはネットワーク18へ出力する。
次に情報処理システム10が実現する機能の具体例について説明する。図3は本実施の形態で想定する撮影状況例を説明するための図である。同図の例では二人のユーザ1a、1bがテーブルについて会話などしている状況を第1カメラ28、第2カメラ30で撮影している。撮影対象はユーザ1a、1bなど人に限らず、ユーザが保持するフリップ2などの物でもよい。撮影した画像は例えば、逐次、ネットワーク18を介して別の情報処理システムに送信することにより、当該別の情報処理システムの表示装置に表示されるようにする。
これにより、遠隔地でユーザ1a、1bの会話の様子を見ることができる。また2つの情報処理システム10相互に同様の処理を実行することにより、ビデオチャットやテレビ電話の機能を実現することができる。なおこのような機能を発揮させるためのネットワークの確立やデータ伝送のための手続きなどについては一般的な技術を採用してよく、ここでは説明を省略する。またネットワークを介して画像データを送信するばかりでなく、撮影対象であるユーザ1a、1bが見ている表示装置16に、処理結果である画像を表示することにより、ユーザ1a、1bがゲームを楽しむ、といった態様でもよい。
このような状況において本実施の形態における情報処理システム10は、2台のカメラで同一の対象物を、異なる条件で撮影することにより、撮影画像に付加価値をつけて出力情報とする。図3の例では第1カメラ28は対象物全体の領域40を広角で撮影し、第2カメラ30はユーザ1bの顔の領域42のみを狭角で撮影している。このとき第2カメラ30が撮影する画像は第1カメラ28が撮影する画像と同じ画素サイズとする。
結果として第2カメラ30で撮影した画像は第1カメラ28で撮影した画像より高解像度となる。これにより第1カメラ28で撮影した画像は通常の解像度で広角、第2カメラ30で撮影した画像は高解像度で狭角、と互いに異なる性質の画像を取得できる。本実施の形態ではこのように、同一の被写体、空間を、条件を異ならせて同時に撮影し、それぞれが有する情報を統合することによって様々な処理を可能にする。
以下、情報処理システム10が実現する機能の例について具体的に説明する。なおこれらの機能は例示であり、情報処理システム10はこれらの機能のうちのいずれか1つまたはいずれか2つ以上の組み合わせを実現可能とすればよく、全ての機能を備える趣旨ではない。
(1)画角の大きさと解像度を異ならせる態様
本態様は図3で説明したように、2つのカメラが撮影する画角を異ならせる。このとき上述のように、2つのカメラが同じ画素サイズで撮影すると、画角が小さいほど解像度が上がる。そしてこれらの画像を合成して出力することにより、人の顔など注目領域のみを詳細に表した画像を表示できる。
図4は本態様において、第1カメラ28および第2カメラ30が撮影した画像と、それを利用して得られる出力画像の例を示している。同図において第1カメラ28が撮影する画像は図3における領域40の広角画像44である。第2カメラ30が撮影する画像は図3における領域42の狭角画像46である。
狭角画像46の領域面積が広角画像44の領域面積の縦横1/3である場合、画素サイズを等しくすると、解像度は狭角画像46が広角画像44の縦横3倍となる。なおこのように画素サイズや画像の縦横比率を厳密に同一とする必要はなく、まず処理能力などを考慮して画像データのサイズに許容範囲を定めておき、その範囲内で画角と解像度との関係を適宜決定すればよい。
狭角画像46の画角を決定するためには、まず広角画像44を撮影し、顔認識処理を行うことにより狭角で撮影するターゲットとなり得る領域を検出する。そして当該広角画像44上にターゲット候補の領域を表した画像を表示装置16に表示し、ユーザによる選択を受け付ける。このとき広角画像44中、選択されたターゲットの領域の位置を記憶しておく。そして広角画像44上の対応する領域に狭角画像46を合成して出力する。その結果、広角画像44のうちユーザが選択したターゲットの領域50のみ解像度が高い合成画像48を表示できる。
図5はこの態様における情報処理の処理手順を示すフローチャートである。図5および後述する図9、図13のフローチャートにおいては、各部の処理手順を、ステップを意味するS(Stepの頭文字)と数字との組み合わせによって表示する。図5のフローチャートは、ユーザが、撮影および画像データの出力を開始する指示入力を入力情報取得部22に行ったときに開始される。
まずユーザは入力情報取得部22に対し、機能を選択する指示入力を行う(S10)。例えばユーザは、表示装置16に表示されたメニュー画面のうち、ビデオチャットなど上述の処理を利用した機能を選択する。すると当該情報は撮影条件制御部24、第1画像解析部32、第2画像解析部34、情報統合部36に通知される。第1画像解析部32、第2画像解析部34、情報統合部36が当該通知を受けることにより、選択された機能に応じた処理のシーケンスが設定される。この処理は実際にはスクリプトファイルやプログラムの選択であってよい。以後の例でも同様である。
そして撮影条件制御部24は、標準的な画角および解像度で、第1カメラ28に撮影を開始させる(S12)。このときの撮影条件は、撮影条件記憶部26が記憶する撮影条件テーブルを参照し、選択された機能に対して設定されている撮影条件を取得することによって決定できる。ここで撮影する画像は、図4に示す広角画像44のような画像である。撮影開始にあたり、第1カメラ28は、実際の撮影環境に対し最適となるホワイトバランスや絞り値を、既存の技術を用いて自動調整してもよい。
第1カメラ28が撮影した画像のデータは、第1画像解析部32に送られる。第1画像解析部32は、当該画像のデータ解析して、人の顔など狭角画像のターゲットとなり得る候補の領域を検出する。そして画像データ生成部38が、当該領域を矩形で囲った画像データを生成して表示装置16に出力する(S14)。
第1画像解析部32が行う画像解析は、特徴点抽出による顔検出やパターンマッチングによる所定の対象物の検出など既存の検出技術を利用する。ターゲットとすべき対象は顔、手、特定のマーカーなど、検出が可能な物のリストからユーザが選択するなどし、選択された対象物に応じて検出手法を適宜決定してよい。顔検出を行った場合、S14で表示される画像は、例えば図3の領域40の画像を表示させたうえ、領域42の境界を示すような枠をユーザ1a、1bの双方の顔領域にオーバーレイさせた画像である。
このとき同時に、枠のいずれかを指すカーソルを表示させ、入力情報取得部22を介してユーザがカーソル移動、決定の入力をできるようにする。枠の色によって選択対象を表してもよい。そしてユーザは、表示装置16を見ながらターゲットを選択する(S16)。これに応じて撮影条件制御部24が、選択されたターゲットを囲んでいる枠の領域を第2カメラ30に撮影させることにより、第1カメラ28および第2カメラ30による広角画像、狭角画像の同時撮影が開始される(S18)。このとき撮影条件制御部24は、第2カメラ30の電子ズームおよび電子パンチルタを制御することにより、選択された領域が撮影されるようにする。なお上述のように、狭角画像が広角画像のどの領域の画像であるかを示す相対位置情報が、入力情報取得部22から情報統合部36に通知される。
そして2台のカメラで撮影された広角画像、狭角画像のデータは、第1画像解析部32および第2画像解析部34をそれぞれ介して、逐次、情報統合部36に供給される。情報統合部36は双方の相対位置情報とともに2つの画像データを送信して画像データ生成部38に合成を指示することにより、画像データ生成部38が合成画像を生成して出力する(S20)。これにより、例えばビデオチャットなどにおいて、ユーザ1bの表情を詳細に捉えた画像を、相手の表示装置に表示させることができる。
このとき高解像度となるのは全体画像の一部であるため、画像データのサイズ増大により伝送帯域を圧迫することなく、見たい領域を詳細に見る、という要求を満たすことができる。また、カメラ自体は一般的な性能を有すればよいため、製造コストが増大することがない。
図6、図7はこの態様の変形例を示している。図6は、ユーザが持つフリップ2をターゲットとした場合の撮影画像と出力画像の例を示している。このときあらかじめ、フリップ2にはその四隅のうち対角上にある二隅などに、所定の色、形状を有するマーカー53をつけておく。これにより第1画像解析部32は、図5のS14において、パターンマッチングなどによりマーカーを検出し、それによってフリップの領域をターゲット候補として検出することができる。
そしてS16においてユーザが当該フリップをターゲットとして選択した場合、第1カメラ28が撮影する画像は広角画像52、第2カメラ30が撮影する画像はフリップの領域の狭角画像54である。上述同様、狭角画像54は高解像度画像となるため、フリップ上に記載された文字などが、広角画像52と比較してはっきり表示される。
それらの画像を合成し、合成画像56を表示する。この例では、広角画像52内のフリップの面積と比較し、対応する領域を表す狭角画像54を拡大した画像58を表示することにより、文字などが一層見やすくなるようにしている。このように、一つの視野内にある対象物であっても、対象物に応じた加工を行ったうえで合成画像を表示することができる。
図7は、第1カメラ28および第2カメラ30の双方で狭角画像を撮影した場合の撮影画像と出力画像の例を示している。この場合、図4のS16においてユーザから2つのターゲット選択を受け付ける。そしてS18において、第1カメラ28で一方のターゲットの狭角画像60、第2カメラ30で他方のターゲットの狭角画像62を撮影する。同図の例では、ユーザ1aの顔、ユーザ1bの顔の領域がターゲットとして選択されたとしている。
この場合、広角画像を撮影するカメラが存在しないため、合成画像64における広角画像は、図4のS16においてターゲットが選択されたときに第1カメラ28が撮影していた画像のいずれかのフレームを静止画として表示する。その結果、合成画像64のうち、ターゲットの領域66および68のみ解像度が高く動きを有し、その他の領域は静止画の画像を表示できる。このようにすると、詳細に見たい領域が限定的であり、その他の領域の動きがあまり重要でない状況において、ターゲットの数をカメラの数だけ増やすことができる。
なお合成画像として、2つの狭角画像60、62のみを、表示装置16の画面の大きさに応じて拡大し、並べて表示するようにしてもよい。またこのような画像と、図7の合成画像64とを切り替え可能にしてもよい。また、ターゲットが大きく動くような場合は、第1カメラ28に広角画像を撮影させ、第1画像解析部32が既存の技術によりターゲットをトラッキングし、それに応じて撮影条件制御部24が電子パンチルタを用いて各カメラの視野を調整することにより、狭角画像内に常にターゲットが含まれるようにしてもよい。このことは、上述のいずれの場合でも同様である。
(2)画角の大きさとフレームレートを異ならせる態様
本態様は、撮影時のフレームレートを2つのカメラで異ならせる。具体的には一方のカメラは全体画像を標準的なフレームレートで撮影し、他方のカメラはターゲットの狭角画像を高フレームレートで撮影する。高フレームレートで撮影した画像は、ターゲットまたはターゲットに含まれる部位のトラッキングに用いる。これにより、データサイズを増大させることなく、注目すべき領域について効率的かつ精度の高いトラッキングを実施できる。
図8は本態様において、第1カメラ28および第2カメラ30が撮影する画像とそれを利用して得られる出力画像の例を示している。同図において第1カメラ28が撮影する画像は図3における領域40の広角画像70である。第2カメラ30が撮影する画像はターゲットの領域の狭角高フレームレート画像72である。n<nとしたとき、第1カメラ28が広角画像70をnフレーム撮影する間に、第2カメラ30は狭角高フレームレート画像72をnフレーム撮影する。
そして第2画像解析部34は、狭角高フレームレート画像72に対し、既存の手法で対象物のトラッキングを行う。顔をターゲットとした場合、例えば目や口などの顔の部位をトラッキングすることにより表情の変化を認識する。あるいは頭や手などをターゲットとした場合、その輪郭をトラッキングすることによりジェスチャを認識する。このような場合、出力する画像74は、トラッキングした結果に応じた加工を、広角画像70に施した画像などとなる。図8の例では、ターゲットとなった顔が笑ったことを認識し、それに対応するアニメーション76を加えている。
近年、対象物の動きを撮影してトラッキングすることにより表情やジェスチャを認識し、それを入力情報としてゲームを進捗させたり情報処理を行ったりする技術が実用化されている。トラッキングを高精度に行うためには、動きに対する時間の解像度が高くなるように高フレームレートで撮影することが望ましい。しかし高フレームレート撮影によって取得する画像データのサイズが増大すると、情報処理装置14内部でバス帯域やメモリ領域を圧迫する可能性がある。
本態様ではまず広角画像によってターゲットの絞り込みを行ったうえ、その領域のみを高フレームレートで撮影してトラッキングを行うため、画像データサイズの増大を抑えることができる。また、ターゲットが大きく変位した場合などでも全体的な動きの情報は広角画像において取得できるため、効率よくターゲットの位置の絞り込みを行える。また最終的に出力する画像として、標準的なフレームレートで撮影したものを用いることにより、表示に適したノイズの少ない画像表示を実現できる。
図9はこの態様における情報処理の処理手順を示すフローチャートである。図9のフローチャートは、ユーザが、撮影および画像データの出力を開始する指示入力を入力情報取得部22に行ったときに開始される。まず図5と同様、ユーザは入力情報取得部22に対し、機能を選択する指示入力を行い(S22)、撮影条件制御部24は、選択された機能に対して設定されている撮影条件に従い、標準的な画角およびフレームレートで、第1カメラ28に撮影を開始させる(S24)。
第1カメラ28が撮影した画像のデータは、第1画像解析部32が取得し画像解析を行うことにより、あらかじめ定めた対象物、例えば人の顔や手、頭などが、ターゲットとして検出される(S26)。このとき図5で説明したのと同様、検出したターゲット候補を枠で囲んで表示することによりユーザに選択させるようにしてもよい。またターゲットの検出手法も図5で説明したのと同様、パターンマッチングなど既存の検出技術を利用してよい。例えば、最初に顔認識処理によって顔を検出し、それとの相対位置から手や頭の輪郭の位置を推定した後、パターンマッチングを行ってターゲットを確定させる、といった手法でもよい。
検出したターゲットの情報は撮影条件制御部24へ通知される。そして撮影条件制御部24が、選択されたターゲットの領域を高フレームレートで第2カメラ30に撮影させることにより、第1カメラ28および第2カメラ30による広角画像、狭角高フレームレート画像の同時撮影が開始される(S28)。このとき、トラッキング対象となるターゲットの位置情報を情報統合部36に通知しておく。
そして第2画像解析部34は、第2カメラが撮影した狭角高フレームレート画像についてターゲットのトラッキング処理を行う(S30)。トラッキングに際しては、S26でターゲットを検出した際に得られたターゲットの実際の形状をテンプレート画像として保持しておき、それと高フレームレート画像とのマッチングによってターゲットの位置を追尾するようにしてもよい。そしてトラッキングした結果得られるターゲットの位置変化から所定のジェスチャが行われたことを検出する(S32)。例えば、ターゲットの位置変化のパターンとジェスチャとを対応づけたテーブルを図示しないメモリなどに格納しておき、それを参照することによりジェスチャ判定を行う。
このようなジェスチャ認識手法も、ゲームなどによって実用化されているものを採用してよい。ここで「ジェスチャ」は、一般的に人がジェスチャとして行う動作のほか、顔の表情の変化など、意味づけを行うことのできる形態変化であればそのいずれでもよい。
ジェスチャ認識結果と、第1カメラ28が撮影した広角画像のデータは逐次、情報統合部36に供給される。情報統合部36はジェスチャに応じて用意されたアニメーションや画像加工処理の内容と、加工を施す位置の情報とともに画像データを画像データ生成部38に送信して画像加工を指示することにより、画像データ生成部38が加工画像を生成して出力する(S34)。
なお本態様において、ジェスチャ認識によって行う処理は特に限定されない。例えば、図8で示したような単純なアニメーション付加以外に、仮想世界を表現した画像中に広角画像中のユーザの姿を合成し、ユーザのジェスチャによって仮想世界に何らかの変化を生じさせるなど、より複雑な表現としてもよい。すなわちトラッキングやジェスチャ認識によって出力する画像は、ゲームの内容や情報処理の目的に応じて、既存の画像処理技術と様々に組み合わせて生成してよい。
また広角画像と狭角高フレームレート画像は、処理の内容によっては常時同時に撮影する必要はなく、画像取得が必要な期間に応じて2台のカメラのいずれかをオン/オフさせてもよい。例えば野球ゲームを画像で表現する場合、広角画像を常時撮影してユーザの姿と野球場の風景を合成させた画像を表示させ、バッターであるユーザがスイングする期間のみ、ユーザの腕の動きを狭角高フレームレートで撮影し、スイングの角度や速さに応じて打球をアニメーション表示する、といった態様が考えられる。
逆に、広角画像を出力画像として用いず、ジェスチャ認識の結果のみを出力情報に用いる場合などは、狭角高フレームレート画像においてターゲットを見失ったときのみ広角画像を撮影して広い範囲でターゲットを探索できるようにしてもよい。このように広角画像の撮影期間と狭角ハイフレーム画像の撮影期間とを臨機応変に設定することにより、処理内容に応じてリソースの消費量を調整することができる。
一方で、限定的な空間において時間軸での解像度を上げた情報取得と、広い空間の全体的な情報取得とを並列に実行するようにすれば、例えばトラッキングの結果を広角画像にフィードバックして全体的な動きを追ったり、全体的な動きから限定的な範囲の高精度なトラッキングを行ったり、といったように相互に情報を補うことができ、幅広い応用が可能である。
また図7で説明したのと同様に、最初に第1カメラ28で撮影した広角画像によってターゲットを検出したら、2つのターゲットの狭角高フレーム画像を2台のカメラで撮影するようにしてもよい。これにより2つのターゲットのジェスチャを独立して認識できるため、仮想空間における対戦ゲームなどを表現することができる。
なお狭角高フレームレート画像は態様(1)と同様、広角画像と同じ画素サイズで撮影して高解像度としてもよいし、広角画像と同じ解像度としてもよい。どのような解像度とするかは、要求されるトラッキングの精度や情報処理装置の処理能力、データ転送時のバスの帯域などに応じてあらかじめ決定しておけばよい。
上述の例は第2カメラが狭角画像を高フレームレートで撮影したが、逆に低フレームレートで撮影してもよい。低フレームレートで、画像を取得するスキャン速度が遅くなると、1つのフレームに含まれる動きの情報量が多くなる。図10はこの態様における画像のスキャン時間を説明するための図である。同図は横軸を時間軸としたときに矩形86で示したカメラセンサ領域中、スキャンされるスキャンラインの時間変位(実線)を模式的に示している。
下段に示す低速スキャンの場合、上段に示す標準的なスキャンスピードと比較し、センサ領域の上から下までスキャンする時間が長い。そのため同一期間において取得できるフレームの数は少ないが、一つのフレーム画像の取得を完了してから次のフレーム画像の取得を開始するまでのブラインド期間が発生する頻度が低くなる。そのため動く対象物に対して時間解像度の高い情報を取得できる。また1つのフレームに長期間の情報が含まれるため、処理の負荷が軽くレイテンシの少ないジェスチャ認識が可能となる。
図11は第1カメラ28で広角画像を、第2カメラ30で狭角の低フレームレート画像を撮影した場合の各撮影画像とそれを利用して得られる出力画像の例を示している。同図において第1カメラ28が撮影する画像は上述と同様、標準的なフレームレートで撮影した広角画像80である。第2カメラ30が撮影する画像はターゲットの領域の狭角低フレームレート画像82である。n>nとしたとき、第1カメラ28が広角画像80をnフレーム撮影する間に、第2カメラ30は狭角低フレームレート画像82をnフレーム撮影する。
この例では、撮影対象の人物の手をターゲットとして検出し、その領域の狭角低フレームレート画像を撮影しているとする。ここで撮影対象の人物が手を振ったとすると、狭角低フレームレート画像82では、その手の左右の動きが、図示するように表れる。すなわち、手が左右に振られている状況でスキャンラインの上から下へスキャンが進捗していくため、左右の往復運動を縦方向に引き延ばしたような手の色の形状が取得できる。
第2画像解析部34はこの狭角低フレームレート画像82を取得し、手の左右方向の変位と上下方向のスキャンスピードから、手の速度の変化を得る。この情報に基づき、あらかじめ準備した運動パターンとジェスチャとを対応づけたテーブルを参照することにより、ジェスチャが行われたか否かを判定する。そして上述の例と同様、ジェスチャに応じた所定の加工を広角画像80に施すことにより、出力画像84を生成する。同図の例では、撮影対象が「さようなら」と言っている吹き出しを付加している。
(3)露光時間/絞り値を異ならせる態様
本態様は、撮影時の露光時間、絞り値のどちらか一方、または両方を、2つのカメラで異ならせる。近年、発光体などのマーカーをユーザに持たせたり体に装着させたりして、それを撮影することによってユーザの動きを検出し、ゲームなどへの入力情報とする技術が提案されている。この技術は、特定の大きさ、色、形状、輝度などを有するマーカーを、画像として捉えた部屋や人、物などの中から常に検出できる、という前提のもとに成り立つ。しかしながら人間による目視と異なり、画像内でのマーカーの写り具合は、周囲の明るさや物の有無、周囲の色などの撮影環境や、露光時間や焦点深度などの撮影条件によって大きく変化する。
ユーザや部屋を含む広角画像を撮影する場合、一般的にはその撮影環境に合わせてホワイトバランスや露光時間などの撮影条件が自動で調整され、それによって、全体としてバランスのとれた画像を取得する。しかしながらその画像中でマーカーを検出する場合、このように環境に応じて撮影条件を変化させると、マーカーの写り具合、すなわち像の色、大きさ、形状、輝度などが変化し、検出処理に支障をきたすことがあり得る。
例えば発光するマーカーを用いる場合、部屋の明るさに応じて決定した露光時間が長すぎると、マーカーの発光部分のRGB値が飽和してしまい、発光体の色に関わらず真っ白かつ輪郭のぼやけた画像となってしまうことが考えられる。またマーカーが比較的高速で動いていると、その像がぶれてしまうことが考えられる。
そのため、奥行き方向を含むマーカーの位置が正確に取得できなかったり、発光体の色によってユーザを識別するような場合に識別ができなくなったりすることがあり得る。そこで本態様では、一方のカメラは全体画像を標準的な露光時間、絞り値で撮影し、他方のカメラは露光時間、絞り値のいずれかまたは双方を、マーカーに対して最適な値で撮影する。これにより、最終的に表示するための画像として鑑賞に堪えるバランスのとれた画像を確保しつつ、どのような撮影環境であってもマーカー検出を精度よく行うことができる。
図12は本態様において、第1カメラ28および第2カメラ30が撮影する画像とそれを利用して得られる出力画像の例を示している。同図において第1カメラ28が撮影する画像は、先端の球体が発光するマーカー92を把持するユーザを、画像全体に対し最適な露光時間、絞り値で撮影した一般画像90である。この画像では上述のように、マーカー92の発光体は実際の色に関わらず白く写っている可能性もある。なおマーカーの形状は同図に示す物に限らず、色、形状、大きさ、輝度などが既知であり、検出対象となり得るものであればよい。また発光体でなくてもよい。
一方、第2カメラ30が撮影する画像は、マーカー92の発光体に対して最適な露光時間、絞り値で撮影した撮影条件調整画像94である。この画像は例えば、一般画像90と比較し、露光時間が短く、焦点がマーカー92に合っている焦点深度の浅い(絞り値が小さい)画像である。露光時間は電子シャッターのシャッタースピードによって調整する。シャッタースピードを高速とすることにより露光時間が短くなる。
このような調整によって撮影条件調整画像94は、全体的に暗かったり、他の物がぼやけていたりする代わりに、マーカー92の発光体部分については、色、形状、大きさ、輝度が実際に近い画像となる。なお撮影条件調整画像94は、マーカーの部分のみを撮影した狭角画像でもよい。このとき、マーカー検出に求められる精度や情報処理装置の処理能力などに応じて態様(1)や(2)と組み合わせ、マーカー92の位置検出やトラッキングを行ってもよい。
第2画像解析部34は、撮影条件調整画像94を用いてマーカの位置を取得し、ユーザの動きを認識する。そして、動きに応じた加工を一般画像90に施すことによって出力画像98を生成する。図12の例では、ユーザがマーカー92を振り下ろしたことを認識し、それに応じて出力画像中の仮想世界でユーザが持つ刀100の長さが伸びたような表示を行っている。
図13はこの態様における情報処理の処理手順を示すフローチャートである。図13のフローチャートは、ユーザが、撮影および画像データの出力を開始する指示入力を入力情報取得部22に行ったときに開始される。まず図5、図9と同様、ユーザは入力情報取得部22に対し、機能を選択する指示入力を行う(S40)。すると撮影条件制御部24は、第1カメラ28には視野全体に対し最適な露光時間、絞り値で、第2カメラ30にはマーカーの発光体に対し最適な露光時間、絞り値で、撮影を開始させる(S42)。
第1カメラ28の撮影条件は、通常のキャリブレーション手法によってその場の環境に応じて設定してよい。第2カメラ30の撮影条件は、マーカーの色や輝度などマーカーの特性ごとに取得した最適値を撮影条件テーブルに記述しておき、実際のマーカーの特性に基づき選択するようにしてもよい。または処理開始時にキャリブレーションを行って最適条件を求めてもよい。また第2カメラ30の画像を狭角画像とする場合は、図9のS24、S26と同様、マーカーのおよその位置を広角画像によって検出することにより、狭角画像の視野を決定するようにしてもよい。
そして第2画像解析部34は、第2カメラが撮影した撮影条件調整画像に対してマーカー検出処理を行い(S44)、その動きによってユーザの動きを認識する(S46)。動き認識結果と、第1カメラ28が撮影した広角画像のデータは逐次、情報統合部36に供給される。情報統合部36は、動きに応じて用意されたアニメーションや画像加工処理の内容と、加工を施す位置の情報とともに画像データを画像データ生成部38へ送信して画像加工を指示することにより、画像データ生成部38が加工画像を生成して出力する(S48)。
なお態様(2)と同様、動き認識によって行う処理は特に限定されず、ゲームの内容や情報処理の目的に応じて、既存の画像処理技術と様々に組み合わせてよい。また図7で説明したのと同様に、2つのマーカーのそれぞれに対し撮影条件を調整した2つの狭角画像を2台のカメラで撮影するようにしてもよい。これにより2つのマーカーの動きを独立して認識できるため、仮想空間における対戦ゲームなどを表現することができる。
以上述べた本実施の形態によれば、同じ空間を2つのカメラを用いて異なる条件で撮影する。これによりそれぞれに特化した情報を相補完的に取得することができ、組み合わせによって様々な機能を発揮することができる。このとき、解像度やフレームレートが大きい画像は狭角画像とすることにより、データサイズの肥大化を防止し、情報処理装置内部でのデータ転送やネットワークを介した画像データの伝送などに支障がないようにできる。さらに本実施の態様は、ステレオカメラとして一般的に流通している対のカメラをそのまま利用することができるため、コストを増大させることなく機能を充実させることが容易にできる。
実施形態2
実施形態1では同じ構造を有する一対のカメラを用い、撮影条件を異ならせることにより互いが持つ情報を補間して所望の機能を実現させた。本実施の形態では構造の少なくとも一部が異なる1対のカメラを用いる。本実施の形態を適用できる情報処理システムの構成や撮像装置12および情報処理装置14の構成は、実施形態1で説明したのと同様であるが、第1カメラ28と第2カメラ30のハードウェアとしての構成の少なくとも一部が異なっている。ここで異ならせる構成は、センササイズなどそれぞれのカメラにおける定常的な構成でもよいし、焦点距離など調整可能な撮影条件値の可変領域が異なるのでもよい。後者の場合、可変領域の一部が重複していてもよい。以後、このようなカメラの構成の違いを項目別に説明するが、2つ以上の項目を同時に異ならせてもよい。
(1)解像度(センササイズ)の異なる2つのカメラ
例えば第1カメラ28を、標準的またはそれより低い解像度を有するカメラとし、第2カメラ30を、第1カメラ28より高い解像度を有するカメラとする。このようなカメラによって、実施形態1の「(1)画角の大きさと解像度を異ならせる態様」と同様の態様を実現する。ただしカメラの解像度が元から異なるため、必ずしも同時に画角を調整する必要はない。この場合も、例えば図4で示したのと同様に、第1カメラ28で全体的な画像を撮影し、第2カメラ30でターゲットの領域のみを撮影することにより、低解像度画像と高解像度画像を合成した画像を出力することができる。処理手順は図5で示したのと同様である。
上述のとおりこの場合、実施形態1と比較し画角の相対関係についての自由度が増すため、必ずしも低解像度の第1カメラ28を広角、高解像度の第2カメラ30を狭角と限定する必要がなくなる。また元から有する解像度の相対値によっては、合成する画像の解像度に、よりメリハリをつけることができる。図6や図7を参照して説明した態様も同様に実現できる。ただし図7のように、ほぼ同じ領域サイズで同じ解像度の2つの狭角画像60、62を必要とする場合は、例えば低解像度の第1カメラ28で狭角画像60を撮影する一方、第2カメラ28が撮影する広範囲の画像から対応する領域を切り出す、といった処理が必要となる。
(2)フレームレートの異なる2つのカメラ
例えば第1カメラ28を、標準的またはそれより低いフレームレートを有するカメラとし、第2カメラ30を、第1カメラ28より高いフレームレートを有するカメラとする。このようなカメラによって実施形態1の「(2)画角の大きさとフレームレートを異ならせる態様」と同様の態様を実現する。この場合も、必ずしも画角を調整する必要はない。そして例えば図8で示したのと同様に、第1カメラ28で全体的な画像を撮影し、第2カメラ30でターゲットの領域のみを高フレームレートで撮影する。そして第2カメラ30による画像を用いて対象物のトラッキングを精度よく行い、その結果に応じて、第1カメラ28による全体的な画像に加工を加える。処理手順は図9で示したのと同様である。
この場合も、第1カメラ28による全体的な画像においてターゲットを検出し、ターゲットの領域のみを第2カメラ30で高フレームレート撮影することにより、トラッキング処理を効率的に行うことができる。このとき、第2カメラ30によって撮影した画像のうち、ターゲットの領域のみを切り出したうえでトラッキング処理を行ってもよい。また、トラッキングの精度をさらに向上させるため、高フレームレートを有するカメラは、低フレームレートを有するカメラより解像度を低くしてその感度を上げてもよい。このようにフレームレートが異なる2つのカメラを利用することにより、出力画像の取得と同時に、より精度の高いトラッキングを実現できる。
変形例として、低フレームレートカメラによって撮影された画像に顔認識処理を施して顔を検出し、検出された顔からの相対位置によって手や把持されるマーカなどの位置を推定し、それをターゲットとして高フレームレートカメラで撮影するようにしてもよい。顔など大きな動きの少ない対象物は、フレームレートを標準値より低くすることによって鮮明な画像を得やすく、顔認識の精度を上げることができる。そのため全体的な画像を低フレームレートで撮影することにより、精度よく顔、ひいてはターゲットの位置を検出することができる。
(3)シャッタースピードの異なる2つのカメラ
例えば第1カメラ28を、標準的なシャッタースピードを有するカメラとし、第2カメラ30を、第1カメラ28より高速なシャッタースピードを有するカメラとする。このようなカメラによって実施形態1の「(3)露光時間/絞り値を異ならせる態様」と同様の態様を実現する。そして例えば図12で示したのと同様に、第1カメラ28で一般的な画像を撮影し、第2カメラ30で同じ領域を高速シャッターにより露光時間を短くして撮影する。そして第2カメラ30による画像を用いてマーカのトラッキングを精度よく行い、その結果に応じて、第1カメラ28による一般的な画像に加工を加え、出力する。処理手順は図13で示したのと同様である。このようにシャッタースピードが異なる2つのカメラを利用することにより、出力画像の取得と同時に、より精度の高いマーカ検出を実現できる。
(4)焦点距離の異なる2つのカメラ
例えば第1カメラ28を、標準的な焦点距離を有するカメラとし、第2カメラ30を、第1カメラ28より短い焦点距離を有するカメラとする。このようなカメラによって実施形態1の「(3)露光時間/絞り値を異ならせる態様」と同様の態様を実現する。そして例えば図12で示したのと同様に、第1カメラ28で一般的な画像を撮影し、第2カメラ30で同じ領域を短い焦点距離で撮影する。そして第2カメラ30による画像を用いてマーカのトラッキングを精度よく行い、その結果に応じて、第1カメラ28による一般的な画像に加工を加え、出力する。処理手順は図13で示したのと同様である。このように焦点距離が異なる2つのカメラを利用することにより、出力画像の取得と同時に、より精度の高いマーカ検出を実現できる。
(5)カラー(RGB)画像とモノクロ画像をそれぞれ撮影する2つのカメラ
例えば第1カメラ28を、一般的なカラー画像を撮影するカメラとし、第2カメラ30を、モノクロ画像を撮影するカメラとする。モノクロ画像はカラー画像と比較し感度良く撮影ができる。そのため暗い室内など一般的なカラー画像では被写体がぼやけて写りやすい環境においても比較的、輪郭を捉えやすく、トラッキング処理に有利である。そこで例えば図12で示したのと同様に、第1カメラ28でカラー画像を撮影し、第2カメラ30で同じ領域をモノクロ画像撮影する。そしてモノクロ画像を用いてマーカのトラッキングを精度よく行い、その結果に応じて、第1カメラ28によるカラー画像に加工を加え、出力する。この場合の処理手順も図13で示したのと同様である。マーカに限らずモノクロ画像を対象物のトラッキングに用いることにより、図8で示した態様を実現することもできる。また、カラー画像とモノクロ画像を撮影するカメラに代えて、カラー画像を撮影するカメラと赤外線カメラを利用しても同じ態様で同様の効果を奏することができる。
以上述べた本実施の形態では、構造の少なくとも一部が異なる2つのカメラで同じ空間を撮影する。これによりそれぞれに特化した情報を相補完的に取得することができ、組み合わせによって様々な機能を発揮することができる。また構造を元から異ならせておくことにより、各カメラが撮影する画像に大きく差をつけることが可能であり、トラッキングの対象物の性質に応じた合わせ込みが容易である。
以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
例えば実施形態2で説明したような、構造の少なくとも一部が異なる2つのカメラを用いて、さらに従来のステレオカメラと同様の処理を行ってもよい。例えばフレームレートが異なる2つのカメラを用いた場合、低フレームレート画像と同じタイミングのフレームを高フレームレート画像から抽出し、各時刻における2枚の画像に基づき三角測量の原理を用いて対象物の深さ方向の位置、例えばカメラ前にいる人物のうちカメラに最も近い部位の位置を導出する。同時に、高フレームレート画像を用いた腕やマーカなどのトラッキングを実施形態2のとおり実施すれば、人物の2つの部位の絶対位置および相対位置に基づく加工を施した出力画像を生成できる。
同様に、解像度の異なる2つのカメラで撮影した画像のうち高解像度画像の解像度を低解像度画像の解像度に合わせて解像度変換すれば、ステレオカメラと同様の処理を行うことができる。このようにステレオカメラの機能と、構造が異なる2つのカメラによって実現できる上記機能とを同時に実現させることにより、結果として出力できる情報が相乗的に増加する。
また、2つのカメラのうち片方にのみズーム機構、電子パンチルタなど画角を電子的に調整することのできる機構のいずれかまたは組み合わせを設けてもよい。このようにすることで、画角が固定されたカメラで撮影した全体画像を用いてターゲットを検出し、当該ターゲットの領域のみを画角を調整可能なカメラで撮影することができる。結果として図3で示したように、ズームアップして撮影した人物画像と全体画像を合成するなどの態様を実現できる。この機構の差を、実施形態2で述べた他の構成の差と組み合わせてもよい。
10 情報処理システム、 12 撮像装置、 14 情報処理装置、 16 表示装置、 18 ネットワーク、 22 入力情報取得部、 24 撮影条件制御部、 26 撮影条件記憶部、 28 第1カメラ、 30 第2カメラ、 32 第1画像解析部、 34 第2画像解析部、 36 情報統合部、 38 画像データ生成部。
以上のように本発明はコンピュータ、画像処理装置、ゲーム機、撮影装置などの情報処理装置に利用可能である。

Claims (11)

  1. 被写体を撮影し、その画像データを逐次取得して出力画像データを生成する情報処理システムであって、
    第1のカメラおよび第2のカメラからなる一対のカメラであって、前記第2のカメラは、前記第1のカメラの撮影時のフレームレートより小さいフレームレートで撮影する一対のカメラと、
    前記第2のカメラが撮影した画像フレーム中の所定のターゲットの変位と画像取得時のスキャンスピードとから、前記ターゲットの速度の変化を取得することにより、前記ターゲットの動きを認識する画像解析部と、
    前記第1のカメラが撮影して得られた、前記ターゲットを含む画像に、前記画像解析部が認識した前記ターゲットの動きのパターンに対応して設定された加工を施した出力画像データを生成する情報統合部と、
    を備えたことを特徴とする情報処理システム。
  2. 被写体を撮影し、その画像データを逐次取得して出力画像データを生成する情報処理システムであって、
    第1のカメラおよび第2のカメラからなる一対のカメラであって、前記第1のカメラは撮影環境に応じて調整された撮影条件で撮影し、前記第2のカメラは、被写体に含まれるターゲットが装備するマーカーの形態に応じて設定された撮影条件で撮影する一対のカメラと
    前記第2のカメラが撮影した画像に対しマーカー検出処理を行うことにより、前記ターゲットの動きを認識する画像解析部と
    前記第1のカメラが撮影して得られた、前記ターゲットを含む画像に、前記画像解析部が認識した前記ターゲットの動きのパターンに対応して設定された加工を施した出力画像データを生成する情報統合部と、
    を備えたことを特徴とする情報処理システム。
  3. 前記第2のカメラは、前記第1のカメラの撮影時の露光時間より短い露光時間で撮影することを特徴とする請求項に記載の情報処理システム。
  4. 前記第2のカメラは、前記第1のカメラの撮影時の絞り値より小さい絞り値で撮影することを特徴とする請求項2または3に記載の情報処理システム。
  5. 前記画像解析部はさらに、前記第1のカメラが撮影して得られた画像データを解析することにより、マーカーの位置情報を特定し、
    前記第2のカメラは、前記画像解析部が特定したマーカーの位置情報に基づき、前記第1のカメラが撮影した画像より小さい画角で、当該マーカーを含む領域を撮影することを特徴とする請求項2から4のいずれかに記載の情報処理システム。
  6. 被写体を撮影した画像データを逐次取得して、それに応じた出力画像データを出力する情報処理方法であって、
    第1のカメラおよび第2のカメラからなる一対のカメラで撮影を行うステップであって、前記第2のカメラは、前記第1のカメラのフレームレートより小さいフレームレートで撮影を行うステップと、
    前記第2のカメラが撮影した画像フレーム中の所定のターゲットの変位と画像取得時のスキャンスピードとから、前記ターゲットの速度の変化を取得することにより、前記ターゲットの動きを認識するステップと、
    前記第1のカメラが撮影して得られた、前記ターゲットを含む画像に、前記認識するステップで認識した前記ターゲットの動きのパターンに対応して設定された加工を施した出力画像データを生成するステップと、
    前記出力画像データを表示装置に出力するステップと、
    を含むことを特徴とする情報処理方法。
  7. 被写体を撮影した画像データを逐次取得して、それに応じた出力画像データを出力する情報処理方法であって、
    第1のカメラおよび第2のカメラからなる一対のカメラで撮影を行うステップであって、前記第1のカメラは撮影環境に応じて調整された撮影条件で、前記第2のカメラは、被写体に含まれるターゲットが装備するマーカーの形態に応じて設定された撮影条件で、それぞれ撮影を行うステップと、
    前記第2のカメラが撮影した画像に対しマーカー検出処理を行うことにより、前記ターゲットの動きを認識するステップと、
    前記第1のカメラが撮影して得られた、前記ターゲットを含む画像に、前記認識するステップで認識した前記ターゲットの動きのパターンに対応して設定された加工を施した出力画像データを生成するステップと、
    前記出力画像データを表示装置に出力するステップと、
    を含むことを特徴とする情報処理方法。
  8. 被写体を撮影した画像データを逐次取得して、それに応じた出力画像データを出力する機能をコンピュータに実現させるコンピュータプログラムであって、
    接続された第1のカメラおよび第2のカメラからなる一対のカメラに撮影を行わせる機能であって、前記第2のカメラが、前記第1のカメラのフレームレートより小さいフレームレートで撮影を行うように制御する機能と、
    前記第2のカメラが撮影した画像フレーム中の所定のターゲットの変位と画像取得時のスキャンスピードとから、前記ターゲットの速度の変化を取得することにより、前記ターゲットの動きを認識する機能と、
    前記第1のカメラが撮影して得られた、前記ターゲットを含む画像に、前記認識する機能が認識した前記ターゲットの動きのパターンに対応して設定された加工を施した出力画像データを生成する機能と、
    前記出力画像データを表示装置に出力する機能と、
    をコンピュータに実現させることを特徴とするコンピュータプログラム。
  9. 被写体を撮影した画像データを逐次取得して、それに応じた出力画像データを出力する機能をコンピュータに実現させるコンピュータプログラムであって、
    接続された第1のカメラおよび第2のカメラからなる一対のカメラに撮影を行わせる機能であって、前記第1のカメラが撮影環境に応じて調整された撮影条件で、前記第2のカメラが、被写体に含まれるターゲットが装備するマーカーの形態に応じて設定された撮影条件で、それぞれ撮影を行うように制御する機能と、
    前記第2のカメラが撮影した画像に対しマーカー検出処理を行うことにより、前記ターゲットの動きを認識する機能と、
    前記第1のカメラが撮影して得られた、前記ターゲットを含む画像に、前記認識する機能が認識した前記ターゲットの動きのパターンに対応して設定された加工を施した出力画像データを生成する機能と、
    前記出力画像データを表示装置に出力する機能と、
    をコンピュータに実現させることを特徴とするコンピュータプログラム。
  10. 被写体を撮影した画像データを逐次取得して、それに応じた出力画像データを出力する機能をコンピュータに実現させるコンピュータプログラムを記録した記録媒体であって、
    接続された第1のカメラおよび第2のカメラからなる一対のカメラに撮影を行わせる機能であって、前記第2のカメラが、前記第1のカメラのフレームレートより小さいフレームレートで撮影を行うように制御する機能と、
    前記第2のカメラが撮影した画像フレーム中の所定のターゲットの変位と画像取得時のスキャンスピードとから、前記ターゲットの速度の変化を取得することにより、前記ターゲットの動きを認識する機能と、
    前記第1のカメラが撮影して得られた、前記ターゲットを含む画像に、前記認識する機能が認識した前記ターゲットの動きのパターンに対応して設定された加工を施した出力画像データを生成する機能と、
    前記出力画像データを表示装置に出力する機能と、
    をコンピュータに実現させることを特徴とするコンピュータプログラムを記録した記録媒体。
  11. 被写体を撮影した画像データを逐次取得して、それに応じた出力画像データを出力する機能をコンピュータに実現させるコンピュータプログラムを記録した記録媒体であって、
    接続された第1のカメラおよび第2のカメラからなる一対のカメラに撮影を行わせる機能であって、前記第1のカメラが撮影環境に応じて調整された撮影条件で、前記第2のカメラが、被写体に含まれるターゲットが装備するマーカーの形態に応じて設定された撮影条件で、それぞれ撮影を行うように制御する機能と、
    前記第2のカメラが撮影した画像に対しマーカー検出処理を行うことにより、前記ターゲットの動きを認識する機能と、
    前記第1のカメラが撮影して得られた、前記ターゲットを含む画像に、前記認識する機能が認識した前記ターゲットの動きのパターンに対応して設定された加工を施した出力画像データを生成する機能と、
    前記出力画像データを表示装置に出力する機能と、
    をコンピュータに実現させることを特徴とするコンピュータプログラムを記録した記録媒体。
JP2012522362A 2010-07-02 2010-12-07 情報処理システムおよび情報処理方法 Active JP5395956B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012522362A JP5395956B2 (ja) 2010-07-02 2010-12-07 情報処理システムおよび情報処理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010152362 2010-07-02
JP2010152362 2010-07-02
PCT/JP2010/007121 WO2012001755A1 (ja) 2010-07-02 2010-12-07 情報処理システム、情報処理装置および情報処理方法
JP2012522362A JP5395956B2 (ja) 2010-07-02 2010-12-07 情報処理システムおよび情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2012001755A1 JPWO2012001755A1 (ja) 2013-08-22
JP5395956B2 true JP5395956B2 (ja) 2014-01-22

Family

ID=45401513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012522362A Active JP5395956B2 (ja) 2010-07-02 2010-12-07 情報処理システムおよび情報処理方法

Country Status (5)

Country Link
US (1) US9357203B2 (ja)
EP (1) EP2590396B1 (ja)
JP (1) JP5395956B2 (ja)
CN (1) CN102959941B (ja)
WO (1) WO2012001755A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017135675A1 (ko) * 2016-02-04 2017-08-10 삼성전자 주식회사 이미지 처리장치 및 방법

Families Citing this family (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5701785B2 (ja) * 2012-02-03 2015-04-15 株式会社東芝 カメラモジュール
US10150028B2 (en) 2012-06-04 2018-12-11 Sony Interactive Entertainment Inc. Managing controller pairing in a multiplayer game
JP6222898B2 (ja) * 2012-07-03 2017-11-01 キヤノン株式会社 3次元計測装置及びロボット装置
CN102984452B (zh) * 2012-10-29 2015-09-30 东莞宇龙通信科技有限公司 照相终端的自拍方法及照相终端
US9609190B2 (en) 2012-10-31 2017-03-28 Invisage Technologies, Inc. Devices, methods, and systems for expanded-field-of-view image and video capture
JP5843751B2 (ja) * 2012-12-27 2016-01-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US9912929B2 (en) 2013-03-21 2018-03-06 Mediatek Inc. Video frame processing method
JP6139713B2 (ja) * 2013-06-13 2017-05-31 コアフォトニクス リミテッド デュアルアパーチャズームデジタルカメラ
US9936114B2 (en) * 2013-10-25 2018-04-03 Elwha Llc Mobile device for requesting the capture of an image
JP5786101B1 (ja) * 2014-01-31 2015-09-30 オリンパス株式会社 撮像装置
JP6314564B2 (ja) * 2014-03-17 2018-04-25 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
CN103888672A (zh) * 2014-03-31 2014-06-25 宇龙计算机通信科技(深圳)有限公司 一种终端及终端拍摄方法
CN104168418A (zh) * 2014-06-30 2014-11-26 宇龙计算机通信科技(深圳)有限公司 一种图像获取装置、图像获取方法及终端
CN105338338B (zh) * 2014-07-17 2018-01-02 诺基亚技术有限公司 用于成像条件检测的方法和装置
US9521830B2 (en) 2014-08-21 2016-12-20 Identiflight, Llc Bird or bat detection and identification for wind turbine risk mitigation
WO2016029135A1 (en) * 2014-08-21 2016-02-25 Boulder Imaging, Inc. Avian detection systems and methods
US20160182866A1 (en) * 2014-12-19 2016-06-23 Sony Corporation Selective high frame rate video capturing in imaging sensor subarea
US10176558B2 (en) 2014-12-29 2019-01-08 Nokia Technologies Oy Method, apparatus and computer program product for motion deblurring of images
CN106067937A (zh) * 2015-04-23 2016-11-02 聚晶半导体股份有限公司 镜头模块阵列、图像感测装置与数字缩放图像融合方法
JP6525740B2 (ja) * 2015-06-01 2019-06-05 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、画像処理システム及びプログラム
CN106454015B (zh) * 2015-08-04 2019-11-29 宁波舜宇光电信息有限公司 多镜头摄像模组的图像合成方法和提供图像的方法
JP6768416B2 (ja) * 2015-09-08 2020-10-14 キヤノン株式会社 画像処理装置、画像合成装置、画像処理システム、画像処理方法、及びプログラム
US20170126966A1 (en) * 2015-10-29 2017-05-04 Mediatek Inc. Photography method using gaze detection
CN108027655A (zh) * 2016-02-25 2018-05-11 日本电气株式会社 信息处理系统、信息处理设备、控制方法和程序
US10242501B1 (en) * 2016-05-03 2019-03-26 WorldViz, Inc. Multi-user virtual and augmented reality tracking systems
JP2017212654A (ja) * 2016-05-26 2017-11-30 株式会社エクスビジョン Gui装置
WO2018028585A1 (zh) * 2016-08-10 2018-02-15 宁波舜宇光电信息有限公司 具有不同大小光圈的多摄像头模组及其应用
CN107734214A (zh) * 2016-08-10 2018-02-23 宁波舜宇光电信息有限公司 具有不同大小光圈的多摄像头模组及其应用
KR102600504B1 (ko) * 2016-09-07 2023-11-10 삼성전자주식회사 전자 장치 및 그 제어 방법
CN106454011A (zh) * 2016-10-28 2017-02-22 信利光电股份有限公司 应用于移动终端设备的摄像装置及移动终端设备
CN108347557A (zh) * 2017-01-21 2018-07-31 盯盯拍(东莞)视觉设备有限公司 全景图像拍摄装置、显示装置、拍摄方法以及显示方法
CN108347556A (zh) * 2017-01-21 2018-07-31 盯盯拍(东莞)视觉设备有限公司 全景图像拍摄方法、全景图像显示方法、全景图像拍摄装置以及全景图像显示装置
EP3545686B1 (en) * 2017-03-20 2021-09-22 Samsung Electronics Co., Ltd. Methods and apparatus for generating video content
KR20180119281A (ko) * 2017-04-25 2018-11-02 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10438322B2 (en) 2017-05-26 2019-10-08 Microsoft Technology Licensing, Llc Image resolution enhancement
KR102328539B1 (ko) * 2017-07-27 2021-11-18 삼성전자 주식회사 복수의 카메라를 이용하여 영상을 획득하기 위한 전자 장치 및 이를 이용한 영상 처리 방법
JP2019080226A (ja) * 2017-10-26 2019-05-23 キヤノン株式会社 撮像装置、撮像装置の制御方法、及びプログラム
JP6496391B1 (ja) * 2017-12-06 2019-04-03 株式会社スクウェア・エニックス 表示システム及び表示方法
JP7025223B2 (ja) * 2018-01-18 2022-02-24 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体
CN108965742B (zh) * 2018-08-14 2021-01-22 京东方科技集团股份有限公司 异形屏显示方法、装置、电子设备及计算机可读存储介质
CN108989606B (zh) * 2018-08-22 2021-02-09 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN108965732B (zh) * 2018-08-22 2020-04-14 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN108965721B (zh) * 2018-08-22 2020-12-22 Oppo广东移动通信有限公司 摄像头模组的控制方法和装置、电子设备
CN109151303B (zh) * 2018-08-22 2020-12-18 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN109040591B (zh) * 2018-08-22 2020-08-04 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和电子设备
CN109118581B (zh) * 2018-08-22 2023-04-11 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN109190533B (zh) * 2018-08-22 2021-07-09 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN109143242B (zh) 2018-09-07 2020-04-14 百度在线网络技术(北京)有限公司 障碍物绝对速度估计方法、系统、计算机设备和存储介质
CN109215136B (zh) 2018-09-07 2020-03-20 百度在线网络技术(北京)有限公司 一种真实数据增强方法、装置以及终端
CN109255181B (zh) 2018-09-07 2019-12-24 百度在线网络技术(北京)有限公司 一种基于多模型的障碍物分布仿真方法、装置以及终端
CN109059780B (zh) 2018-09-11 2019-10-15 百度在线网络技术(北京)有限公司 检测障碍物高度的方法、装置、设备及存储介质
CN109165629B (zh) * 2018-09-13 2019-08-23 百度在线网络技术(北京)有限公司 多焦距视觉障碍物感知方法、装置、设备及存储介质
WO2020090154A1 (ja) * 2018-10-29 2020-05-07 パナソニックIpマネジメント株式会社 情報提示方法、情報提示装置、及び、情報提示システム
CN109703568B (zh) 2019-02-19 2020-08-18 百度在线网络技术(北京)有限公司 自动驾驶车辆行驶策略实时学习的方法、装置和服务器
AU2019201192A1 (en) 2019-02-20 2020-09-03 Canon Kabushiki Kaisha Method, system and apparatus for capturing an image
CN109712421B (zh) 2019-02-22 2021-06-04 百度在线网络技术(北京)有限公司 自动驾驶车辆的速度规划方法、装置和存储介质
US11196943B2 (en) * 2019-05-31 2021-12-07 Apple Inc. Video analysis and management techniques for media capture and retention
DE102020113972A1 (de) * 2019-05-31 2020-12-03 Apple Inc. Videoanalyse- und -managementtechniquen für medienerfassung und -aufbewahrung
CN113993374A (zh) * 2019-06-21 2022-01-28 松下知识产权经营株式会社 动物信息管理系统和动物信息管理方法
JP7173067B2 (ja) * 2020-02-28 2022-11-16 カシオ計算機株式会社 撮像装置、撮影システム、撮像方法及びプログラム
JP7359074B2 (ja) * 2020-04-15 2023-10-11 トヨタ自動車株式会社 情報処理装置、情報処理方法、及びシステム
JP6965398B1 (ja) * 2020-05-14 2021-11-10 エヌ・ティ・ティ・コミュニケーションズ株式会社 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム
JP6844055B1 (ja) * 2020-05-29 2021-03-17 丸善インテック株式会社 監視カメラ
CN111914672B (zh) * 2020-07-08 2023-08-04 浙江大华技术股份有限公司 图像标注方法和装置及存储介质
WO2022085276A1 (ja) 2020-10-20 2022-04-28 日本電気株式会社 情報処理システム、目状態測定システム、情報処理方法および非一時的なコンピュータ可読媒体
CN112995509B (zh) * 2021-02-24 2022-11-11 深圳市沃特沃德信息有限公司 基于移动终端的摄像头切换方法、装置和计算机设备
CN114531554B (zh) * 2022-04-24 2022-08-16 浙江华眼视觉科技有限公司 一种快件码识别机的视频融合合成方法及装置
CN116405749B (zh) * 2023-03-30 2023-11-28 浙江德施曼科技智能股份有限公司 低功耗持续录像的门锁监控装置、门锁系统及实现方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262159A (ja) * 2001-02-28 2002-09-13 Ricoh Co Ltd 撮像装置
JP2003178274A (ja) * 2001-12-12 2003-06-27 Nippon Signal Co Ltd:The アクセスコントロールに用いる情報記憶媒体の発行装置および発行システム
JP2003234941A (ja) * 2002-02-07 2003-08-22 Fuji Photo Film Co Ltd 撮像装置
JP2004235781A (ja) * 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk デジタルカメラ
JP2005500719A (ja) * 2001-06-05 2005-01-06 レアクトリックス・システムズ・インコーポレイテッド インタラクティブビデオ表示システム
JP2008278430A (ja) * 2007-05-07 2008-11-13 Fujifilm Corp 撮像装置、撮像方法、及びプログラム
JP2010109554A (ja) * 2008-10-29 2010-05-13 Fujifilm Corp 撮像装置及びその制御方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10334270A (ja) * 1997-05-28 1998-12-18 Mitsubishi Electric Corp 動作認識装置及び動作認識プログラムを記録した記録媒体
JP2000172654A (ja) 1998-12-11 2000-06-23 Hitachi Software Eng Co Ltd 分散オブジェクト管理システム
US7015954B1 (en) * 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US8189059B2 (en) * 2003-01-29 2012-05-29 Nikon Corporation Digital camera and digital camera system
US7620202B2 (en) * 2003-06-12 2009-11-17 Honda Motor Co., Ltd. Target orientation estimation using depth sensing
JP3922575B2 (ja) 2003-06-20 2007-05-30 日本電信電話株式会社 SIPセッション制御によるCDNにおけるQoS保証方法とQoS保証システムおよび端末装置とコンテンツ配信サブシステムとSIPセッション制御サブシステムならびにプログラム
IL157331A0 (en) * 2003-08-11 2004-06-20 Odf Optronics Ltd An electro-optic system for combining imaging sensors with selected spatial resolution
US20100013917A1 (en) * 2003-08-12 2010-01-21 Keith Hanna Method and system for performing surveillance
US8062126B2 (en) 2004-01-16 2011-11-22 Sony Computer Entertainment Inc. System and method for interfacing with a computer program
JP4736381B2 (ja) * 2003-11-27 2011-07-27 ソニー株式会社 撮像装置及び方法、監視システム、プログラム並びに記録媒体
JP3934151B2 (ja) * 2005-06-22 2007-06-20 松下電器産業株式会社 画像生成装置および画像生成方法
US7606392B2 (en) * 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
US20070147827A1 (en) * 2005-12-28 2007-06-28 Arnold Sheynman Methods and apparatus for wireless stereo video streaming
JP4274184B2 (ja) 2006-01-30 2009-06-03 沖電気工業株式会社 通信システム、および通信方法
US7641565B2 (en) * 2006-06-12 2010-01-05 Wintriss Engineering Corporation Method and apparatus for detecting the placement of a golf ball for a launch monitor
JP4214160B2 (ja) * 2006-08-31 2009-01-28 フジノン株式会社 監視カメラシステム
US8320613B2 (en) * 2008-06-04 2012-11-27 Lockheed Martin Corporation Detecting and tracking targets in images based on estimated target geometry
CN101673346B (zh) * 2008-09-09 2013-06-05 日电(中国)有限公司 对图像进行处理的方法、设备和系统
CN101720027B (zh) * 2009-11-27 2011-06-01 西安电子科技大学 可变焦阵列摄像机协同获取不同分辨率多目标视频方法
US20110145581A1 (en) 2009-12-14 2011-06-16 Verizon Patent And Licensing, Inc. Media playback across devices
JP2012019413A (ja) 2010-07-08 2012-01-26 Toshiba Corp 表示システム、端末装置、表示装置、及びプログラム
JP5670387B2 (ja) 2012-06-26 2015-02-18 株式会社ソニー・コンピュータエンタテインメント 発光色決定装置および発光色決定方法
JP5624643B2 (ja) 2013-04-15 2014-11-12 株式会社東芝 電子機器、電子機器の制御方法、電子機器の制御プログラム、電子機器の通信システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262159A (ja) * 2001-02-28 2002-09-13 Ricoh Co Ltd 撮像装置
JP2005500719A (ja) * 2001-06-05 2005-01-06 レアクトリックス・システムズ・インコーポレイテッド インタラクティブビデオ表示システム
JP2003178274A (ja) * 2001-12-12 2003-06-27 Nippon Signal Co Ltd:The アクセスコントロールに用いる情報記憶媒体の発行装置および発行システム
JP2003234941A (ja) * 2002-02-07 2003-08-22 Fuji Photo Film Co Ltd 撮像装置
JP2004235781A (ja) * 2003-01-29 2004-08-19 Nikon Gijutsu Kobo:Kk デジタルカメラ
JP2008278430A (ja) * 2007-05-07 2008-11-13 Fujifilm Corp 撮像装置、撮像方法、及びプログラム
JP2010109554A (ja) * 2008-10-29 2010-05-13 Fujifilm Corp 撮像装置及びその制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017135675A1 (ko) * 2016-02-04 2017-08-10 삼성전자 주식회사 이미지 처리장치 및 방법
US11195304B2 (en) 2016-02-04 2021-12-07 Samsung Electronics Co., Ltd. Image processing apparatus and method

Also Published As

Publication number Publication date
US20130100255A1 (en) 2013-04-25
CN102959941A (zh) 2013-03-06
EP2590396A1 (en) 2013-05-08
CN102959941B (zh) 2015-11-25
EP2590396B1 (en) 2018-08-08
JPWO2012001755A1 (ja) 2013-08-22
EP2590396A4 (en) 2015-05-27
WO2012001755A1 (ja) 2012-01-05
US9357203B2 (en) 2016-05-31

Similar Documents

Publication Publication Date Title
JP5395956B2 (ja) 情報処理システムおよび情報処理方法
WO2014103094A1 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP2014238731A (ja) 画像処理装置、画像処理システム、および画像処理方法
US8711230B2 (en) Image capture apparatus and program
WO2017033853A1 (ja) 情報処理装置および情報処理方法
JP5174908B2 (ja) 携帯型ゲーム装置及び携帯型ゲーム装置の制御方法
US9787943B2 (en) Natural user interface having video conference controls
US8514285B2 (en) Image processing apparatus, image processing method and program
WO2019205284A1 (zh) Ar成像方法和装置
WO2014064870A1 (ja) 画像処理装置および画像処理方法
CN109218606B (zh) 摄像控制设备、其控制方法及计算机可读介质
US20180139383A1 (en) Image pickup apparatus, information processing apparatus, display apparatus, information processing system, image data sending method, image displaying method, and computer program
WO2019205283A1 (zh) 基于红外的ar成像方法、系统及电子设备
JP5874626B2 (ja) 表示制御装置、表示制御システム、表示制御方法及びプログラム
US20230069407A1 (en) Remote operation apparatus and computer-readable medium
EP3805899A1 (en) Head mounted display system and scene scanning method thereof
US20200342833A1 (en) Head mounted display system and scene scanning method thereof
JP6544719B2 (ja) 動画像生成システム、動画像生成装置、動画像生成方法、及びコンピュータプログラム
US20230379594A1 (en) Image blending
JP2023067530A (ja) 撮像装置及びその制御方法並びにプログラム
JP2022140423A (ja) 撮像装置及びその制御方法並びにプログラム
JP2023055074A (ja) 撮像装置及びその制御方法並びにプログラム
JP2022140422A (ja) 撮像装置、制御方法、並びにプログラム
TW202114396A (zh) 攝像裝置、攝像控制方法及攝像控制程式
CN117093124A (zh) 一种调整ar显示界面的方法、装置、设备及介质

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131018

R150 Certificate of patent or registration of utility model

Ref document number: 5395956

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250