JP7059934B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7059934B2
JP7059934B2 JP2018546163A JP2018546163A JP7059934B2 JP 7059934 B2 JP7059934 B2 JP 7059934B2 JP 2018546163 A JP2018546163 A JP 2018546163A JP 2018546163 A JP2018546163 A JP 2018546163A JP 7059934 B2 JP7059934 B2 JP 7059934B2
Authority
JP
Japan
Prior art keywords
camera
zoom control
zoom
information processing
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018546163A
Other languages
English (en)
Other versions
JPWO2018074045A1 (ja
Inventor
亮平 安田
卓郎 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018074045A1 publication Critical patent/JPWO2018074045A1/ja
Application granted granted Critical
Publication of JP7059934B2 publication Critical patent/JP7059934B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/08Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted to co-operate with a remote control mechanism
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/02Viewfinders
    • G03B13/10Viewfinders adjusting viewfinders field
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2206/00Systems for exchange of information between different pieces of apparatus, e.g. for exchanging trimming information, for photo finishing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Lens Barrels (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は、情報処理装置、情報処理方法、及びプログラムに関する。
3次元空間に存在するオブジェクトを観察する際、拡大等のズーム制御を行うことで、ユーザが注目している対象(注目対象)をより見やすくすることが行われている(例えば特許文献1)。また、視点の位置や回転角度等を変更するズーム制御以外の視点に関する制御(以下、非ズーム制御と呼ぶ場合がある)が、ズーム制御とあわせて行われる場合もある。
特開2016-115965号公報
しかし、ズーム制御と非ズーム制御があわせて行われる場合、例えばユーザの注目対象が視野内から外れてユーザが注目対象を見失ってしまう等、注目対象を視認し難くなってしまう恐れがあった。
そこで、本開示では、カメラのズーム制御と非ズーム制御が行われ場合に、注目対象の視認性低下を抑制することが可能な、新規かつ改良された情報処理装置、情報処理方法、及びプログラムを提案する。
本開示によれば、ユーザの注目対象に関する注目情報を取得する取得部と、前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御を行うズーム制御部と、を備える情報処理装置が提供される。
また、本開示によれば、ユーザの注目対象に関する注目情報を取得することと、前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御をプロセッサが行うことと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータに、ユーザの注目対象に関する注目情報を取得する機能と、前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御を行う機能と、を実現させるための、プログラムが提供される。
以上説明したように本開示によれば、カメラのズーム制御と非ズーム制御が行われ場合に、注目対象の視認性低下を抑制することが可能である。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
非ズーム制御とズーム制御が略同時に行われる例を示す説明図である。 注目対象がカメラの視野内に位置するような、カメラのズーム速度の条件について説明するための説明図である。 注目対象がカメラの視野内に位置するような、カメラのズーム速度の条件について説明するための説明図である。 注目対象がカメラの視野内に位置するような、カメラのズーム速度の条件について説明するための説明図である。 本開示の第1の実施形態に係る情報処理装置の機能構成例を示す図である。 同実施形態に係る情報処理装置10Aの第1の例を示す図である。 同実施形態に係る情報処理装置10Aの第1の例において仮想空間に存在する仮想オブジェクトの例を示す図である。 同実施形態に係る情報処理装置10Aの動作例を示すフローチャート図である。 同実施形態に係る情報処理装置10Aの第2の例を示す図である。 同実施形態に係る情報処理装置10Aの第2の例において仮想空間に存在する仮想オブジェクトの例を示す図である。 同実施形態に係る情報処理装置10Aの第3の例を示す図である。 同実施形態に係る情報処理装置10Aの第3の例において仮想空間に存在する仮想オブジェクトの例を示す図である。 同実施形態に係る情報処理装置10Aの第4の例を示す図である。 本開示の第2の実施形態に係る情報処理装置の機能構成例を示す図である。 同実施形態に係る情報処理装置10Bの第1の例を示す図である。 同実施形態に係る情報処理装置10Bの第1の例において実空間に存在する実オブジェクトの例を示す図である。 同実施形態に係る情報処理装置10Bの第2の例を示す図である。 同実施形態に係る情報処理装置10Bの第2の例において実空間に存在する実オブジェクトの例を示す図である。 同実施形態に係る情報処理装置10Bの第3の例を示す図である。 同実施形態に係る情報処理装置10Bの第3の例において実空間に存在する実オブジェクトの例を示す図である。 同実施形態に係る情報処理装置10Bの第4の例を示す図である。 同実施形態に係る出力制御部111が表示させるガイドの例を説明する説明図である。 同実施形態に係る出力制御部111が表示させるガイドの他の例を説明する説明図である。 同実施形態に係る情報処理装置10Bの第5の例を示す図である。 同実施形態に係る情報処理装置10Bの第5の例において実空間に存在する実オブジェクトの例を示す図である。 同実施形態に係る情報処理装置10Bの第6の例を示す図である。 同実施形態に係る情報処理装置10Bの第6の例において実空間に存在する実オブジェクトの例を示す図である。 同実施形態に係る情報処理装置10Bの第7の例を示す図である。 ハードウェア構成例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
なお、説明は以下の順序で行うものとする。
<<1.第1の実施形態>>
<1-1.概要>
<1-2.構成>
<1-3.動作>
<1-4.応用例>
<<2.第2の実施形態>>
<2-1.構成>
<2-2.応用例>
<<3.ハードウェア構成例>>
<<4.むすび>>
<<1.第1の実施形態>>
まず、本開示の第1の実施形態について説明する前に、本開示に係る実施形態の前提構成について説明する。本開示の実施形態においては、カメラのズーム制御と、ユーザの注目対象(注目位置、注目領域、注目オブジェクト等)をカメラの視野内の所望の位置(例えば視野中心)に移動させるためのズーム制御以外のカメラに係る制御(非ズーム制御)が略同時に行われる。このような制御を行うことで、例えば、ユーザの注目対象がユーザにとってより見やすくなるように画像の取得(撮像)、または表示を行うことが可能である。
なお、本開示の実施形態において、カメラは仮想空間に存在する仮想的なカメラであってもよいし、実空間に存在するカメラであってもよい。また、本開示の実施形態において、カメラの視野とは、仮想空間、または実空間において、カメラが撮像する範囲を意味する。
また、本開示の実施形態において、ズーム制御は、カメラに係る焦点距離の変更、またはカメラと注目対象の相対距離の変更を含んでもよい。
例えば、カメラが仮想的なカメラである場合、カメラの焦点距離に係るパラメータを変更して画像を取得(撮像)することで、カメラに係る焦点距離の変更が行われてもよい。また、カメラが仮想的なカメラである場合、カメラの位置、または注目対象に係るオブジェクト(仮想空間に配置された仮想オブジェクト)の位置を変更することで、カメラと注目対象の相対距離の変更が行われてもよい。
また、カメラが実空間に存在するカメラである場合、カメラのレンズ駆動が制御されることで、カメラの焦点距離の変更が行われてもよいし、カメラの位置が制御されることで、カメラと注目対象の相対距離の変更が行われてもよいし。
また、本開示の実施形態において、非ズーム制御は、カメラの光軸に対して垂直方向へのカメラの並進移動制御、またはカメラの回転制御を含んでもよい。なお、カメラが仮想空間に存在する仮想的なカメラである場合、非ズーム制御は、非ズーム制御は、カメラと、注目対象に係るオブジェクト(仮想空間に配置された仮想オブジェクト)との相対位置制御を含んでもよい。
また、本開示の実施形態においては、ユーザの注目対象に係る注目情報が得られた場合に、非ズーム制御が行われて、注目対象がカメラの視野内の所望の位置に移動する。なお、以下ではカメラの視野内の所望の位置がカメラの視野中心である例について説明する。
また、本開示の実施形態においては、カメラのズーム制御として、例えば拡大方向のズーム制御(ズームイン制御)が行われる。上記の非ズーム制御とズーム制御があわせて(略同時に)行われることで、注目対象が中心に位置し、かつ拡大された画像が取得され得る。
図1は、非ズーム制御とズーム制御が略同時に行われる例を示す説明図である。図1では、回転制御、または並進移動制御等の非ズーム制御が可能なカメラによってオブジェクト60-1が撮像される場合を想定する。図1に示すカメラの視野53-1には、オブジェクト60-1の全体が含まれている。
ここで、カメラにより撮像される画像を観測しているユーザが、オブジェクト60-1において、ユーザの注目領域61(注目対象の一例)をさらに詳細に観測したいと考えた場合を想定する。係る場合、例えば、注目領域61の重心62-1が視野中心に移動するように非ズーム制御を行うとともに、拡大方向のズーム制御を行うことによって、カメラの視野は視野53-3のようになり、ユーザはより詳細に注目領域61を観測可能である。
ここで、図1に示すように、カメラの非ズーム制御、及びズーム制御により視野が視野53-1から視野53-3に遷移する途中の視野53-2において、注目領域61がカメラの視野内に位置しなくなる(視野外へ移動する)恐れがある。例えば、非ズーム制御に比べて、ズーム制御が高速に行われる場合、注目領域61がカメラの視野外へ移動しやすい。例えば、カメラが実空間に存在するカメラである場合には、ズームに係るレンズの駆動制御の方が、カメラの移動、回転等よりも高速に行われることが多い。また、3D酔いの抑制等の目的で、仮想的なカメラの移動速度が制限されている場合、仮想的なカメラにおいてもズーム制御の方が非ズーム制御よりも高速に行われることがある。
ユーザの注目領域が、視野外へ移動する、または視野中心から離隔してしまうと、ユーザは注目領域を見失いやすくなり、ユーザにとって、注目領域の視認性が低下する。そこで、本件開示者は、上記事情を一着眼点にして本開示の実施形態を創作するに至った。本開示の実施形態によれば、非ズーム制御と、注目対象に関する注目情報に基づいて、ズーム速度を制限したズーム制御を行うことで、注目対象の視認性低下を抑制することが可能である。以下、このような効果を有する本開示に係る第1の実施形態の概要について図2~図4を参照して説明を行う。
<1-1.概要>
本開示に係る第1の実施形態では、ズーム制御、及び非ズーム制御が行われている間に、注目対象の視認性低下が抑制されるように、ズーム制御が行われる。例えば、注目対象がカメラの視野内に常に位置するように、カメラのズーム速度を制限したズーム制御を行うことで、ユーザは注目対象を見失いにくくなり、注目対象の視認性低下が抑制され得る。以下では、ズーム制御と非ズーム制御が略同時に行われる場合に、注目対象がカメラの視野内に位置するような、カメラのズーム速度の条件について、図2~図4を参照して説明を行う。
図2~図4は、注目対象がカメラの視野内に位置するような、カメラのズーム速度の条件について説明するための説明図である。
図2はズーム制御の時刻T=0(例えばズーム制御の開始時刻)時点のカメラと、ユーザの注目対象の位置関係を示している。図2において、点Pは時刻T=0時点のカメラ位置(視点位置)を、点Rは視野中心に移動される注目点(注目対象の一例)の位置を示している。また、点Qは、点Rから、時刻T=0時点のカメラの光軸Aに垂直におろした線と、光軸Aの交点を示している。また、点Sは点Q、及び点Rを通る直線と時刻T=0時点のカメラ画角範囲の交点を示している。
また、図2において、角度θは時刻T=0時点のカメラの画角を、角度θは時刻T=0時点のカメラの光軸Aと点P、及び点Rを結ぶ直線のなす角を示している。また、図2に示すように、点Pと点Qまでのカメラの光軸方向(奥行き方向)の距離をd、時刻T=0時点のカメラの光軸Aから点Qまでの高さをhとする。
また、図2には、ズーム速度制御に係るパラメータとして、カメラの光軸方向(z軸方向)のカメラ並進移動速度v、及び画角変更速度ωが示されている。また、図2には、非ズーム制御に係るパラメータとして、カメラ回転速度ω、及び光軸と垂直方向のカメラ並進移動速度vが示されている。なお、カメラ並進移動速度は、カメラと注目対象との相対的な移動速度(相対距離の変更速度)であってもよい。
図3は、時刻T=t時点のカメラと、ユーザの注目対象の位置関係を示している。図3において、点P’、点Q’、及び点R’は、それぞれ時刻T=t時点における点P、点Q、及び点Rに対応する点である。なお、時刻T=0から時刻T=tまでの期間、上記のズーム制御、及び非ズーム制御にかかるパラメータは変更されないものとする。
ここで、図2、図3より、ズーム制御、及び非ズーム制御が行われている期間に、注視点Rがカメラ画角範囲(視野)内に存在するためには、画角変更速度ω、またはカメラ並進移動速度vが所定の条件を満たす必要がある。より具体的には、図3において、∠S’P’Q‘≧∠RP’Q’の関係が満たされればよい。したがって、図3に示す角度θS’、角度θr’の、及び角度ωtを用いて、以下の式(1)が得られる。
Figure 0007059934000001
また、角度θS’、及び角度θr’はそれぞれ以下の式(2)、式(3)で表すことが可能である。
Figure 0007059934000002
式(1)~(3)より、画角変更速度ωについて整理すると、以下の条件を示す式(4)が得られる。
Figure 0007059934000003
したがって、画角変更速度ωが式(4)を満たすようなズーム速度でズーム制御を行うことで、注目点Rが時刻T=0から時刻T=tの期間、カメラの視野内に存在するようにズーム制御を行うことが可能である。
なお、式(4)は、ズーム制御がカメラの焦点距離の変更(カメラ画角の変更)と、カメラと注目対象の相対距離の変更(カメラの光軸方向への並進移動)の両方を含む場合の条件である。ズーム制御が、カメラと注目対象の相対距離の変更を含まない場合、カメラの光軸方向のカメラ並進移動速度v=0とおけるため、式(4)は以下の条件を示す式(5)のように変形できる。
Figure 0007059934000004
また、式(4)は、非ズーム制御が、カメラの並進移動制御、及び回転制御の両方を含む場合の条件である。なお、非ズーム制御は、カメラの並進移動制御及び回転制御のうち、少なくとも一方を含めばよい。ここで、非ズーム制御が、カメラの並進移動制御のみを含む場合、カメラ回転速度ω=0とおけるため、式(4)は以下の条件を示す式(6)のように変形できる。
Figure 0007059934000005
一方、非ズーム制御、及びズーム制御が、カメラの回転制御のみを含む場合、カメラ並進移動速度v=0、v=0とおけるため、式(4)は以下の条件を示す式(7)のように変形できる。
Figure 0007059934000006
また、ズーム制御がカメラの光軸方向へのカメラの並進移動制御を含む場合、カメラの光軸方向へのカメラ並進移動速度vについての条件を満たすようにズーム制御が行われる。ズーム制御、及び非ズーム制御が行われている期間に、注視点Rがカメラ画角範囲(視野)内に存在するためには、図3においてQR≦QS’の関係が満たされればよいため、以下の式(8)が得られる。
Figure 0007059934000007
式(8)をカメラの光軸方向へのカメラ並進移動速度vについて整理すると、以下の条件を示す式(9)が得られる。
Figure 0007059934000008
したがって、カメラの光軸方向へのカメラ並進移動速度vが式(9)を満たすようなズーム速度でズーム制御を行うことで、注目点Rが時刻T=0から時刻T=tの期間カメラの視野内に存在するようにズーム制御を行うことが可能である。
なお、カメラ画角が固定の場合(ズーム制御が焦点距離の変更制御を含まない場合)、画角変更速度ω=0とおけるため、式(9)は、以下の条件を示す式(10)のように変形可能である。
Figure 0007059934000009
また、本実施形態において、注目点Rが視野中心を通り過ぎないようにズーム制御が行われてもよい。図4は、時刻T=tにおいて、注目点Rが視野中心を通り過ぎないようにズーム制御が行われる場合の例を説明するための説明図である。図4に示す点S’’は、カメラの光軸に対して、S’と対象の画角範囲と点Q、及び点Rを通る直線との交点である。
注視点Rが、カメラの視野中心を通り過ぎないようにするためには、図4において、∠RP’Q‘≧0の関係が満たされればよいため、以下の式(11)の関係が得られる。
Figure 0007059934000010
式(11)をωについて整理すると、式(11)は条件を示す以下の式(12)のように変形される。
Figure 0007059934000011
注視点Rが、カメラの視野中心を通り過ぎないようにするためには式(12)が満たされるように、ズーム制御が行われればよい。
なお、注視点Rが視野中心を通り過ぎてもよく、かつ視野内に存在するためには、図4において、∠Q’P’R≦∠Q’P’S’’が満たされればよいため、以下の式(13)の関係が得られる。
Figure 0007059934000012
式(13)をωについて整理すると、式(13)は条件を示す以下の式(14)のように変形される。
Figure 0007059934000013
なお、tは微小な期間であってもよく、例えば制御パラメータの更新間隔であってもよい。つまり、期間tごとに、上述したような条件を満たすようにズーム制御が行われてもよい。例えば、式(4)の条件を満たすように制御パラメータを更新しながらズーム制御が行われることで、注目点Rが常に、カメラの視野内に存在するようにズーム制御を行うことが可能である。
また、光軸と垂直方向のカメラ並進移動速度vは、2方向(例えば互いに垂直なx軸方向とy軸方向)のうち、いずれか1方向の速度成分であってもよい。カメラ並進移動速度vが、1方向の速度成分である場合、カメラ並進移動速度vと垂直かつ、光軸と垂直な方向の速度成分についても、上記で説明した条件と同様の条件が得られ、いずれの条件も満たすようにズーム制御が行われてよい。
また、注目対象が注目領域である場合には、例えば、注目領域内の全ての点について、上記の条件が満たされればよい。また、注目対象が注目オブジェクトである場合には、カメラの視野において注目オブジェクトに対応する領域内の全ての点について、上記の条件が満たされればよい。
以上、本開示に係る第1の実施形態の概要を説明した。続いて、以下では、上記で説明したズーム制御を実現するための本開示に係る第1の実施形態の構成例について説明する。なお、本開示の第1の実施形態においては、あらかじめ用意され、仮想空間に存在する仮想オブジェクトを、仮想的なカメラが撮像する例を主に説明する。
<1-2.構成>
(全体的な構成)
図5は、本開示の第1の実施形態に係る情報処理装置の機能構成例を示す図である。図5に示したように、本実施形態に係る情報処理装置10Aは、制御部110、注目情報検出部120、操作検出部130、記憶部150Aおよび出力部160を有している。
なお、本明細書においては、制御部110、注目情報検出部120、操作検出部130、記憶部150Aおよび出力部160が、同一のデバイス(情報処理装置10A)の内部に存在する例を主に説明する。しかし、これらのブロックが存在する位置は特に限定されない。例えば、出力部160は、情報処理装置10Aとは別途設けられた装置であってもよい。また、後に説明するように、これらのブロックの一部は、サーバなどに存在していてもよい。
制御部110は、情報処理装置10Aの各部の制御を実行する。図5に示したように、制御部110は、出力制御部111、取得部112、決定部113、回転制御部114、移動制御部115、及びズーム制御部116を備える。これらの各機能ブロックについての詳細は、後に説明する。なお、制御部110は、例えば、CPU(Central Processing Unit;中央演算処理装置)などで構成されていてよい。制御部110がCPUなどといった処理装置によって構成される場合、かかる処理装置は、電子回路によって構成されてよい。
注目情報検出部120は、3次元空間におけるユーザの注目対象に関する注目情報(以下、単に「注目情報」とも言う。)を検出することが可能である。本明細書においては、注目情報としてユーザの視線を用いる場合を主に説明する。ここで、ユーザの視線は、どのようにして検出されてもよい。一例として、ユーザの視線は、注目情報検出部120が撮像装置を有する場合、撮像装置によって得られた画像に写る目領域に基づいて検出されてよい。しかし、注目情報は、ユーザの視線に限定されない。
例えば、注目情報は、ユーザの動きを検出するモーションセンサによる検出結果に基づいて検出されてもよい(モーションセンサによって検出された3次元空間における位置を先とする注目情報が検出されてもよい)。モーションセンサは、加速度センサによって加速度を検出してもよいし、ジャイロセンサ(例えば、指輪型ジャイロマウスなど)によって角速度を検出してもよい。あるいは、注目情報は、触感型デバイスによる検出結果に基づいて検出されてもよい。触感型デバイスの例としては、ペン型の触感デバイスが挙げられる。
あるいは、注目情報は、所定の物体が指し示す方向(例えば、棒の先端が指し示す方向など)であってもよいし、ユーザの指が指し示す方向であってもよい。所定の物体が指し示す方向およびユーザの指が指し示す方向は、注目情報検出部120が撮像装置を有する場合、撮像装置によって得られた画像に写る物体および指に基づいて検出されてよい。あるいは、注目情報は、ユーザの顔認識結果に基づいて検出されてもよい。例えば、注目情報検出部120が撮像装置を有する場合、撮像装置によって得られた画像に基づいて両目間の中心位置が認識され、両目間の中心位置から伸びる直線が注目情報として検出されてもよい。
あるいは、注目情報は、マーカの認識結果に基づいて検出されてもよい。例えば、3次元空間に2次元マーカが配置され、注目情報検出部120が可視光カメラを有する場合、可視光カメラによる撮像によって得られた画像に写る2次元マーカの位置に基づいて、注目情報が検出されてもよい。また、3次元空間に赤外線反射マーカが配置され、注目情報検出部120が赤外線カメラを有する場合、赤外線反射マーカにおける赤外線の反射光を赤外線カメラによって撮像し、撮像によって得られた画像に写る赤外線反射マーカの位置に基づいて、注目情報が検出されてもよい。
あるいは、注目情報は、音声認識結果に基づいて検出されてもよい。例えば、複数のオブジェクトがカメラの視野内に存在する場合に、ユーザは複数のオブジェクトのうち一のオブジェクトを表現する発話を行えばよい。そうすれば、かかる発話に対する音声認識結果として、テキストデータが得られ、このテキストデータに基づいて、当該一のオブジェクトを注目対象とする注目情報が検出され得る。
あるいは、複数の手法によって同時に注目情報を検出可能である場合、複数の手法のいずれかが利用対象として選択されてもよい。例えば、複数の手法の中で最も注目情報の検出精度が高い手法(例えば、マーカの認識結果に基づく検出手法など)が利用対象として選択されてもよい。このとき、検出精度はあらかじめ決められていてもよいし、その時々で計算されてもよい。あるいは、複数の手法の中で最も方向指示が最も直感的な手法(例えば、視線の検出手法など)が利用対象として選択されてもよい。
操作検出部130は、ユーザによって入力される操作を検出することが可能である。例えば、本明細書においては、ユーザによって入力される操作の例として、非ズーム制御、及びズーム制御の開始操作(制御開始操作)があげられる。ここで、制御開始操作は、どのようにして検出されてもよい。例えば、制御開始操作は、スイッチ、レバーおよびボタンなどに対する操作であってもよいし、ユーザの発話等に基づいて検出されてよい。
あるいは、制御開始操作は、ユーザの身体の位置(例えば、頭部の位置など)および姿勢(例えば、全身の姿勢など)などに基づいて検出されてもよい。また、オブジェクトの回転操作および移動操作は、筋電(例えば、顎の筋電、腕の筋電など)によって検出されてもよいし、脳波によって検出されてもよい。
記憶部150Aは、制御部110によって実行されるプログラムを記憶したり、プログラムの実行に必要なデータを記憶したりする記録媒体である。また、記憶部150Aは、制御部110による演算のためにデータを一時的に記憶する。記憶部150Aは、磁気記憶部デバイスであってもよいし、半導体記憶デバイスであってもよいし、光記憶デバイスであってもよいし、光磁気記憶デバイスであってもよい。特に、本開示の第1の実施形態において、記憶部150Aは、仮想オブジェクトの一例である3次元モデルに関する情報(例えば、3次元モデルの形状、大きさ、位置、向きなどの情報)を、3Dモデル情報151として記憶している。
出力部160は、各種の情報を出力する。例えば、出力部160は、ユーザに視認可能な表示を行うことが可能なディスプレイを含んでよく、ディスプレイは、プロジェクタであってもよいし、液晶ディスプレイであってもよいし、有機EL(Electro-Luminescence)ディスプレイであってもよい。また、出力部160は、音声出力装置を含んでもよい。あるいは、出力部160は、ユーザに触覚を提示する触覚提示装置を含んでもよい。なお、後述する出力制御部111は、出力部160を直接的に制御する第1出力制御部と、出力部160によって表示された表示を直接的または間接的に制御する第2出力制御部を別個に有しても良い。
(機能詳細)
以上、本開示の第1の実施形態に係る情報処理装置10Aの全体的な機能構成例について説明した。続いて、本開示の第1の実施形態に係る情報処理装置10Aの機能詳細について説明する。図6は、本開示の第1の実施形態に係る情報処理装置10Aの第1の例を示す図である。図7は、本開示の第1の実施形態に係る情報処理装置10Aの第1の例において仮想空間に存在する仮想オブジェクトの例を示す図である。図6に示すように、情報処理装置10Aは、ユーザUの頭部に装着され、注目情報検出部120および出力部160を有している。
図6に示すように、第1の例においては、情報処理装置10AがAR(Augmented Reality)用のHMD(Head Mounted Display)である場合を主に想定する。しかし、情報処理装置10Aは、AR用のHMDに限定されない。例えば、情報処理装置10Aは、VR(Virtual Reality)用のHMDであってもよいし、テレビジョン装置であってもよいし、PC(Personal Computer)であってもよいし、スマートフォンであってもよいし、他の電子機器であってもよい。
図7を参照すると、仮想空間20-1に仮想オブジェクト40-1が存在し、仮想空間20-1内に視点カメラ51が仮想的に存在している。そして、視点カメラ51によって仮想オブジェクト40-1が撮像されて得られる画像が、出力制御部111による制御に従って出力部160によって表示されることによって、ユーザUに視野53-5が提供される。図6に示した例では、視野53-1に写る仮想オブジェクト60-2の例として、脳の3Dモデルが示されている。
ここで、視野53-5を観測したユーザUが、ユーザUの注目領域61をさらに詳細に観測したいと考えた場合を想定する。係る場合、例えば、注目領域61の重心62-2が視野中心に移動するように非ズーム制御を行うとともに、拡大方向のズーム制御を行うことによって、ユーザはより詳細に注目領域61を観測可能である。
上記では、図1を参照してズーム制御により注目対象62-2の視認性が低下する例を説明した。一方、本開示の第1の実施形態においては、注目情報検出部120が、実空間におけるユーザUの視線を検出し、実空間におけるユーザUの視線に対応する仮想空間20-1におけるユーザUの視線52をユーザUによる注目情報の例として検出する。そして、取得部112が、仮想空間20-1におけるユーザUの視線52を、ユーザの注目対象に関する注目情報として取得するとともに、3Dモデル情報151から仮想空間20-1における仮想オブジェクト40-1の位置を取得する。
このとき、決定部113は、仮想空間20-1における仮想オブジェクト40-1の位置と仮想空間20-1におけるユーザUの視線とに基づいて、注目対象、及び視野中心(視野内の所望の位置の一例)に移動させる点(以下移動基準点と呼ぶ)を決定する。例えば、決定部113は、仮想空間20-1におけるユーザUの視線52と仮想オブジェクト40-1の表面との交点を注目対象(注目点)としてもよいし、当該交点の近傍の領域を注目対象(注目領域)としてもよい。また、図7には、仮想空間20-1におけるユーザUの視線52が示されており、決定部113が、仮想空間20-1におけるユーザUの視線52と仮想オブジェクト40-1の表面との交点を移動基準点42-2として決定する例が示されている。視野53-1には、仮想空間20-1における移動基準点42-2に対応する点として、移動基準点62-2が写っている。なお、決定部113による移動基準点42-2の決定は係る例に限定されず、例えば決定部113は、注目領域の重心位置を移動基準点42-2として決定してもよい。
回転制御部114、及び移動制御部115は、注目情報に基づいて、視点カメラ51の非ズーム制御を行う。本明細書においては、回転制御部114、及び移動制御部115は、移動基準点42-2が視野中心に移動するように、非ズーム制御を行う。回転制御部114は、視点カメラ51を回転させる制御を行い、移動制御部115は、視点カメラ51を視点カメラ51の光軸と垂直方向に並進移動させる制御を行う。なお、移動制御部115は、仮想オブジェクト40-1を視点カメラ51の光軸と垂直方向に並進移動させることで、仮想オブジェクト40-1と視点カメラ51の相対距離を変更させる非ズーム制御を行ってもよい。
例えば、回転制御部114による視点カメラ51を回転させる制御は、図2~図4を参照して説明したカメラ回転速度ωによる制御であってもよい。また、移動制御部115による視点カメラ51を並進移動させる制御は、図2~図4を参照して説明したカメラ並進移動速度vによる制御であってもよい。
ズーム制御部116は、回転制御部114、及び移動制御部115による非ズーム制御が行われるとき、非ズーム制御、及び注目情報に基づいて、カメラのズーム制御を行う。
例えば、ズーム制御部116は、図2~図4を参照して説明したように、ズーム速度を制御してもよい。非ズーム制御に係るパラメータに基づいて、カメラのズーム速度を制御することで、ズーム制御を行ってもよい。
ズーム制御部116は、ズーム速度に係る画角変更速度ωまたはカメラの光軸方向の並進移動速度vが、上述した条件を示す式(4)~式(7)、式(9)、式(10)、式(12)、式(14)、のうち少なくともいずれか一つを満たすように、ズーム速度を制御してもよい。
係る構成により、ユーザUは注目対象を見失いにくくなり、注目対象の視認性低下を抑制することが可能である。
なお、ズーム制御部116によるズーム制御は、回転制御部114、及び移動制御部115による非ズーム制御と略同時に行われてもよい。また、回転制御部114、移動制御部115、及びズーム制御部116による非ズーム制御、及びズーム制御は、図5を参照して説明した操作検出部130により検出されるユーザの制御開始操作に基づいて略同時に開始され、略同時に行われてもよい。また、非ズーム制御、及びズーム制御は、ユーザUの制御開始操作によらずに自動的に開始されてもよい。
以上においては、カメラの非ズーム制御、及びズーム制御を行う例について説明した。ところで、上記においては、注目情報検出部120がユーザの視線を検出する例について説明したが、注目情報検出部120によってユーザの視線が検出されない場合もあり得る。例えば、注目情報検出部120が撮像装置を有する場合、撮像装置の撮像範囲に目領域が収まっていない場合もあれば、画像に目領域が不鮮明に写っており視線が検出されない場合もある。
そこで、出力制御部111は、視線が検出されない場合、視線が検出されないことを示す情報の出力を制御するとよい。視線が検出されないことを示す情報は、視覚情報としてディスプレイによって出力されてもよいし、音声情報として音声出力装置によって出力されてもよいし、触覚情報として触覚提示装置によって出力されてもよい。
また、カメラのズーム制御は、上述した自動的な制御によらず、操作検出部130により検出されるユーザの操作に基づいて行われてもよい。係る場合、ユーザの操作によっては注目対象の視認性が低下する恐れがあるため、ズーム制御部116は、ユーザの操作に対して、カメラのズーム速度の制限をかけてもよい。ユーザの操作に対してかけられるカメラのズーム速度の制限は、上述した自動的な制御におけるズーム速度の制限と同様であってよい。
また、出力制御部111は、ユーザによるカメラのズーム操作に関するガイドを出力(例えば表示)させてもよい。例えば、出力制御部111は、ユーザの操作に対してカメラのズーム速度が制限される場合に、ズーム速度が制限されていることを示すガイドや、ズーム速度の制限値を示すガイドを表示させてもよい。ガイドの例については、図22、図23を参照して後述する。
以上においては、本開示の第1の実施形態に係る情報処理装置10Aの構成の一例(第1の例)を説明した。本開示の第1の実施形態に係る情報処理装置10Aの他の例については、応用例として図9~図13を参照して後述する。
<1-3.動作>
続いて、本開示の第1の実施形態に係る情報処理装置10Aの動作例を説明する。図8は、本実施形態に係る情報処理装置10Aの動作例を示すフローチャート図である。まず、取得部112が、注目情報検出部120により検出されるユーザの注目情報(例えばユーザの視線)を取得すると共に、及び3Dモデル情報151から仮想オブジェクトの位置を取得する(S102)。
続いて、決定部113が、注目情報に基づいて、注目対象、及び移動基準点を決定する(S104)。ステップS104で移動基準点に基づいて、回転制御部114、及び移動制御部115が、非ズーム制御に係るパラメータを特定する(S106)。続いて、ズーム制御部116が、注目対象、及び非ズーム制御に係るパラメータに基づいて、ズーム制御に係るパラメータを特定する(S108)。
続いて、回転制御部114、移動制御部115、及びズーム制御部116により、非ズーム制御とズーム制御が略同時に行われる(S110)。
以上、本実施形態に係る情報処理装置10Aの動作例について説明した。なお、上述したステップS102~S110の処理は、例えば図2~図4を参照して説明した期間tごとに繰り返し行われて、制御パラメータが更新されてもよい。
<1-4.応用例>
以上、本開示の第1の実施形態に係る情報処理装置10Aの一例(第1の例)について説明したが、本開示の第1の実施形態に係る情報処理装置10Aは、上述した例以外にも応用可能である。以下では、応用例として、本開示の第1の実施形態に係る情報処理装置10Aの他の例について、図9~図13を参照して幾つか説明する。
図9は、本開示の第1の実施形態に係る情報処理装置10Aの第2の例を示す図である。図10は、本開示の第1の実施形態に係る情報処理装置10Aの第2の例において仮想空間に存在する仮想オブジェクトの例を示す図である。図9に示すように、情報処理装置10Aは、ユーザUが存在する部屋内に据え置かれており、注目情報検出部120および出力部160を有している。
図9に示すように、第2の例においては、情報処理装置10Aがテレビジョン装置である場合を主に想定する。図10を参照すると、仮想空間20-1に仮想オブジェクト40-1、及び視点カメラ51が仮想的に存在している。そして、視点カメラ51によって仮想オブジェクト40-1が撮像されて得られる画像が、出力制御部111による制御に従って出力部160によって表示されることによって、ユーザUに視野53-5が提供される。図9を参照すると、視野53-5に写る仮想オブジェクト60-2の例として、脳の3Dモデルが示されている。
第2の例においても、注目情報検出部120が、実空間におけるユーザUの視線を検出し、実空間におけるユーザUの視線に対応する仮想空間20-1におけるユーザUの視線52をユーザUによる注目情報の例として検出する。このとき、第2の例において、注目情報検出部120は、実空間におけるユーザUの視線に基づいて、視野53-5におけるユーザUの注目点を検出し、視野53-5におけるユーザUの注目点に対応する仮想空間20-1におけるユーザUの視線52をユーザUによる注目情報の例として検出する。第2の例においても、第1の例と同様に、視点カメラ51の非ズーム制御、及びズーム制御が行われる。
図11は、本開示の第1の実施形態に係る情報処理装置10Aの第3の例を示す図である。図12は、本開示の第1の実施形態に係る情報処理装置10Aの第3の例において仮想空間に存在する仮想オブジェクトの例を示す図である。図11に示すように、情報処理装置10Aは、ユーザUが存在する部屋内に据え置かれており、注目情報検出部120および出力部160を有している。
図11に示すように、第3の例においても、情報処理装置10Aがテレビジョン装置である場合を主に想定する。図12を参照すると、仮想空間20-3に仮想オブジェクト40-3、及び視点カメラ51が仮想的に存在している。そして、視点カメラ51によって仮想オブジェクト40-3が撮像されて得られる画像が、出力制御部111による制御に従って出力部160によって表示されることによって、ユーザUに視野53-11が提供される。図11を参照すると、視野53-11に写る仮想オブジェクト60-3の例として、部屋の3Dモデルが示されている。第3の例においても、第1の例と同様に、視点カメラ51の非ズーム制御、及びズーム制御が行われる。
図13は、本開示の第1の実施形態に係る情報処理装置10Aの第4の例を示す図である。図13に示すように、情報処理装置10Aは、ユーザU2の頭部に装着され、注目情報検出部120および出力部160を有している。ユーザU2とは異なるユーザU1は、コンピュータC1の画面を閲覧している。コンピュータC1は、3Dモデル情報を管理しており、3Dモデル情報に基づく仮想オブジェクトを画面に表示するとともに、3Dモデル情報を情報処理装置10Aに送信する。第4の例においても、第1の例と同様に、情報処理装置10AがAR用のHMDである場合を主に想定する。
図13を参照すると、仮想空間に仮想オブジェクト40-4、及び視点カメラが仮想的に存在している。そして、視点カメラによって仮想オブジェクト40-4が撮像されて得られる画像が、出力制御部111による制御に従って出力部160によって表示されることによって、ユーザUに視野が提供される。図13を参照すると、仮想オブジェクト40-4の例として、心臓が示されている。第4の例においても、第1の例と同様に、視点カメラ51の非ズーム制御、及びズーム制御が行われる。
<<2.第2の実施形態>>
以上、本開示の第1の実施形態について説明した。続いて、本開示の第2の実施形態について説明する。本開示の第2の実施形態では、本開示の第2の実施形態に係る情報処理装置が実空間に存在するカメラ(以下、実カメラと呼ぶ場合がある)を有する例を説明する。
ただし、本開示の第2の実施形態において、非ズーム制御、及びズーム制御が行われるカメラは、実カメラであってもよいし、実空間に対応する仮想空間に配置される仮想的なカメラ(以下、仮想カメラと呼ぶ場合がある)であってもよい。本実施形態において、仮想カメラの非ズーム制御、及びズーム制御が行われる場合、本実施形態に係る情報処理装置は、実カメラから取得された画像に基づいて仮想オブジェクトを生成し、仮想空間において当該仮想オブジェクトを仮想カメラにより撮像する。
一方、本実施形態において、実カメラの非ズーム制御、及びズーム制御が行われる場合、本実施形態に係る情報処理装置は、実カメラの回転、並進移動、及びズームレンズの駆動制御を行ってもよい。
なお、本開示の第1の実施形態において既に説明した非ズーム制御、及びズーム制御の機能は、本開示の第1の実施形態における仮想カメラの非ズーム制御、及びズーム制御、及び実カメラの非ズーム制御、及びズーム制御に対しても同様に適用され得る。そこで、本開示の第2の実施形態においては、第1の実施形態と異なる点を主に説明する。
<2-1.構成>
(全体的な構成)
まず、本開示の第2の実施形態に係る情報処理装置の全体的な構成例について説明する。図14は、本開示の第2の実施形態に係る情報処理装置の機能構成例を示す図である。図14に示したように、情報処理装置10Bは、実カメラを含むセンサ部140を有しており、記憶部150Bが3Dモデル情報151を記憶していない点が、本開示の第1の実施形態に係る情報処理装置10Aと異なっている。以下では、これらの相違点について主に説明する。
なお、図14には、制御部110、注目情報検出部120、操作検出部130、センサ部140、記憶部150Bおよび出力部160が、同一のデバイス(情報処理装置10B)の内部に存在する例が示されている。しかし、これらのブロックが存在する位置は特に限定されない。例えば、後に説明するように、これらのブロックの一部は、他の装置に存在していてもよい。
センサ部140は、例えば、実空間に存在する実カメラを含む。センサ部140に含まれる実カメラは、回転、並進移動、及びズームレンズの駆動を制御部110により制御されてもよい。
また、センサ部140は、実空間に存在する実オブジェクトの奥行き情報を検出するセンサを含んでもよい。実オブジェクトの奥行き情報の検出手法は特に限定されない。例えば、センサ部140は、レーザ距離計によって実オブジェクトの奥行き情報を検出してもよいし、デプスセンサによって実オブジェクトの奥行き情報を検出してもよいし、ステレオカメラによって実オブジェクトの奥行き情報を検出してもよいし、カメラレンズの焦点距離、カメラによって撮像される画像サイズ、および、イメージセンサのサイズに基づいて、実オブジェクトの奥行き情報が検出されてもよい。上記のようにして検出された奥行き情報により、例えば図2~図4を参照して説明した距離dの情報が得られる。
(機能詳細)
以上、本開示の第2の実施形態に係る情報処理装置10Bの全体的な構成例について説明した。続いて、本開示の第1の実施形態に係る情報処理装置10Bの機能詳細について説明する。図15は、本開示の第2の実施形態に係る情報処理装置10Bの第1の例を示す図である。図16は、本開示の第2の実施形態に係る情報処理装置10Bの第1の例において実空間に存在する実オブジェクトの例を示す図である。図15に示すように、情報処理装置10Bは、ユーザUが存在する部屋内に据え置かれており、注目情報検出部120および出力部160を有している。
図15に示すように、第1の例においては、情報処理装置10Bがテレビジョン装置である場合を主に想定する。図16を参照すると、実空間20-4に実オブジェクト40-4が存在し、実オブジェクト40-4を異なる位置からそれぞれ撮像する実カメラ71-1および実カメラ71-2が存在している。実カメラ71の数は特に限定されない。また、実カメラ71が図14を参照して説明したセンサ部140に含まれる実カメラとして機能する。
また、実空間20-4には、実空間に対応する仮想空間に仮想的な視点カメラ51(仮想カメラ)が設置されている。そして、実カメラ71-1および実カメラ71-2それぞれによって実オブジェクト40-4が撮像されて得られる映像が、出力制御部111によって繋ぎ合わされて、仮想的な視点カメラ51によって撮像される仮想オブジェクトである、自由視点映像が生成される。
出力制御部111によって生成した自由視点映像が出力部160によって表示されることによって、ユーザUに視野53-15が提供される。図15を参照すると、視野53-15に写る仮想オブジェクト60-4の例として、サッカー競技場(選手達を含む)が示されている。なお、仮想オブジェクト60-4は、サッカー競技場に限定されない。例えば、仮想オブジェクト60-4は、音楽が演奏されるライブ会場であってもよいし、監視カメラによって撮像される監視対象領域であってもよい。
本開示の第2の実施形態においては、注目情報検出部120が、ユーザUが存在する空間におけるユーザUの視線を検出し、当該空間におけるユーザUの視線に対応する実空間20-4におけるユーザUの視線52をユーザUによる注目情報の例として検出する。そして、取得部112が、実空間20-4におけるユーザUの視線52を取得するとともに、センサ部140から実空間20-4における実オブジェクト40-4の位置を取得する。
このとき、決定部113は、実空間20-4における実オブジェクト40-4の奥行き情報に対応する面と実空間20-4におけるユーザUの視線とに基づいて、注目対象、及び移動基準点を決定する。例えば、決定部113は、仮想空間20-1におけるユーザUの視線52と実オブジェクト40-4の表面との交点を注目対象としてもよいし、当該交点の近傍の領域を注目対象(注目領域)としてもよい。また、第1の例において、決定部113は、例えば実空間20-4におけるユーザUの視線52と実オブジェクト40-4の奥行き情報に対応する面との交点に存在する人物(サッカー選手)を、注目対象として決定してもよい。また、図16には、実空間20-4におけるユーザUの視線52が示されており、決定部113が、実空間20-4におけるユーザUの視線52と実オブジェクト40-4の奥行き情報に対応する面との交点を移動基準点42-2として決定する例が示されている。視野53-15には、実空間20-4における移動基準点42-2に対応する点として、移動基準点62-2が写っている。
回転制御部114、及び移動制御部115は、注目情報に基づいて、視点カメラ51の非ズーム制御を行う。本明細書においては、回転制御部114、及び移動制御部115は、移動基準点42-2が視野中心に移動するように、非ズーム制御を行う。回転制御部114は、視点カメラ51を回転させる制御を行い、移動制御部115は、視点カメラ51を視点カメラ51の光軸と垂直方向に並進移動させる制御を行う。
例えば、回転制御部114による視点カメラ51を回転させる制御は、図2~図4を参照して説明したカメラ回転速度ωによる制御であってもよい。また、移動制御部115による視点カメラ51を並進移動させる制御は、図2~図4を参照して説明したカメラ並進移動速度vによる制御であってもよい。
さらに、本開示の第2の実施形態においても、ズーム制御部116は、回転制御部114、及び移動制御部115による非ズーム制御が行われるとき、非ズーム制御、及び注目情報に基づいて、カメラのズーム制御を行う。
例えば、ズーム制御部116は、図2~図4を参照して説明したように、ズーム速度を制御してもよい。非ズーム制御に係るパラメータに基づいて、カメラのズーム速度を制御することで、ズーム制御を行ってもよい。
ズーム制御部116は、ズーム速度に係る画角変更速度ωまたはカメラの光軸方向の並進移動速度vが、上述した条件を示す式(4)~式(7)、式(9)、式(10)、式(12)、式(14)、のうち少なくともいずれか一つを満たすように、ズーム速度を制御してもよい。
係る構成により、本開示の第2の実施形態においても、ユーザUは注目対象を見失いにくくなり、注目対象の視認性低下を抑制することが可能である。
なお、本開示の第2の実施形態においても、ズーム制御部116によるズーム制御は、回転制御部114、及び移動制御部115による非ズーム制御と略同時に行われてもよい。
<2-2.応用例>
以上、本開示の第2の実施形態に係る情報処理装置10Aの一例(第1の例)について説明したが、本開示の第2の実施形態に係る情報処理装置10Aは、上述した例以外にも応用可能である。以下では、応用例として、本開示の第2の実施形態に係る情報処理装置10Aの他の例について、図17~図28を参照して幾つか説明する。
図17は、本開示の第2の実施形態に係る情報処理装置10Bの第2の例を示す図である。図18は、本開示の第2の実施形態に係る情報処理装置10Bの第2の例において実空間に存在する実オブジェクトの例を示す図である。図17に示すように、情報処理装置10Bは、ユーザUが存在する部屋内に据え置かれており、注目情報検出部120および出力部160を有している。
図17に示すように、第2の例においても、情報処理装置10Bがテレビジョン装置である場合を主に想定する。図18を参照すると、実空間20-5に実オブジェクト40-5が存在し、実オブジェクト40-5を異なる位置からそれぞれ撮像する実カメラ71-1および実カメラ71-2が存在している。実カメラ71の数は特に限定されない。また、実空間20-5には、実空間に対応する仮想空間に仮想的な視点カメラ51が設置されている。そして、実カメラ71-1および実カメラ71-2それぞれによって実オブジェクト40-5が撮像されて得られる映像が、出力制御部111によって繋ぎ合わされて、仮想的な視点カメラ51によって撮像される仮想オブジェクトである、自由視点映像が生成される。
出力制御部111によって生成された自由視点映像が出力部160によって表示されることによって、ユーザUに視野53-16が提供される。図17を参照すると、視野53-16に写る実オブジェクト60-5の例として、車両が示されている。なお、実オブジェクト60-5は、車両に限定されない。本例においても、本開示の第2の実施形態の第1の例と同様に、視点カメラ51の非ズーム制御、及びズーム制御が行われる。
図19は、本開示の第2の実施形態に係る情報処理装置10Bの第3の例を示す図である。図20は、本開示の第2の実施形態に係る情報処理装置10Bの第3の例において実空間に存在する実オブジェクトの例を示す図である。図19に示すように、情報処理装置10Bは、ユーザUが存在する部屋内に据え置かれており、注目情報検出部120および出力部160を有している。
図19に示すように、第3の例においても、情報処理装置10Bがテレビジョン装置である場合を主に想定する。図20を参照すると、実空間20-6に実オブジェクト40-6が存在し、実空間にステレオカメラ72(実カメラの一例)が存在している。そして、ステレオカメラ72によって実オブジェクト40-6が撮像されて得られる映像が、出力部160によって表示されることによって、ユーザUに視野53-17が提供される。図19を参照すると、視野53-17に写る実オブジェクト60-6の例として、機械が示されている。なお、実オブジェクト60-6は、機械に限定されない。
本例においては、注目情報検出部120が、ユーザUが存在する空間におけるユーザUの視線を検出し、当該空間におけるユーザUの視線に対応する実空間20-6におけるユーザUの視線52をユーザUによる注目情報の例として検出する。そして、取得部112が、実空間20-6におけるユーザUの視線52を取得するとともに、ステレオカメラ72から実空間20-6における実オブジェクト40-6の位置を取得する。
本例においては、制御部110がロボットアーム73による並進移動と回転、またはステレオカメラ72が有するズームレンズの駆動を制御することによって非ズーム制御、及びズーム制御が行われる。なお、ステレオカメラ72を移動、または回転させるのは、ロボットアーム73に限定されない。例えば、ロボットアーム73の代わりに、移動可能なロボットがステレオカメラ72を移動、または回転させてもよい。また、ズーム制御部116は、ステレオカメラ72のズームレンズの駆動を制御することで、焦点距離を変更してもよい。
図21は、本開示の第2の実施形態に係る情報処理装置10Bの第4の例を示す図である。図21に示すように、情報処理装置10Bは、ユーザUが存在する手術室内に据え置かれており、注目情報検出部120および出力部160を有している。また、手術室内には、手術台74が存在している。
図21に示すように、第4の例においても、情報処理装置10Bがモニタである場合を主に想定する。図21を参照すると、実空間20-7に実オブジェクト40-7、及びステレオカメラ72が存在している。そして、ステレオカメラ72によって実オブジェクト40-7が撮像されて得られる映像が、出力部160によって表示されることによって、ユーザUに視野53-18が提供される。図21を参照すると、視野53-18に写る実オブジェクト60-7の例として、被手術者が示されている。
本例においては、注目情報検出部120が、ユーザUの視線を検出し、ユーザUの視線に対応する実空間20-7におけるユーザUの視線52をユーザUによる注目情報の例として検出する。そして、取得部112が、実空間20-7におけるユーザUの視線52を取得するとともに、ステレオカメラ72から実空間20-7における実オブジェクト40-7の位置を取得する。
本例においては、制御部110がロボットアーム73、による並進移動と回転、またはステレオカメラ72が有するズームレンズの駆動制御することによって非ズーム制御、及びズーム制御が行われる。なお、ステレオカメラ72を移動、または回転させるのは、ロボットアーム73に限定されない。例えば、ロボットアーム73の代わりに、移動可能なロボットがステレオカメラ72を移動、または回転させてもよい。また、ステレオカメラ72は、ズームレンズの駆動機構を有し、ズーム制御部116は、ステレオカメラ72のズームレンズの駆動を制御することで、焦点距離を変更してもよい。
また、本例において、カメラのズーム制御は、不図示のフットスイッチ(操作検出部130の一例)により検出されるユーザの操作に基づいて行われてもよい。例えば、ズーム量はフットスイッチの踏み込み量に応じた値であってもよい。また、ズーム速度は、ズーム量に応じて変化させてもよいし、一定であってもよい。また、係る場合、出力制御部111は、ユーザによるカメラのズーム操作に関するガイドを表示させてもよい。
図22は出力制御部111が表示させるガイドの例を説明する説明図である。例えば、フットスイッチの踏み込み量が第1の閾値に達すると、ステレオカメラ72はズームのためのスタンバイ状態となる。踏み込み量が第2の閾値以上になると、ステレオカメラ72はズームを開始、すなわちズーム倍率を変化させる。本例では、第1の閾値は第2の閾値よりも小さく設定される。なお、上記踏み込み量に応じた段階的制御に代えて、フットスイッチに対する足の接触に応じてステレオカメラ72をスタンバイ状態としてもよい。フットスイッチに対する足の接触の検出には、圧力センサ、静電容量センサ、デプスセンサ、画像センサ等、任意のセンサが用いられてよい。
また、例えば音声等による制御開始操作により非ズーム制御が開始される。なお、出力制御部111は、視線位置62-2を示すポインタを表示させることが望ましい。
スタンバイ状態になると、ズーム範囲(ズーム制御完了後の表示範囲)に対応するガイド枠63-1が表示される。フットスイッチの踏み込み量が増加するほどガイド枠は小さくなる。あるいは、踏み込み量に対し段階的にガイド枠を小さくしてもよい。例えば、踏み込み量に応じてガイド枠63-1、ガイド枠63-2(例えば踏み込み量20%)、ガイド枠63-3(例えば踏み込み量40%)が表示され得る。
通常、踏み込みによるズーム操作完了よりもズーム完了は遅くなる。これに対し、ズーム操作に対するガイド枠の表示は遅延なく行われる。ガイド枠が遅延なく表示されるため、自身のズーム操作に応じたズーム制御により、注視対象がズーム制御中に表示範囲外に出てしまうことをユーザUは認識可能である。したがって、係る構成によれば、ユーザは注目対象を見失わないように、ズーム操作を中断等の調整(踏み込み量を小さくする)を行うことができる。
図23は出力制御部111が表示させるガイドの他の例を説明する説明図である。本例においても、音声指示後、ステレオカメラ72の非ズーム制御が行われる。また、ズーム制御部116は、現在の非ズーム制御に係るパラメータと、ユーザUのフットペダル操作により特定されるズーム速度に基づいて、注目点(注目対象の一例)62-2がズーム後の表示範囲(視野)内に存在するか否かを判定できる。
現在のフットペダル操作(踏み込み量)ではズーム後の表示範囲(視野)から注目点62-2が出てしまうと判定された場合、出力制御部111はガイド枠の表示を変更し、注目点62-2が視野外に移動する恐れがあることを通知(注意喚起)させてもよい。出力制御部111による通知は、例えば、ガイド枠の色、線種(二重線、破線、点線等)を異ならせることによって行われてもよい。図23の例においては、ガイド枠63-3がガイド枠63-1、ガイド枠63-2とは異なる線種(破線)により表示されることで、現在のフットペダル操作では、ズーム制御中に注目対象が表示範囲から出てしまうことをユーザUは把握できる。このため、ユーザUは、例えば枠が赤色にならないようにカメラ移動中の踏み込み量をより正確に調整できる。
上述した例と同様、注目情報と非ズーム制御に基づき、注目対象が表示範囲に存在するようにズーム速度の制御(制限)を行っても良い。係る場合、フットペダル操作に基づく通常のズーム速度とは異なるズーム速度となり、画像変化が通常とは異なる態様を示す。このため、ユーザUが操作に対する画像変化に違和感を覚える恐れがある。したがって、ズーム制御部116がズーム速度を制限する場合(通常よりもズーム速度を遅くする場合)、出力制御部111は、ズーム速度が制限されている旨の通知をユーザに行ってもよい。このような通知は、音声、表示その他種々の方法で行われ得る。音声、表示以外の態様として、例えばフットスイッチの操作に対し通常よりも抵抗感(負荷)を加えるといった例が挙げられる。
なお、ユーザUは、ズーム速度が制限されている旨の通知に対し、制限のキャンセル(解除)操作を行ってもよく、制限のキャンセル操作は、例えば視線操作、ジェスチャ操作、音声操作、タッチ操作等であってもよい。ユーザUにより制限のキャンセル操作が行われたことが検出された場合、ズーム制御部116は、ズーム速度の制限を解除してもよい。係る構成により、ユーザUがキャンセル操作を行った場合、注目対象が表示領域からはみ出ても良いようにユーザUが決定でき、ズーム速度に対する違和感を任意にコントロールすることが可能となる。また、上述したガイドの出力は、他の例にも適用可能である。
図24は、本開示の第2の実施形態に係る情報処理装置10Bの第5の例を示す図である。図25は、本開示の第2の実施形態に係る情報処理装置10Bの第5の例において実空間に存在する実オブジェクトの例を示す図である。図24に示すように、情報処理装置10Bは、ユーザUが回転操作および移動操作などを入力可能なコントローラであり、注目情報検出部120および出力部160を有している。
図25を参照すると、実空間20-8に実オブジェクト40-8、及び実カメラである視点カメラ51が存在している。図24および図25に示す例では、実カメラである視点カメラ51がドローンに搭載されている。そして、視点カメラ51によって実オブジェクト40-8が撮像されて得られる映像が、出力部160によって表示されることによって、ユーザUに視野53-19が提供される。図24を参照すると、視野53-19に写る実オブジェクト60-8の例として、ロボットが示されている。なお、実オブジェクト60-8は、ロボットに限定されない。
本例においては、注目情報検出部120が、ユーザUが存在する空間におけるユーザUの視線を検出し、当該空間におけるユーザUの視線に対応する実空間20-8におけるユーザUの視線52をユーザUによる注目情報の例として検出する。そして、取得部112が、実空間20-8におけるユーザUの視線52を取得するとともに、視点カメラ51(例えば、デプスカメラ)から実空間20-8における実オブジェクト40-8の位置を取得する。
本例においては、視点カメラ51を搭載するドローンの並進移動と回転、及び視点カメラ51が有するズームレンズの駆動が制御部110により制御されることで、非ズーム制御、及びズーム制御が行われる。図25には、視点カメラ51を搭載するドローンの軌道55が示されている。なお、図24では、情報処理装置10Bが、ユーザUが操作するコントローラである場合を説明した。しかし、情報処理装置10Bは、ユーザUが操作するコントローラに限定されず、ウェアラブルデバイスであってもよい。そして、ウェアラブルデバイスが注目情報検出部120および出力部160を有していてもよい。
図26は、本開示の第2の実施形態に係る情報処理装置10Bの第6の例を示す図である。図27は、本開示の第2の実施形態に係る情報処理装置10Bの第6の例において実空間に存在する実オブジェクトの例を示す図である。図24に示すように、情報処理装置10Bは、ヘリコプターに搭乗しているユーザUの頭部に装着されており、注目情報検出部120を有している。なお、情報処理装置10Bは、出力部160を特に有していなくてよい。
図27を参照すると、実空間20-9に実オブジェクト40-9、及び実カメラである視点カメラ51が存在している。図26および図27に示す例では、視点カメラ51がヘリコプターに搭載されている。本例では、視点カメラ51がヘリコプターから見下ろして撮像する風景によって、視点カメラ51の視野が形成される。図27を参照すると、視野に写る実オブジェクト40-9の例として、ロボットが示されている。なお、実オブジェクト40-9は、ロボットに限定されない。
本例においては、注目情報検出部120が、ユーザUの視線と注目情報検出部120の向きとに基づいて、実空間20-9におけるユーザUの視線52をユーザUによる注目情報の例として検出する。そして、取得部112が、実空間20-9におけるユーザUの視線52を取得するとともに、視点カメラ51(例えば、デプスカメラ)から実空間20-9における実オブジェクト40-9の位置を取得する。
本例においては、視点カメラ51を搭載するヘリコプターの並進移動と回転、及び視点カメラ51が有するズームレンズの駆動が制御部110により制御されることで、非ズーム制御、及びズーム制御が行われる。図27には、視点カメラ51を搭載するヘリコプターの軌道55が示されている。なお、図26では、情報処理装置10Bが、ユーザUの頭部に装着される場合を説明した。しかし、情報処理装置10Bは、据え置き型のデバイスであってもよい。そして、据え置き型のデバイスが注目情報検出部120を有していてもよい。
図28は、本開示の第2の実施形態に係る情報処理装置10Bの第7の例を示す図である。図28に示すように、情報処理装置10Bは、ユーザUの搭乗車両に設置されるドライブレコーダー(録画装置)であり、注目情報検出部120を有している。なお、情報処理装置10Bは、出力部160を特に有していなくてよい。
図28を参照すると、実空間20-10に実オブジェクト40-10、及び実カメラである視点カメラ51が存在している。図28に示す例では、視点カメラ51がユーザUの搭乗車両に搭載されている。本例では、視点カメラ51がユーザUの搭乗車両から撮像する風景によって、視点カメラ51の視野が形成される。図28を参照すると、視野に写る実オブジェクト40-10の例として、前方の車両が示されている。なお、実オブジェクト40-10は、前方の車両に限定されない。
本例においては、注目情報検出部120が、ユーザUの視線と注目情報検出部120の向きとに基づいて、実空間20-10におけるユーザUの視線52をユーザUによる注目情報の例として検出する。そして、取得部112が、実空間20-10におけるユーザUの視線52を取得するとともに、視点カメラ51(例えば、デプスカメラ)から実空間20-10における実オブジェクト40-10の位置を取得する。
本例においては、ユーザUの搭乗車両の並進移動、視点カメラ51の回転、及び視点カメラ51が有するズームレンズの駆動が制御部110により制御されることで、非ズーム制御、及びズーム制御が行われる。
<<3.ハードウェア構成例>>
次に、図29を参照して、本開示の実施形態に係る情報処理装置10のハードウェア構成について説明する。図29は、本開示の実施形態に係る情報処理装置10のハードウェア構成例を示すブロック図である。
図29に示すように、情報処理装置10は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置10は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置10は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置10は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置10の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりする。また、後述する撮像装置933も、ユーザの手の動き、ユーザの指などを撮像することによって、入力装置として機能し得る。このとき、手の動きや指の向きに応じてポインティング位置が決定されてよい。
出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイ、プロジェクタなどの表示装置、ホログラムの表示装置、スピーカおよびヘッドホンなどの音出力装置、ならびにプリンタ装置などであり得る。出力装置917は、情報処理装置10の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくするためライトなどを含んでもよい。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置10と外部接続機器929との間で各種のデータが交換され得る。
通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
センサ935は、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、振動センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置10の筐体の姿勢など、情報処理装置10自体の状態に関する情報や、情報処理装置10の周辺の明るさや騒音など、情報処理装置10の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
なお、上述のような本実施形態に係る情報処理装置10の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<<4.むすび>>
以上説明したように、本開示の実施形態によれば、カメラのズーム制御と非ズーム制御が行われ場合に、注目対象の視認性低下を抑制することが可能である。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、非ズーム制御は、カメラの視野の所望の位置に注目対象を移動させるための制御である例を説明したが、本技術はかかる例に限定されない。例えば、非ズーム制御は、ズーム制御を含まない、カメラの並進移動制御、または回転制御であればよい。
また、上記では、ズーム制御と非ズーム制御が略同時に行われる場合に、注目対象がカメラの視野内に常に位置するような、カメラのズーム速度制御について説明したが、本技術は係る例に限定されない。例えば、制御部は、非ズーム制御が行われる間、注目対象に対応する視野内の位置が、カメラの視野中心から離間することを抑制するようにズーム速度を制御してもよい。例えば、カメラの画角よりも狭い角度を設定し、図2~図4を参照して説明した例と同様に、注目対象が当該角度内に常に位置するようなズーム速度の条件が満たされるように、ズーム速度が制御されてもよい。係る構成によれば、注目対象は、カメラの視野中心付近に位置するため、注目対象の視認性がより低下し難い。
また、上記実施形態における各ステップは、必ずしもフローチャート図として記載された順序に沿って時系列に処理される必要はない。例えば、上記実施形態の処理における各ステップは、フローチャート図として記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの注目対象に関する注目情報を取得する取得部と、
前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御を行うズーム制御部と、
を備える情報処理装置。
(2)
前記ズーム制御部は、前記非ズーム制御に基づいて、前記カメラのズーム速度を制御することで、前記ズーム制御を行う、前記(1)に記載の情報処理装置。
(3)
前記ズーム制御部は、前記カメラの視野内に前記注目対象が位置するように、前記ズーム速度を制御する、前記(2)に記載の情報処理装置。
(4)
前記ズーム制御部は、前記ズーム制御が行われる間、前記視野内に前記注目対象が常に位置するように、前記ズーム速度を制御する、前記(3)に記載の情報処理装置。
(5)
前記ズーム制御部は、前記ズーム速度に係る画角変更速度ω、または前記カメラの光軸方向の並進移動速度vが所定の条件を満たすように、前記ズーム速度を制御する、前記(4)に記載の情報処理装置。
(6)
前記所定の条件は、前記ズーム制御の開始時刻における前記カメラの画角θ、前記ズーム制御が行われる期間t、前記注目対象と前記カメラの光軸との距離h、前記カメラと前記注目対象との前記光軸方向の距離d、前記カメラの回転速度ω、及び前記カメラの光軸と垂直方向の並進移動速度vを用いる式(A)として表される、前記(5)に記載の情報処理装置。
Figure 0007059934000014
(7)
前記所定の条件は、前記ズーム制御が行われる期間t、前記注目対象と前記カメラの光軸との距離h、前記カメラと前記注目対象との前記光軸方向の距離d、前記カメラの回転速度ω、及び前記カメラの光軸と垂直方向の並進移動速度vを用いる式(B)として表される、前記(5)に記載の情報処理装置。
Figure 0007059934000015
(8)
前記ズーム制御部は、前記非ズーム制御が行われる間、前記注目対象に対応する前記カメラの視野内の位置が、前記カメラの視野中心から離間することを抑制するように前記ズーム速度を制御する、前記(2)~(7)のいずれか一項に記載の情報処理装置。
(9)
前記ズーム制御は、前記カメラに係る焦点距離の変更を含む、前記(1)~(8)のいずれか一項に記載の情報処理装置。
(10)
前記ズーム制御は、前記カメラと前記注目対象の相対距離の変更を含む、前記(1)~(9)のいずれか一項に記載の情報処理装置。
(11)
前記カメラは仮想空間に存在する仮想的なカメラであり、
前記非ズーム制御は、前記カメラと前記仮想空間に配置された仮想オブジェクトとの相対位置制御を含む、前記(1)~(10)のいずれか一項に記載の情報処理装置。
(12)
前記非ズーム制御は、前記カメラの光軸に対して垂直方向への前記カメラの並進移動制御、または前記カメラの回転制御のうち少なくとも一方を含む、前記(1)~(11)のいずれか一項に記載の情報処理装置。
(13)
前記ズーム制御は、前記非ズーム制御と略同時に行われる、前記(1)~(12)のいずれか一項に記載の情報処理装置。
(14)
前記情報処理装置は、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム操作に関するガイドを出力部に出力させる第1出力制御部をさらに備える、前記(1)~(13)のいずれか一項に記載の情報処理装置。
(15)
前記第1出力制御部は、前記ズーム制御において、前記カメラのズーム速度が制限される場合に、前記ガイドを前記出力部に出力させる、前記(14)に記載の情報処理装置。
(16)
前記非ズーム制御は、前記注目対象を前記カメラの視野内における所定の位置に移動させる制御である、前記(1)~(15)のいずれか一項に記載の情報処理装置。
(17)
前記カメラは仮想空間に存在する仮想的なカメラであり、
前記情報処理装置は、前記カメラによって得られる画像の表示を制御する第2出力制御部をさらに備える、前記(1)~(16)のいずれか一項に記載の情報処理装置。
(18)
前記カメラは実空間に存在し、
前記ズーム制御部は、前記カメラのレンズ駆動を制御する、前記(1)~(16)のいずれか一項に記載の情報処理装置。
(19)
ユーザの注目対象に関する注目情報を取得することと、
前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御をプロセッサが行うことと、
を含む情報処理方法。
(20)
コンピュータに、
ユーザの注目対象に関する注目情報を取得する機能と、
前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御を行う機能と、
を実現させるための、プログラム。
10 情報処理装置
20 空間(実空間,仮想空間)
40 オブジェクト(実オブジェクト,仮想オブジェクト)
42-2 移動基準点
51 視点カメラ
52 視線
53
55 軌道
60 オブジェクト(実オブジェクト,仮想オブジェクト)
61 注目領域
62 移動基準点
63 ガイド枠
71 実カメラ
72 ステレオカメラ
73 ロボットアーム
74 手術台
110 制御部
111 出力制御部
112 取得部
113 決定部
114 回転制御部
115 移動制御部
116 ズーム制御部
120 注目情報検出部
130 操作検出部
140 センサ部
150(150A,150B)記憶部
151 3Dモデル情報
160 出力部

Claims (20)

  1. ユーザの注目対象に関する注目情報を取得する取得部と、
    前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御を行うズーム制御部と、
    を備え
    前記ズーム制御部は、
    前記非ズーム制御に基づいて、前記カメラのズーム速度を制御することで、前記ズーム制御を行い、
    前記カメラの視野内に前記注目対象が位置するように、前記ズーム速度を制御する、情報処理装置。
  2. 前記ズーム制御部は、前記ズーム制御が行われる間、前記視野内に前記注目対象が常に位置するように、前記ズーム速度を制御する、請求項に記載の情報処理装置。
  3. 前記ズーム制御部は、前記ズーム速度に係る画角変更速度ωZ、または前記カメラの光軸方向の並進移動速度vZが所定の条件を満たすように、前記ズーム速度を制御する、請求項に記載の情報処理装置。
  4. 前記所定の条件は、前記ズーム制御の開始時刻における前記カメラの画角θS、前記ズーム制御が行われる期間t、前記注目対象と前記カメラの光軸との距離h、前記カメラと前記注目対象との前記光軸方向の距離d、前記カメラの回転速度ωC、及び前記カメラの光軸と垂直方向の並進移動速度vhを用いる式(A)として表される、請求項に記載の情報処理装置。
    Figure 0007059934000016
  5. 前記所定の条件は、前記ズーム制御が行われる期間t、前記注目対象と前記カメラの光軸との距離h、前記カメラと前記注目対象との前記光軸方向の距離d、前記カメラの回転速度ωC、及び前記カメラの光軸と垂直方向の並進移動速度vhを用いる式(B)として表される、請求項に記載の情報処理装置。
    Figure 0007059934000017
  6. ユーザの注目対象に関する注目情報を取得する取得部と、
    前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御を行うズーム制御部と、
    を備え、
    前記ズーム制御部は、
    前記非ズーム制御に基づいて、前記カメラのズーム速度を制御することで、前記ズーム制御を行い、
    前記非ズーム制御が行われる間、前記注目対象に対応する前記カメラの視野内の位置が、前記カメラの視野中心から離間することを抑制するように前記ズーム速度を制御する、情報処理装置。
  7. 前記ズーム制御は、前記カメラに係る焦点距離の変更を含む、請求項1~のいずれか一項に記載の情報処理装置。
  8. 前記ズーム制御は、前記カメラと前記注目対象の相対距離の変更を含む、請求項1~のいずれか一項に記載の情報処理装置。
  9. 前記カメラは仮想空間に存在する仮想的なカメラであり、
    前記非ズーム制御は、前記カメラと前記仮想空間に配置された仮想オブジェクトとの相対位置制御を含む、請求項1~のいずれか一項に記載の情報処理装置。
  10. 前記非ズーム制御は、前記カメラの光軸に対して垂直方向への前記カメラの並進移動制御、または前記カメラの回転制御のうち少なくとも一方を含む、請求項1~のいずれか一項に記載の情報処理装置。
  11. 前記ズーム制御は、前記非ズーム制御と略同時に行われる、請求項1~10のいずれか一項に記載の情報処理装置。
  12. 前記情報処理装置は、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム操作に関するガイドを出力部に出力させる第1出力制御部をさらに備える、請求項1~11のいずれか一項に記載の情報処理装置。
  13. 前記第1出力制御部は、前記ズーム制御において、前記カメラのズーム速度が制限される場合に、前記ガイドを前記出力部に出力させる、請求項12に記載の情報処理装置。
  14. 前記非ズーム制御は、前記注目対象を前記カメラの視野内における所定の位置に移動させる制御である、請求項1~13のいずれか一項に記載の情報処理装置。
  15. 前記カメラは仮想空間に存在する仮想的なカメラであり、
    前記情報処理装置は、前記カメラによって得られる画像の表示を制御する第2出力制御部をさらに備える、請求項1~14のいずれか一項に記載の情報処理装置。
  16. 前記カメラは実空間に存在し、
    前記ズーム制御部は、前記カメラのレンズ駆動を制御する、請求項1~14のいずれか一項に記載の情報処理装置。
  17. ユーザの注目対象に関する注目情報を取得することと、
    前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御をプロセッサが行うことと、
    を含み、
    前記プロセッサは、
    前記非ズーム制御に基づいて、前記カメラのズーム速度を制御することで、前記ズーム制御を行い、
    前記カメラの視野内に前記注目対象が位置するように、前記ズーム速度を制御する、情報処理方法。
  18. ユーザの注目対象に関する注目情報を取得することと、
    前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御をプロセッサが行うことと、
    を含み、
    前記プロセッサは、
    前記非ズーム制御に基づいて、前記カメラのズーム速度を制御することで、前記ズーム制御を行い、
    前記非ズーム制御が行われる間、前記注目対象に対応する前記カメラの視野内の位置が、前記カメラの視野中心から離間することを抑制するように前記ズーム速度を制御する、情報処理方法。
  19. コンピュータに、
    ユーザの注目対象に関する注目情報を取得する機能と、
    前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御を行う機能と、
    を実現させるためのプログラムであって、
    前記ズーム制御を行う機能は、
    前記非ズーム制御に基づいて、前記カメラのズーム速度を制御することで、前記ズーム制御を行い、
    前記カメラの視野内に前記注目対象が位置するように、前記ズーム速度を制御する、プログラム。
  20. コンピュータに、
    ユーザの注目対象に関する注目情報を取得する機能と、
    前記注目情報に基づいて、カメラの非ズーム制御が行われるとき、前記非ズーム制御、及び前記注目情報に基づいて、前記カメラのズーム制御を行う機能と、
    を実現させるためのプログラムであって、
    前記ズーム制御を行う機能は、
    前記非ズーム制御に基づいて、前記カメラのズーム速度を制御することで、前記ズーム制御を行い、
    前記非ズーム制御が行われる間、前記注目対象に対応する前記カメラの視野内の位置が、前記カメラの視野中心から離間することを抑制するように前記ズーム速度を制御する、プログラム。
JP2018546163A 2016-10-17 2017-08-21 情報処理装置、情報処理方法、及びプログラム Active JP7059934B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016203349 2016-10-17
JP2016203349 2016-10-17
PCT/JP2017/029709 WO2018074045A1 (ja) 2016-10-17 2017-08-21 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018074045A1 JPWO2018074045A1 (ja) 2019-08-29
JP7059934B2 true JP7059934B2 (ja) 2022-04-26

Family

ID=62019124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018546163A Active JP7059934B2 (ja) 2016-10-17 2017-08-21 情報処理装置、情報処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US10771707B2 (ja)
EP (1) EP3528024B1 (ja)
JP (1) JP7059934B2 (ja)
CN (1) CN109844600B (ja)
WO (1) WO2018074045A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6440910B2 (ja) * 2016-07-29 2018-12-19 三菱電機株式会社 表示装置、表示制御装置および表示制御方法
JP7212611B2 (ja) * 2017-02-27 2023-01-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
JP6980470B2 (ja) * 2017-09-19 2021-12-15 キヤノン株式会社 電子機器およびその制御方法
US10997630B2 (en) * 2018-12-20 2021-05-04 Rovi Guides, Inc. Systems and methods for inserting contextual advertisements into a virtual environment
JP7452072B2 (ja) * 2020-02-19 2024-03-19 富士フイルムビジネスイノベーション株式会社 発光装置認識システムおよび発光装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003093735A (ja) 2002-08-05 2003-04-02 Namco Ltd ゲーム装置および情報記憶媒体
JP2006229322A (ja) 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム
JP2008124812A (ja) 2006-11-13 2008-05-29 Fujinon Corp リモコン雲台システム
JP2010088076A (ja) 2008-10-03 2010-04-15 Canon Inc 撮像装置
JP2010272942A (ja) 2009-05-19 2010-12-02 Canon Inc 撮像装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US277823A (en) * 1883-05-15 Car-coupling
JP4241742B2 (ja) * 2006-01-31 2009-03-18 パナソニック株式会社 自動追尾装置及び自動追尾方法
JP4318724B2 (ja) * 2007-02-14 2009-08-26 パナソニック株式会社 監視カメラ及び監視カメラ制御方法
CN102055897B (zh) * 2009-11-02 2013-01-23 华晶科技股份有限公司 摄像追踪方法
JP5773583B2 (ja) * 2010-06-11 2015-09-02 キヤノン株式会社 撮像装置およびその制御方法、コンピュータプログラム
JP5663283B2 (ja) * 2010-12-02 2015-02-04 オリンパス株式会社 内視鏡画像処理装置及びプログラム
JP2013157878A (ja) * 2012-01-31 2013-08-15 Jvc Kenwood Corp カメラ制御装置、カメラ制御方法及びプログラム
WO2013175837A1 (ja) * 2012-05-25 2013-11-28 ソニー株式会社 カメラ制御装置、カメラ制御方法、プログラムおよびカメラ装置
KR20140011215A (ko) * 2012-07-18 2014-01-28 삼성전자주식회사 촬영 장치, 그의 촬영 제어 방법 및 안구 인식 장치
US9253410B2 (en) * 2013-04-25 2016-02-02 Canon Kabushiki Kaisha Object detection apparatus, control method therefor, image capturing apparatus, and storage medium
JP2016115965A (ja) 2014-12-11 2016-06-23 ソニー株式会社 医療用眼鏡型表示装、情報処理装置及び情報処理方法
JP6618255B2 (ja) * 2014-12-24 2019-12-11 キヤノン株式会社 ズーム制御装置、撮像装置、ズーム制御装置の制御方法、ズーム制御装置の制御プログラム及び記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003093735A (ja) 2002-08-05 2003-04-02 Namco Ltd ゲーム装置および情報記憶媒体
JP2006229322A (ja) 2005-02-15 2006-08-31 Matsushita Electric Ind Co Ltd 自動追尾制御装置及び自動追尾制御方法、並びにプログラム、自動追尾システム
JP2008124812A (ja) 2006-11-13 2008-05-29 Fujinon Corp リモコン雲台システム
JP2010088076A (ja) 2008-10-03 2010-04-15 Canon Inc 撮像装置
JP2010272942A (ja) 2009-05-19 2010-12-02 Canon Inc 撮像装置

Also Published As

Publication number Publication date
US20190230290A1 (en) 2019-07-25
CN109844600A (zh) 2019-06-04
EP3528024B1 (en) 2023-04-19
EP3528024A4 (en) 2019-11-06
US10771707B2 (en) 2020-09-08
JPWO2018074045A1 (ja) 2019-08-29
WO2018074045A1 (ja) 2018-04-26
CN109844600B (zh) 2022-04-15
EP3528024A1 (en) 2019-08-21

Similar Documents

Publication Publication Date Title
JP7059934B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10948993B2 (en) Picture-taking within virtual reality
US11170580B2 (en) Information processing device, information processing method, and recording medium
WO2017134886A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
JP6766824B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP7092028B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20130108643A (ko) 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들
JP2015095802A (ja) 表示制御装置、表示制御方法、およびプログラム
JP2013258614A (ja) 画像生成装置および画像生成方法
US11151804B2 (en) Information processing device, information processing method, and program
WO2019187862A1 (ja) 情報処理装置、情報処理方法、および記録媒体
EP3407304A1 (en) Information processing device and user guide presentation method
KR20170062439A (ko) 제어 장치, 제어 방법 및 프로그램
US20210058609A1 (en) Information processor, information processing method, and program
WO2020179027A1 (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JP2024050696A (ja) 情報処理装置、ユーザガイド提示方法、およびヘッドマウントディスプレイ
CN107148614A (zh) 信息处理设备、信息处理方法和程序
US20190369807A1 (en) Information processing device, information processing method, and program
WO2018116582A1 (ja) 制御装置、制御方法、及び医療用観察システム
JP2018063567A (ja) 画像処理装置、画像処理方法およびプログラム
JPWO2019087513A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2016151958A1 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム
WO2020031493A1 (ja) 端末装置および端末装置の制御方法
CN113631477A (zh) 信息处理装置、信息处理方法和程序
WO2024185452A1 (ja) 情報処理装置、情報処理装置のシステム、情報処理装置の制御方法、プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220328

R151 Written notification of patent or utility model registration

Ref document number: 7059934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151