JP7322703B2 - 画像処理装置、画像処理装置の画像処理方法、プログラム - Google Patents
画像処理装置、画像処理装置の画像処理方法、プログラム Download PDFInfo
- Publication number
- JP7322703B2 JP7322703B2 JP2019528962A JP2019528962A JP7322703B2 JP 7322703 B2 JP7322703 B2 JP 7322703B2 JP 2019528962 A JP2019528962 A JP 2019528962A JP 2019528962 A JP2019528962 A JP 2019528962A JP 7322703 B2 JP7322703 B2 JP 7322703B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- viewpoint
- image
- line
- virtual viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
- A63F13/525—Changing parameters of virtual cameras
- A63F13/5258—Changing parameters of virtual cameras by dynamically adapting the position of the virtual camera to keep a game object or game character in its viewing frustum, e.g. for tracking a character or a ball
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/60—Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client
- H04N21/65—Transmission of management data between client and server
- H04N21/658—Transmission by the client directed to the server
- H04N21/6587—Control parameters, e.g. trick play commands, viewpoint selection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
該特許文献1では、複数の撮像装置による撮像画像に基づいて3Dモデルを生成し、被写体(人物)の注目部位が画像上見えるように視点を設定し、設定した視点による仮想視点画像を生成することが開示されている。本文献では、被写体としての人物が移動することを前提としておらず、一度視点を設定すると、視点は固定されたままであり、仮に、対象としている被写体が移動したときには視点が追従しないものとなる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
<1.実施形態の画像処理システム>
[1-1.画像処理システムの構成]
[1-2.実施形態の視点設定手法]
[1-3.処理手順]
<2.変形例>
[2-1.第一変形例]
[2-2.第二変形例]
[2-3.第三変形例]
[2-4.第四変形例]
[2-5.第五変形例]
[2-6.第六変形例]
[2-7.第七変形例]
[2-8.第八変形例]
<3.実施形態のまとめ>
<4.その他変形例>
<5.本技術>
[1-1.画像処理システムの構成]
図1に、本技術に係る実施形態としての画像処理装置1を備えた画像処理システム100の構成例を示す。
画像処理システム100は、画像処理装置1に加え、複数の撮像装置2と、画像記録装置3と、パラメータ記録装置4と、キャリブレーション装置5と、入力装置6と、表示装置7と、画像記録装置8とを備え、複数の撮像装置2から取得される撮像情報に基づき、三次元空間上の任意視点からの観察画像に相当する仮想視点画像(自由視点画像又は自由視点映像とも呼ばれる)を生成する。
各撮像装置2は、本例ではバスケットボールやサッカー等の球技が行われている様子を撮像するものとされ、それぞれが球技の開催される競技会場における所定位置において所定の向きに配置されている。本例では、撮像装置2の数は3以上としているが、仮想視点画像の生成を可能とする上では撮像装置2の数は少なくとも2以上あればよい。撮像装置2の数を多くし、対象とする被写体をより多くの角度から撮像することで、被写体の三次元復元の精度向上が図られ、仮想視点画像の画質向上を図ることができる。
仮想視点画像の生成において、カメラ内部パラメータとしては、カメラの焦点距離、画素のアスペクト比、レンズ歪等の情報を取得する。パラメータ記録装置4は、カメラ内部パラメータを取得元の撮像装置2の識別情報とタイムコードとに対応づけて記録する。
本例における操作部61は、操作子として、使用者によるタッチ操作を可能とするタッチパネル61aを有している。タッチパネル61aは、表示部62における表示画面上に形成され、使用者は表示画面に対するタッチ操作によって各種の情報入力を行うことができる。
これら3Dモデル生成部11、被写体解析部12、及び仮想視点画像生成部13は、画像処理装置1が有する例えばDSP(Digital Signal Processor)等による画像処理プロセッサとして構成されている。
3Dモデル生成部11が生成した3Dモデルデータは、被写体解析部12と仮想視点画像生成部13とに入力される。
また、上記の3Dモデルデータは、撮像された被写体を三次元空間上で表した「三次元情報」の一例に相当する。
なお、被写体解析部12が行う簡易モデルの生成や選手の同定のための処理については後述する。競技ボールの同定は、例えば被写体の形状、サイズ等に基づく基準テンプレートとのマッチング処理等により行うことができる。
また、仮想視点画像生成部13は、入力装置6からの操作情報に基づいて、仮想視点画像の視点の位置を、上記のような被写体の動きへの追従を維持させつつ変化させる。
ここで、被写体の動きに伴い変化する該被写体の三次元情報と該被写体の解析情報とに基づき、例えば一定の時間間隔(フレームレート)ごとに仮想視点画像の視点位置を設定することにより、ある時点に設定された視点位置は、その直前(異なる時点)に設定された視点位置と異なる。すなわち、被写体の動きに追従して視点位置が変化することにより、結果としてこの視点位置に基づいて生成される仮想視点画像も被写体の動きに追従することになる(画枠内に該被写体を映し続ける画像となる)。
図示のように仮想視点画像生成部13は、視点設定処理部13a、及びレンダリング処理部13bとしての機能を有している。
視点設定処理部13aは、被写体解析部12による被写体解析情報Iaと入力装置6からの操作情報に基づいて、仮想視点画像の視点を設定する。
図3Aでは、三次元空間上に設定した所要の視点から被写体を捉えた仮想視点画像のイメージを示している。この場合の仮想視点画像では、被写体S1が略正面視され、被写体S2が略背面視されている。
図3Bでは、視点の位置を図3Aの矢印C方向に変化させ、被写体S1を略背面視する視点が設定された場合の仮想視点画像のイメージを示している。この図3Bの仮想視点画像では、被写体S2が略正面視され、また図3Aでは映し出されていなかった被写体S3やバスケットゴールが映し出されている。
本実施形態としての視点Pvの設定手法については後に改めて説明する。
後述するように、本例では、仮想視点画像として視点Pvから三次元空間上の何れの方向を観察した画像を生成すべきかを使用者の操作に基づき設定可能としている(後述する「内向き」「外向き」の視点モード)。以下、このような視点Pvからの観察方向については、「視線方向Dv」と表記する。
表示装置7は、例えばLCDや有機ELディスプレイ等のディスプレイデバイスを有した表示部を備え、仮想視点画像の表示を行う。
画像記録装置8は、例えばSSDやHDD等のデータ記録部と、該データ記録部についてデータの記録再生制御を行う制御部とを備え、仮想視点画像をデータ記録部に記録する。仮想視点画像を画像記録装置8に記録することで、使用者に任意のタイミングで仮想視点画像を閲覧させることが可能となる。
本実施形態では、選手としての動く被写体に追従した視点Pvの設定を行う。このとき、追従対象としての被写体が「注目被写体」として予め設定される。注目被写体の設定は、仮想視点画像生成部13における視点設定処理部13aが行う。
なお、本例では注目被写体が選手としての人とされる場合を例示するが、注目被写体は選手以外の人とされてもよいし、また人の部位の一部や人以外のものを注目被写体として設定することもできる。
(1)被写体解析部12による被写体解析情報Iaに基づき、競技ボールを持っている選手を注目被写体として設定する。
(2)所定の背番号又は名前の選手を注目被写体として設定する。
(3)三次元空間上の所定のエリアに位置する選手を注目被写体として設定する。
被写体解析部12においては、画像解析により対象の被写体、具体的に本例では選手としての被写体及び競技ボールとしての被写体を検出する。この際、検出した被写体に対しては識別子(以下「被写体ID」と表記)を割り振る。
また、選手としての被写体については、被写体の姿勢を把握可能な簡易モデルを生成する。簡易モデルは、例えば図4に例示するように、選手としての被写体を、主に関節等の検出点(図中の黒丸部)と検出点を結ぶ線の情報で簡易化したモデルである。
例えば、腰部、頭部、首、手足の関節部分など、主に姿勢に応じて変位する箇所を検出点とする。各検出点は、それぞれ特定の他の検出点と線で結ばれる。各検出点は、それぞれ線で結ばれている検出点が規定されていることで、点と線により人体を表現する簡易モデルが形成される。
本例では、選手の同定処理は背番号の検出結果に基づき行う。
被写体解析部12には、例えば図5に示すような選手属性管理情報Ibが記憶されている。図示のように選手属性管理情報Ibは、選手の識別子である選手IDごとに、選手属性情報として例えば選手名、所属チーム、背番号等、選手の属性を表す情報が対応づけられた情報とされる。
ここで、所属チームの判定は、例えばユニフォームや帽子等の選手の装着物の色や配色パターンの差違等に基づいて行うことができる。
被写体解析情報Iaは、被写体IDごとに、被写体の位置、被写体の種別(本例では選手又は競技ボール)、被写体の向き(選手のみ)、簡易モデル(選手のみ)、及び上記の同定処理で特定した選手IDの情報が対応づけられた情報とされる。
本例においては、視点設定処理部13aには、図5に示したものと同様に選手IDごとに選手属性情報が対応づけられた選手属性管理情報Ibが記憶されている。そして、視点設定処理部13aは、選手属性管理情報Ibにおける所定の所属チーム及び背番号が対応づけられた選手ID、又は所定の名前が対応づけられた選手IDを特定し、被写体解析情報Iaにおいて該選手IDが対応づけられた被写体を注目被写体として設定する。
ここで、(3)について、エリア情報とは、三次元空間上の領域を表す情報である。
先ず、本例では、「視点モード」として、「注目被写体を観察する視点Pv」が設定されるモードと、「注目被写体から外方を観察する視点Pv」が設定されるモードとの切り替えが可能とされている。
さらに、「視点設定モード」として、使用者が視点Pvの設定操作を行わずとも自動的に視点Pvの設定が行われる「自動設定モード」と、使用者が簡易な操作により視点Pv又は視線方向Dvを自由に設定可能な「簡易設定モード」との切り替えが可能とされる。
これら視点モード、視点設定モードの切り替えは、例えば入力装置6(操作部61)を介した使用者の操作入力に応じて行われる。
なお、基準位置Prを被写体の身体的中心に設定することはあくまで一例であり、基準位置Prとしては、少なくとも被写体の位置に基づいた任意の位置に設定することができる。
図7Aの設定例では、このような両肩間の中心とされた基準位置Prと同じ高さで、基準位置Prから注目被写体Stの「被写体の向き」の方向に所定距離離間した位置に視点Pvを設定する。そして、「注目被写体を観察する視点Pv」であるため、この場合の視線方向Dvとしては視点Pvから基準位置Prに向かう方向に設定する(注目被写体Stの「被写体の向き」の方向とは逆方向に設定する)。
図7Aの場合、基準位置Prと視点Pvとの離間距離は、例えば仮想視点画像において注目被写体Stの少なくとも上半身部が画角内に収まる距離に設定する。例えば、「40cm」程度の距離に設定することが望ましい。なお、この「40cm」は、撮像素子がAPS-Cサイズであり焦点距離が35mm程度である場合の画角を想定した場合に、「24cm」程度の距離で上半身部分が該画角内に収まることに基づいたものである。
本設定例では、注目被写体Stの身体的中心として設定した基準位置Prと、競技ボールとしての被写体Sbの位置とを結ぶ直線上で、基準位置Prから注目被写体Stの「被写体の向き」の方向に所定距離離間した位置に視点Pvを設定する。なお、ここでは、被写体Sbの位置は、被写体Sbの中心位置としている。この場合も「注目被写体を観察する視点Pv」であるため、視線方向Dvとしては視点Pvから基準位置Prに向かう方向に設定する。
図7Bの例では、基準位置Prは注目被写体Stの顔中心に設定している。
図7Bの例において、基準位置Prと視点Pvとの離間距離は、少なくとも基準位置Prと被写体Sbの位置までの離間距離よりも大きな距離に設定する。例えば、仮想視点画像において注目被写体の全身が画角内に収まる距離に設定することが考えられ、その場合、基準位置Prと視点Pvとの離間距離は、例えば「80cm」程度の距離とすることが望ましい。
図8A及び図8Bの設定例としても、基準位置Prを注目被写体Stの身体的中心に設定する例となる。具体的に、図8Aの設定例では基準位置Prを注目被写体Stの両肩間の中心に設定している。この場合、「注目被写体から外方を観察する視点Pv」であるため、視点Pvは基準位置Prと同一位置に設定する。そして、視線方向Dvは、注目被写体Stの「被写体の向き」の方向に設定する。
この場合、基準位置Prは注目被写体Stの顔中心に設定している。「注目被写体から外方を観察する視点Pv」であるため、この場合も視点Pvは基準位置Prと同一位置に設定する。
本例では、視線方向Dvは、視点Pvから被写体Sbの位置(例えば中心位置)に向かう方向として設定する。
また、図8Bの設定例によれば、プレー中の選手の目から見える状況を刻々と映し出した臨場感の高い仮想視点画像を提供することができる。特に、他選手に競技ボールをパスするシーンやシュートシーンなどにおいて、競技ボールに対する選手の挙動を映し出した仮想視点画像を提供でき、選手の動きの分析や研究に好適である。
自動設定モードは、例えば上記した図7や図8などの手法によって視点設定処理部13aが視点Pvをいわば自動的に設定するモードである。
本例の場合、自動設定モードでは、視点設定処理部13aが視点Pvの設定手法を順時切り替えることとしている。具体的に、本例では、注目被写体Stの設定手法を順時切り替えることで、使用者に対し、順時異なる被写体Sを基準とする視点Pvの設定された仮想視点画像が表示されるようにする。
本例では、仮想視点画像生成部13が生成した仮想視点画像は表示装置7の表示画面、及び入力装置6における表示部62の表示画面に表示されるため、ここではそれらの画面上に表示される仮想視点画像のイメージを示している。なお、図9Aでは視点モードが「内向き視点」(注目被写体を観察する視点Pv)の場合を例示しているが、外向き視点の場合も同様の切り替えが行われる。
この場合、仮想視点画像生成部13においては、注目被写体Stについてそれぞれ異なる設定手法で視点Pvを設定した仮想視点画像を並行して生成する。すなわち、視点設定処理部13aがそれぞれ異なる手法で設定した注目被写体Stについての視点Pvをそれぞれ設定し、レンダリング処理部13bがそれら設定された視点Pvによる仮想視点画像を並行して生成する。そして、これら生成した仮想視点画像を表示装置7や入力装置6の表示部62に出力する。
表示装置7や表示部62では、それら複数の仮想視点画像をそれぞれ表示画面内の所定領域に表示する。
この場合、入力装置6の操作部61は、タッチパネル61aに対する所定のタッチ操作が検知された場合には、該タッチ操作が行われた画面領域の情報を仮想視点画像生成部13に送信する。
仮想視点画像生成部13は、該画面領域の情報に基づき、タッチ操作により選択された仮想視点画像を特定し、以降は、視点設定処理部13aにおいて該特定した仮想視点画像の視点Pvの設定手法により視点Pvの設定を行い、レンダリング処理部13bは、複数の候補視点画像の生成を停止し、該設定された視点Pvによる仮想視点画像を生成、出力する。
本例の簡易設定モードは、注目被写体Stの基準位置Prに基づいて、視点Pvの位置又は視線方向Dvを使用者が操作により変更可能とされたモードとされる。
簡易設定モードでは、視点モードが「内向き視点」のモードである場合には、使用者の操作に応じ、図示のように基準位置Prを中心とした球面Ssに沿って視点Pvを変化させる。なお、「内向き視点」のモードであるため、この場合における視線方向Dvは視点Pvから基準位置Prに向かう方向に設定される。
なお、タッチパネル61aを用いた入力装置6の形態は、例えばタブレット端末のような装置として実現可能であり、仮想視点画像を閲覧するためのパネルと一体に操作部を設けることが可能であるため、導入のための機材コストを削減できるというメリットがある。
一方、ジョイスティック等のゲームコントローラ式の形態を採る場合には、操作入力のために専用機器を要するが、より細かな入力が可能であるため操作性の向上が図られるメリットがある。
また、球面Ssは、必ずしも中心が基準位置Prと一致するものである必要はなく、「注目被写体を観察する視点Pv」の観点においては、少なくとも注目被写体Stの周囲を覆う球面として設定されていればよい。
図11のフローチャートを参照し、上記により説明した実施形態としての視点設定手法を実現するための具体的な処理の手順を説明する。
本例では、図11に示す処理は、DSPで構成された仮想視点画像生成部13が実行する。
なお、図11では自動設定モード時における候補視点画像の表示手法として、図9Aのような順送り表示手法が採られる場合に対応した処理を例示する。
なお、ステップS104で先の図7Bで例示した視点Pvの設定手法を採る場合は、ステップS103の設定処理で前述した(1)の手法により注目被写体Stが設定されることが条件となる。
また、本例では、基準位置Prの設定は仮想視点画像生成部13が行うものとしているが、被写体解析部12が設定した基準位置Prの情報を仮想視点画像生成部13が取得する構成も採り得る。
このような候補視点画像の切り替え表示は、ステップS105で画像選択操作が行われるまで繰り返される。
これにより、注目被写体Stが、最新に行われたステップS103の処理で設定された注目被写体Stで維持される。
ステップS107で仮想視点画像生成部13は、ステップS103と同様に注目被写体の設定処理を行い、続くステップS108で初期視点による仮想視点画像の生成を開始する。初期視点は、簡易設定モードにおける視点Pvの設定操作(変更操作)を受け付けるにあたって初期的に設定される視点Pvである。初期視点としては、少なくともステップS107で設定した注目被写体Stを対象に設定した基準位置Prに基づく視点Pvであればよい。例えば、図7Aで説明した手法等により設定すればよい。注目被写体Stが前述した(1)の手法で設定された場合には、図7Bで説明した手法で設定することもできる。
視点変更操作があった場合、仮想視点画像生成部13はステップS110の視点変更処理として、該操作に応じた視点Pvの変更を行う。具体的に本例では、該操作に応じて、注目被写体Stの基準位置Prを中心とした球面Ssに沿って視点Pvを変化させる。
終了条件が成立していないと判定した場合、仮想視点画像生成部13はステップS109に戻って視点変更操作を待機する。これにより、終了条件が成立するまでの間、視点変更操作に応じて視点Pvの変更が行われる。
先の説明から理解されるように、「外向き視点」のモードでは、「内向き視点」のモードと比較して視点Pvが基準位置Prに設定され、視線方向Dvが視点Pvから外向きとされる点を除き、全体的な処理の流れは上記した「内向き視点」のモード時と同様となる。
そして、仮想視点画像生成部13は、視線方向変更操作があった場合は、ステップS121で視線方向Dvの変更を行い、ステップS122で変更後の視線方向Dvによる仮想視点画像の生成を開始する。
例えば、背番号や名前等、所定の選手属性情報の入力を受け付け、入力された選手属性情報から特定される選手としての被写体を注目被写体Stとして設定することができる。
或いは、それぞれに異なる選手が映し出された画像を候補画像として表示部62に順送りで表示(或いは同時表示)させ、操作により選択された候補画像の選手を注目被写体Stとして設定することもできる。
さらには、使用者が操作により三次元空間上に指定した位置(ターゲット位置)から近い順に選手の画像を順送りで表示(或いは同時表示)させ、選択された画像の選手を注目被写体Stとして設定することもできる。或いは、この際の選手の順送りは、選手の背番号(又は名前)の順番や、競技ボールの位置に近い順番等とすることもできる。
[2-1.第一変形例]
以下、実施形態の変形例について説明する。
第一変形例は、視点Pvの設定に係る変形例であり、図12と図13の設定例を挙げる。これら図12、図13の設定例は、上述した「内向き視点」のモードに対応した視点Pvの設定例となる。
先ず、図12Aに示すように、3人の選手としての被写体S1、S2、S3について、各被写体S同士の位置を通る直線L12、L13、L23上で、各被写体Sから外挿される位置に基準位置Pr12、Pr21、Pr13、Pr31、Pr23、Pr32を設定する。なお、この設定は、例えば仮想視点画像生成部13が行う。
図示のように、直線L12は被写体S1、S2の各位置を通る直線、直線L13は被写体S1、S3の各位置を通る直線、直線L23は被写体S2、S3の各位置を通る直線である。
基準位置Pr12は、直線L12上にあって、被写体S1と被写体S2との中点から見て被写体S1の奥側に位置されている。基準位置Pr21は、直線L12上にあって、被写体S1と被写体S2との中点から見て被写体S2の奥側に位置されている。
基準位置Pr13は、直線L13上にあって、被写体S1と被写体S3との中点から見て被写体S1の奥側に位置され、基準位置Pr31は、直線L13上にあって、被写体S1と被写体S3との中点から見て被写体S3の奥側に位置されている。
また、基準位置Pr23は、直線L23上にあって、被写体S2と被写体S3との中点から見て被写体S2の奥側に位置され、基準位置Pr32は、直線L23上にあって、被写体S2と被写体S3との中点から見て被写体S3の奥側に位置されている。
そして、これら角度α1、α2、α3のうち最小の角度を特定し、該最小の角度をなす直線Lの組を特定する。つまり図の例では直線L13と直線L23の組が特定される。
その上で仮想視点画像生成部13は、このように特定した二つの基準位置Prの中点を視点Pvとして設定する(図12C)。このとき、視線方向Dvとしては、視点Pvから直近の被写体(図の例では被写体S3)の位置に向かう方向に設定する。
また、2人の選手に追従する場合には、例えば、選手としての二つの被写体を通る直線に対し所定角度をなす直線上に視点Pvを設定する等の手法を採ることが考えられる。
具体的に、図13の変形例は、競技ボールを持っている注目被写体Stに対する視点Pvの設定例であり、この場合の仮想視点画像生成部13は、競技ボールの到達先、例えばゴールの位置に視点Pvを設定し、視線方向Dvは視点Pvから競技ボールとしての被写体Sbの位置方向に設定する。
なお、ゴールの位置は、例えば被写体解析部12で解析し、その結果を仮想視点画像生成部13が取得するものとすればよい。或いは、仮想視点画像生成部13にゴールの位置情報を予め記憶させておくこともできる。
第二変形例は、「外向き視点」時における視線方向Dvを被写体の向きに係る解析情報に基づき設定するものである。
ここで、以下の説明において、「外向き視点」、すなわち被写体から外方を観察する視点のことを「一人称視点」とも表記する。
先ず前提として、本例では、注目被写体Stの向きに係る解析情報として、顔の向きと姿勢の情報とを用いる。本例における被写体解析部12は、3Dモデル生成部11が生成した3Dモデルデータに基づき、人物としての被写体についてこれら顔の向き、姿勢の推定を行う。
姿勢は、前述した被写体の簡易モデルが該当する(図4参照)。後述するように本例では、このような簡易モデルから注目被写体Stの身体向きを推定する。
具体的には、図14に示すように、注目被写体Stの顔の向きと姿勢について、何れも取得できていない状況と、顔の向きのみが取得できている状況と、顔の向きと姿勢の双方が取得できている状況の三つの場合に大別する。そして本例では、これらの各場合について、さらに注目被写体Stの状態に応じた場合分け、具体的には停止(初期状態)、停止(定常状態)、及び移動の場合分けを行って、それぞれの場合に対応した手法によって視線方向Dvの設定を行う。
ここで、停止(初期状態)について、初期状態とは、注目被写体Stについて一人称視点としての視点Pvを設定した仮想視点画像(動画像)の開始タイミングを意味する。すなわち、停止(初期状態)とは、該初期状態において注目被写体Stが停止していることを意味する。
停止(定常状態)は、上記の初期状態以外で、注目被写体Stが停止している状態を意味する。
なお本例では、注目被写体Stの位置の情報については常時取得できる前提としている。
顔の向きと姿勢の何れも取得できない場合において、注目被写体Stが停止(初期状態)の状態のときは、視線方向Dvは予め定めた向きに設定する。具体的に、この場合の視線方向Dvは、コンテンツの種類に応じて予め定めた向きに設定する。例えば、被写体が競技選手でありコンテンツの種類がサッカーやバスケットボール等のゴール競技である場合には、予め定めた向きは、相手陣のゴール方向(自陣の得点源となるゴールの方向)とする。また、コンテンツがテニスやバドミントン等のコート競技である場合には、予め定めた向きは、注目被写体Stの自陣のコート側から見て相手陣のコート側の方向とする。また、注目被写体Stが通路を歩いているシーンであれば、予め定めた向きは通路の出口方向とする。
なお、上記の進行方向は、注目被写体Stの位置が変化する方向を意味するものであり、注目被写体Stの向きに係る解析情報ではなく、位置に係る解析情報に該当する。
なお、停止(定常状態)の状態が所定時間以上継続した際には、視線方向Dvは「予め定めた向き」に変更してもよい。
顔の向きのみが取得できた場合においては、注目被写体Stが停止の状態であるとき、つまり初期状態、定常状態を問わず停止の状態のとき、視線方向Dvは顔の向きから推定した向きとする。具体的に、この際の視線方向Dvは、処理対象時刻を含む特定期間内における顔の向きの代表値とする。
ここで、「処理対象時刻」は、本例では処理対象としているフレームを意味し、処理対象時刻を含む特定期間とは、処理対象のフレームを含む複数フレームの期間を意味する。本例では、処理対象時刻を含む特定期間としては、処理対象時刻から過去側の期間のみでなく、処理対象時刻から未来側の期間を含む期間としている。
顔の向きの代表値としては、例えば上記特定期間内における顔の向きの平均値を用いる。すなわち、例えば上記特定期間が、処理対象のフレームを基準とした過去側3フレーム、及び未来側3フレームの計7フレームの期間であるとしたとき、顔の向きの平均値は、これら7つの各フレームについて得られた顔の向きの値の平均値とする。
或いは、顔の向きの代表値としては、上記特定期間内における顔の向きの中央値とすることもできる。ここで、中央値は、有限個のデータを小さい順に並べたとき中央に位置する値を意味する。例えば、上記特定期間を上記した7つのフレームによる期間として、各フレームの時刻を過去から未来側にかけて時刻[t-3][t-2][t-1][t][t+1][t+2][t+3]としたとき、これら時刻ごとの顔の向きの値が仮に「5」「7」「6」「10」「5」「9」「8」であれば、顔の向きの中央値は、各値を小さい順に並べたときの中央の値、すなわち「5」「5」「6」「7」「8」「9」「10」の中央に位置する値である「7」となる。なお、有限個のデータの数が偶数であり、中央に位置する値が二つとなる場合、中央値は該二つの値の平均値とする。
先ず、注目被写体Stの進行速度と顔の向きの変化速度について、それぞれ「速い」「遅い」の組合わせによる計4通りの場合分けを行う。そして、これら4通りの各場合について、さらに注目被写体Stの進行方向と顔の向きが同じ場合、異なる場合の2通りの場合分けを行い、合計で8通りの場合に分ける。
進行速度について、「遅い」の目安としては、例えば平均的な歩行速度である5km/h程度を挙げることができ、「速い」の目安として例えばジョギング程度の速度である12km/h程度を挙げることができる。
また、顔の向きの変化速度について、「遅い」の目安は例えば50deg/s程度を挙げることができ、「速い」の目安は例えば90deg/s程度を挙げることができる。
なお、閾値THs、閾値THfについては、例えばコンテンツの種類等に応じて可変とすることもできる。
また、進行速度が「遅い」、顔の向きの変化速度が「速い」場合において、進行方向と顔の向きが同じであるときは、視線方向Dvは進行方向に設定し、また同場合において、進行方向と顔の向きが異なるときは、視線方向Dvは顔の向きの代表値に設定する。
すなわち、進行速度が「遅い」場合には、顔の向きの変化速度に拘わらず、進行方向と顔の向きが同じであれば視線方向Dvを進行方向に設定し、進行方向と顔の向きが異なれば視線方向Dvを顔の向きの代表値に設定する。
また、進行速度と顔の向きの変化速度が共に「速い」場合においては、進行方向と顔の向きが同じであるか否かに拘わらず、視線方向Dvは進行方向に設定する。
すなわち、進行速度が「速い」状況においては、顔の向きの変化速度が遅ければ視線方向Dvを顔の向きに追従させ、顔の向きの変化速度が速ければ視線方向Dvを顔の向きに追従させず、進行方向に設定するものとしている。これにより、仮想視点画像の表示内容が目まぐるしく変化することの防止が図られ、仮想視点画像を観察するユーザの違和感や疲労(例えば目の疲れ等)の緩和を図ることができる。
該場合において、注目被写体Stが停止の状態(この場合も初期状態、定常状態を問わず)であるときは、視線方向Dvは姿勢から推定した向きに設定する。
また、注目被写体Stが移動の状態であれば、視線方向Dvは姿勢から推定した向き、該向きの変化速度、及び進行方向に基づく向きに設定する。
この身体向きは、被写体解析部12で得られる注目被写体Stの簡易モデルから推定されるもので、具体的には、図16に示すように、簡易モデルにおける胴体部(例えば四角形)の法線方向として求められる。ここで、該法線方向としては互いが逆方向の関係となる二つの方向が存在するが、身体向きとしては、該法線方向のうち、注目被写体Stの鼻が存在する側の方向を選択する。すなわち、ここでの身体向きとは、注目被写体Stの正面の向きと換言できるものである。
このため本例では、注目被写体Stの向きに係る解析情報の取得状況について、図14に示したような場合分けを行っている。
図示のように該場合については、身体向きの変化速度の「遅い」「速い」による場合分けを行うと共に、身体向きの変化速度が「速い」場合について、さらに進行方向と身体向きの「同じ」「異なる」による場合分けを行っている。
身体向きについては、上述した顔の向きとの比較で下肢や体幹の旋回速度も加わりより速い回転が可能となるので、その点を考慮して閾値THbは上述した閾値THfよりも大きな値とすることが考えられる。
なお、閾値THbについてもコンテンツの種類等に応じて可変とすることもできる。
一方、身体向きの変化速度が「速い」場合において、進行方向と身体向きとが「同じ」場合は、視線方向Dvは身体向きの代表値とし、進行方向と身体向きとが「異なる」場合は、視線方向Dvは進行方向とする。
このように身体向きについても、変化速度が「速い」場合には、視線方向Dvを向きの変化に追従させないようにしている。
なお、本例において、図18に示す処理の実行主体は仮想視点画像生成部13である。
顔の向きが取得できていれば、仮想視点画像生成部13はステップS202に進み、姿勢の情報が取得できているか否か、すなわち被写体解析部12より注目被写体Stの簡易モデルの情報が取得できているか否かを判定する。
これらステップS201及びS202の処理により、注目被写体Stの向きに係る解析情報として顔の向き、姿勢の何れも取得できていない場合、顔の向きのみが取得できている場合、又は顔の向きと姿勢の双方が取得できている場合の何れの場合に該当するかが判定される。
これらステップS203及びS204の処理により、注目被写体Stの状態が、停止(初期状態)の状態、停止(定常状態)の状態、移動の状態の何れの状態に該当するかが判定される。
なお、注目被写体Stの移動/停止に係る判定は、被写体解析部12で得られる注目被写体Stの位置の情報に基づいて行う。
なお、視線方向Dvを進行方向とする際、進行方向としては、特定期間内の代表値を用いることもできる。
移動の状態でなければ、仮想視点画像生成部13はステップS210に進み、視線方向Dvを顔の向きから推定した向きとする、すなわち視線方向Dvを顔の向きの特定期間内における代表値とする処理を行って、図18に示す処理を終える。
なお、注目被写体Stの進行方向と進行速度、顔の向き、及び顔の向きの変化速度に基づく向きの具体的な設定手法については、既に図14を参照して説明済みであるため重複説明は避ける。
移動の状態でなければ、仮想視点画像生成部13はステップS212に進み、視線方向Dvを身体向きとする、すなわち視線方向Dvを身体向きの特定期間内における代表値とする処理を行って、図18に示す処理を終える。
なお、注目被写体Stの進行方向と進行速度、身体向き、及び身体向きの変化速度に基づく向きの具体的な設定手法は、図17を参照して説明した手法と同様の手法であり、重複説明は避ける。
これにより、例えば注目被写体Stの顔の向きや身体向き等、被写体の向きに係る解析情報の取得状況に応じた適切な視線方向Dvの設定を行うことが可能とされる。従って、一人称視点の仮想視点画像として、適切な視線方向Dvによる画像を提供することができる。
第三変形例は、仮想視点画像の視線方向Dvと被写体の視線の向きとのずれに応じた情報をユーザに報知するものである。
図19は、第三変形例としての画像処理システム100’の構成についての説明図である。
図1に示した画像処理システム100との差異点は、画像処理装置1に代えて画像処理装置1’が設けられた点と、表示装置7に代えてHMD(ヘッドマウントディスプレイ)51が設けられた点である。
なお図示は省略したが、図19に示す画像処理システム100’としても、図1に示した画像処理システム100と同様に、複数の撮像装置2とパラメータ記録装置4とを備えている。また、画像処理システム100’においても、図1に示した画像記録装置8が設けられてもよい。
本例の画像処理システム100’は、HMD51の画面上に表示される仮想視点画像の視線方向Dvを、HMD51が装着されたユーザの頭部の動き(回動)に応じて変更する機能を有する。このために、HMD51には、ユーザの頭部の動きを検出するための例えばジャイロセンサ等の動き検出デバイスが搭載されている。仮想視点画像生成部13’は、HMD51の動き検出デバイスによる検出信号に基づき、HMD51に出力する仮想視点画像の視線方向Dvを変更可能に構成されている。
しかしながら、注目被写体Stの身体向きや顔の向きは、必ずしも注目被写体Stの視線の向きと一致するものとは言えず、これら身体向きや顔の向きと視線の向きとが一致しない場合には、ユーザに表示する仮想視点画像として、注目被写体Stの視野を適切に再現した画像を提供することができない。
先ず、以下の説明では、仮想視点画像の視線方向Dvと注目被写体Stの視線の向きとの混同防止のため、注目被写体Stの視線の向きは「視線の向きDrv」と表記する。
なお確認しておくと、視線方向Dvは、仮想視点画像の視野を決定づける要素の一つであって、視線Pvから何れの方向を観察した画像とするかを定めるためのパラメータである。この意味で、「視線方向Dv」については、仮想視点画像の「観察方向」と表記することもある。
HMD51を装着したユーザは、常に頭部を左右に振るということは考え難く、基本的には、顔が正面側を向いていることを前提とすることができる。そのため、仮想視点画像の視線方向Dvは、注目被写体Stの身体向きと一致させることが望ましい。このように視線方向Dvを注目被写体Stの身体向きと一致させることで、ユーザと注目被写体Stとの間で身体向きを揃えることができる。
なお、第二変形例で説明した視線方向Dvの設定手法によると、身体向きの情報が取得できない場合には顔の向きに基づく視線方向Dvが設定され、顔の向きも取得できない場合には進行方向が視線方向Dvとして設定される。
本例では、視線の向きDrvについても、第二変形例の場合と同様に注目被写体Stの向きに係る解析情報の取得状況に基づき、設定手法を選択するものとしている。
ここで、注目被写体Stの瞳の向きは、被写体解析部12により推定する。
ここでの「瞳」とは、瞳孔のみを指す狭義の意味だけでなく、瞳孔と虹彩とを合わせた部分を指す広義の意味も含むものとする。本例では、瞳の向きは、顔の向きの情報と瞳についての検出情報とに基づいて推定される。換言すれば、瞳の向きは顔の向きが取得されている場合に取得可能な情報とされる。
本例では、顔の向きに対して所定の回転を加えた方向を視線の向きDrvの推定値とする。このような推定値の特定期間内における代表値を視線の向きDrvとして取得する。
図22は、その一例を示しており、視点Pvの位置が注目被写体Stの目の位置付近に設定されるように視点Pvにオフセットを加えている。
図23は、視線方向Dvと視線の向きDrvとのずれが生じている場合における注目被写体Stの視野とユーザの視野との関係を例示している。
図中の画像Gaは、視点Pvを注目被写体Stの一人称視点とした場合における全天球画像による仮想視点画像を表している。図中に表示画像Gtとして示す、HMD51に表示させる仮想視点画像は、図示のように画像Gaの一部を切り取ったものに相当すると言うことができる。ユーザの視野は、この表示画像Gtにより定まる。
本報知例では、視線方向Dvと視線の向きDrvとのずれに応じた情報として、視線方向Dvを視線の向きDrvに一致させるための視線合わせ案内情報を提示する。具体的には、図24Aに示すように、視線方向Dvを視線の向きDrvに一致させるための方向指示情報H1(本例では矢印状の図形としている)が表示画像Gaにおいて提示されるようにする。
図24Bは、図24Aに示す表示画像Gtを抽出して示した図である。
図25は、図24Bの状態から視線方向Dvが視線の向きに一致する側に変化された場合の表示画像Gtを示している。目標方向情報H2は、視線の向きDrvが表示画像Gtの視野内にある状態において、表示画像Gt内に提示する。なお、図中では目標方向情報H2として十字形状の図形を提示する例を示しているが、目標方向情報H2の提示態様はこれに限定されるものではない。
このような目標方向情報H2の提示により、方向合わせの目標をユーザに的確且つ直感的に認識させることができる。
本報知例では、表示画像Gtにおける注目被写体Stの視野との重複部分と非重複部分とについて、両部分を異なる表示態様で表示させる。すなわち、図26Aに示すように、表示画像Gtにおける注目被写体Stの視野と重複する部分を重複部分Ai、重複しない部分を非重複部分Aoとしたとき、これら重複部分Aiと非重複部分Aoとを異なる表示態様で表示させる。具体的に、本例では、重複部分Aiをカラー表示し、非重複部分Aoはモノクロ表示等、重複部分Aiよりも彩度を落とした表示とする。
このような重複部分Aiと非重複部分Aoの表示によると、視線の向きDrvが左右何れの方向に存在しているかが示される。すなわち、これら重複部分Aiと非重複部分Aoとによる情報の提示は前述した視線合わせ案内情報の提示に該当する。
本例では、図27に示す処理は仮想視点画像生成部13’が実行する。
瞳の向きが取得できていない場合(つまり顔の向きのみが取得できている場合)、仮想視点画像生成部13’はステップS303に進み、視線の向きDrvを、顔の向きに基づき推定した向きとする処理を行って図27に示す処理を終える。つまり本例では、顔の向きに対して所定の回転を加えた方向を視線の向きDrvの推定値とし、該推定値の特定期間内における代表値を視線の向きDrvとする処理を行う。
なお、図28に示す処理は、本例では仮想視点画像生成部13’が前述した報知処理部52の処理として実行する。
また、図26の報知例の場合には、視線の向きDrvに基づいて注目被写体Stの視野を推定し、推定した視野に基づいて仮想視点画像(表示画像Gt)における重複部分Aiと非重複部分Aoとを特定し、例えば重複部分Aiをカラー、非重複部分Aoを低彩度とした仮想視点画像を生成する。
第四変形例は、一人称視点と三人称視点の切り替えに係るものである。
ここで、三人称視点は、前述した「内向き視点」、すなわち被写体を観察する視点と同義である。
第四変形例において、仮想視点画像により提供するコンテンツはスポーツであるとする。
例えば、サッカー等の多人数且つ広い空間を移動する競技については、全体的な競技の把握を優先させて三人称視点を自動設定することが考えられる。また、ボクシング等の少人数且つ狭い空間を移動する競技については、臨場感を優先させて一人称視点を自動設定することが考えられる。
また、注目被写体Stがインプレイかアウトプレイかの状態差違に応じて三人称視点と一人称視点の切り替えを行うこともできる。例えば、バスケットボール競技であれば、注目被写体Stがボールを持っていれば一人称視点、ボールをもっていなければ三人称視点に切り替えることが考えられる。
また、注目被写体Stが野球のバッターであるとき、ボールを打つまでは一人称視点、打った後は三人称視点に切り替えることも考えられる。
例えば、仮想視点画像の表示デバイスがHMD51等の特定表示デバイスであれば一人称視点、特定表示デバイス以外の場合には三人称視点に切り替えを行う等である。
例えば、再生中に巻き戻し操作が行われたとき、巻き戻し後の再生時に三人称視点から一人称視点、又は一人称視点から三人称視点への切り替えを行うことが考えられる。このような巻き戻し操作に応じた切り替えは、例えばクロスプレーなどもう一度視点を変えて見たい場合等に好適である。
第五変形例は、システム構成に係る変形例である。
図29は、第五変形例における画像処理システム100Aの構成例を示している。
なお以下の説明において、既に説明済みとなった部分と同様となる部分については同一符号を付して説明を省略する。
画像処理システム100Aにおいては、先の図1に示した画像処理システム100と比較して、データ記録装置9が追加され、またこのデータ記録装置9と画像処理装置1、入力装置6、表示装置7、及び画像記録装置8がそれぞれネットワーク50を介して通信可能に接続されている点が異なる。
なお、ネットワーク50は、例えばインターネットとされる。
図30は、第六変形例における画像処理システム100Bの構成例を示している。
第六変形例は、第五変形例と同様のデータ記録装置9を設けて、仮想視点画像の生成をオフライン処理として実現可能とするものである。
図30では、一例として、3Dモデルデータと被写体解析情報Iaとをデータ記録装置9に記録しておき、これら記録された3Dモデルデータと被写体解析情報Iaを表示装置7Aが取得して仮想視点画像の生成を行う場合を例示する。
データ記録装置9と表示装置7Aは、ネットワーク50を介して相互にデータ通信を行うことが可能とされている。
被写体解析装置12’は、3Dモデル生成装置11’が生成した3Dモデルデータに基づいて被写体解析部12と同様の被写体解析処理を行って被写体解析情報Iaを得る。
3Dモデル生成装置11’が生成した3Dモデルデータ、及び被写体解析情報Iaはデータ記録装置9に記録される。
このような表示装置7Aは、例えばノート型のパーソナルコンピュータや携帯電話機、タブレット端末等、可搬性を有する情報処理装置として実現することが可能である。
この場合、被写体の位置に基づいた視点Pvの設定は、例えば上記の外部装置が少なくとも3Dモデルデータと被写体解析情報Iaに基づいて行う。そして、表示装置7Aにおける仮想視点画像生成部13は、このように設定された視点Pvの情報に基づいて仮想視点画像の生成を行う。なお、この場合も仮想視点画像生成部13としては、被写体の動きに追従して視点Pvが変化される仮想視点画像を生成していることに変わりはない。
本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、手術室システムに適用されてもよい。
支持アーム装置5141は、ベース部5143から延伸するアーム部5145を備える。図示する例では、アーム部5145は、関節部5147a、5147b、5147c、及びリンク5149a、5149bから構成されており、アーム制御装置5159からの制御により駆動される。アーム部5145によって内視鏡5115が支持され、その位置及び姿勢が制御される。これにより、内視鏡5115の安定的な位置の固定が実現され得る。
内視鏡5115は、先端から所定の長さの領域が患者5185の体腔内に挿入される鏡筒5117と、鏡筒5117の基端に接続されるカメラヘッド5119と、から構成される。図示する例では、硬性の鏡筒5117を有するいわゆる硬性鏡として構成される内視鏡5115を図示しているが、内視鏡5115は、軟性の鏡筒5117を有するいわゆる軟性鏡として構成されてもよい。
CCU5153は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡5115及び表示装置5155の動作を統括的に制御する。具体的には、CCU5153は、カメラヘッド5119から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5153は、当該画像処理を施した画像信号を表示装置5155に提供する。また、CCU5153には、図31に示す視聴覚コントローラ5107が接続される。CCU5153は、画像処理を施した画像信号を視聴覚コントローラ5107にも提供する。また、CCU5153は、カメラヘッド5119に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。当該撮像条件に関する情報は、入力装置5161を介して入力されてもよいし、上述した集中操作パネル5111を介して入力されてもよい。
支持アーム装置5141は、基台であるベース部5143と、ベース部5143から延伸するアーム部5145と、を備える。図示する例では、アーム部5145は、複数の関節部5147a、5147b、5147cと、関節部5147bによって連結される複数のリンク5149a、5149bと、から構成されているが、図33では、簡単のため、アーム部5145の構成を簡略化して図示している。実際には、アーム部5145が所望の自由度を有するように、関節部5147a~5147c及びリンク5149a、5149bの形状、数及び配置、並びに関節部5147a~5147cの回転軸の方向等が適宜設定され得る。例えば、アーム部5145は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5145の可動範囲内において内視鏡5115を自由に移動させることが可能になるため、所望の方向から内視鏡5115の鏡筒5117を患者5185の体腔内に挿入することが可能になる。
光源装置5157は、内視鏡5115に術部を撮影する際の照射光を供給する。光源装置5157は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5157において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5119の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
図34を参照して、内視鏡5115のカメラヘッド5119及びCCU5153の機能についてより詳細に説明する。図34は、図33に示すカメラヘッド5119及びCCU5153の機能構成の一例を示すブロック図である。
例えば、術場カメラ5189を用いて仮想視点画像を生成する場合、被写体は術者(執刀医、助手、看護師等)、患者、術器具等が対象となる。シーリングカメラ5187を用いて仮想視点画像を生成する場合、被写体は術器具や患者の臓器等が対象となり得る。
本開示に係る技術は、例えば、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
以上説明してきたように実施形態の画像処理装置(同1又は1’又は表示装置7A)は、撮像された被写体を三次元空間上で表した三次元情報に基づき、三次元空間上の視点からの観察画像を仮想視点画像として生成する仮想視点画像生成部(同13又は13’)を備え、仮想視点画像生成部は、被写体の動きに追従して前記視点を設定している。
従って、仮想視点画像の生成に係る作業負担の軽減を図ることができる。
従って、視点の設定自由度の向上を図りつつ、視点の被写体への追従精度の向上を図ることができる。
適切な三次元情報が得られることで、仮想視点画像の画質向上を図ることができる。
例えば、基準位置が人物の両肩中心に設定されることで、例えばバスケットボール競技等、手を使用する競技について特に選手の技能を捉えやすい視点設定が可能とされる。また、基準位置が例えば人物の顔中心に設定されることで、仮想視点画像として選手の顔の表情を映し出す画像や、選手の目から見える状況を刻々と映し出した臨場感の高い画像を得ることが可能とされる。
従って、競技選手等の人物の動きの分析や研究に好適な仮想視点画像を提供することができる。
従って、選手の動きについての分析や研究に好適な仮想視点画像を提供することができる。
従って、仮想視点画像の生成に係る作業負担の軽減を図ることができる。
なお、被写体の属性情報は、例えばIDや名前等、被写体の属性に関する情報を意味する。
従って、仮想視点画像の生成に係る作業負担の軽減を図ることができる。
従って、視点の設定自由度の向上を図りつつ、仮想視点画像の生成に係る作業負担の軽減を図ることができる。
従って、仮想視点画像の生成に係る作業負担の軽減を図る上で、使用者が視点選択を行い易い優れたユーザインタフェースを実現することができる。
従って、仮想視点画像の生成に係る作業負担の軽減を図る上で、使用者が視点選択を行い易い優れたユーザインタフェースを実現することができる。
従って、選手等の被写体の動きを多角的に捉える仮想視点画像を生成することができ、被写体の動きの分析や研究に好適である。
従って、仮想視点画像の生成に係る作業負担の軽減を図りつつ、視点設定位置の自由度向上を図ることができる。
従って、一人称視点の仮想視点画像として、適切な視線方向による画像を提供することができる。
従って、仮想視点画像の視線方向が頻繁に変化する画像を見せられることによるユーザの画像酔いの発生防止を図ることができる。
例えば競技選手等の人物が進行中(移動中)である場合、該人物は進行方向を向いている可能性が高い。従って、進行方向に基づき視線方向を設定することで、被写体の向きに係る解析情報が得られなくとも、被写体が向いている可能性の高い方向を視線方向とした適切な仮想視点画像を提供することができる。
従って、ユーザが仮想視点画像の視線方向を被写体の視線の向きに合わせる際の利便性を高めることができる。
また、上述した第三変形例では、被写体の視線の向きの変化に連動して仮想視点画像の視線方向を(自動的に)変化させるものとはせず、視線方向はユーザの操作(本例では頭部の動き)によって変化させる手法としているので、被写体の視線の向きが目まぐるしく変わる場合に視線方向も連動して目まぐるしく変わるといったことの防止が図られ、画像酔いの防止を図ることができる。
従って、ユーザが仮想視点画像の視線方向を被写体の視線の向きに合わせる際の利便性を高めることができる。
従って、ユーザが仮想視点画像の視線方向を被写体の視線の向きに合わせる際の利便性を高めることができる。
本技術は上記した具体例に限定されるものではなく、多様な変形例が考えられる。
例えば、上記では、被写体解析や視点の設定、仮想視点画像の生成に係る処理がDSPによる画像処理プロセッサにより行われる例としたが、これらの処理のうち少なくとも一部については、CPUやGPUによるソフトウェア処理として実現することもできる。該ソフトウェア処理は、プログラムに基づき実行され、該プログラムは、上記のCPUやGPU等のコンピュータ装置が読み出し可能な記憶装置に記憶される。
さらに、本技術において、撮像画像としてはR(赤)G(緑)B(青)による撮像画像のみでなく、近赤外光や赤外光、或いは偏光を受光して得られる撮像画像も含み得るものである。
なお本技術は以下のような構成も採ることができる。
(1)
撮像された被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する仮想視点画像生成部を備え、
前記仮想視点画像生成部は、
前記被写体の動きに追従して前記視点を設定する
画像処理装置。
(2)
前記三次元情報に基づいて前記被写体の解析情報を取得する被写体解析部を備え、
前記仮想視点画像生成部は、前記解析情報に基づき、前記仮想視点画像の視点設定に用いられる基準位置を設定する
前記(1)に記載の画像処理装置。
(3)
複数の撮像装置の撮像画像と前記撮像画像に対応する撮像条件とを含む撮像情報に基づいて前記三次元情報を生成する三次元情報生成部を備える
前記(1)又は(2)に記載の画像処理装置。
(4)
前記被写体として人物が対象とされており、
前記仮想視点画像生成部は、前記基準位置を前記人物の身体的中心に設定する
前記(2)又は(3)に記載の画像処理装置。
(5)
前記仮想視点画像生成部は、前記視点を前記被写体の位置情報に基づき設定する
前記(1)乃至(4)の何れかに記載の画像処理装置。
(6)
前記被写体として人物が対象とされており、
前記仮想視点画像生成部は、前記視点を前記被写体の属性情報に基づき設定する
前記(1)乃至(4)の何れかに記載の画像処理装置。
(7)
前記仮想視点画像生成部は、前記視点を前記三次元空間上に指定されたエリア情報に基づき設定する
前記(1)乃至(4)の何れかに記載の画像処理装置。
(8)
前記仮想視点画像生成部は、前記視点を操作入力に基づき設定する
前記(1)乃至(7)の何れかに記載の画像処理装置。
(9)
前記仮想視点画像を表示する表示部を備え、
前記表示部は、前記視点の設定手法が異なる複数の前記仮想視点画像を候補視点画像として順送りに表示し、
前記仮想視点画像生成部は、前記候補視点画像についての選択操作に基づき前記視点を設定する
前記(8)に記載の画像処理装置。
(10)
前記仮想視点画像を表示する表示部を備え、
前記表示部は、前記視点の設定手法が異なる複数の前記仮想視点画像を候補視点画像として並べて表示し、
前記仮想視点画像生成部は、前記候補視点画像についての選択操作に基づき前記視点を設定する
前記(8)に記載の画像処理装置。
(11)
前記仮想視点画像生成部は、前記視点として、前記被写体を観察する視点と前記被写体から外方を観察する視点との切り替えを可能とする
前記(1)乃至(10)の何れかに記載の画像処理装置。
(12)
前記仮想視点画像生成部は、前記視点を、操作に応じて前記被写体の周囲を覆う球面に沿って設定する
前記(1)乃至(11)の何れかに記載の画像処理装置。
(13)
前記被写体として人物が対象とされており、
前記仮想視点画像生成部は、
前記視点として、前記被写体から外方を観察する視点である一人称視点を設定すると共に、
前記一人称視点からの視線方向の設定手法を、前記被写体の向きに係る解析情報の取得状況に基づき選択する
前記(1)乃至(12)の何れかに記載の画像処理装置。
(14)
前記仮想視点画像生成部は、
前記視線方向の設定手法を、前記取得状況と前記被写体の向きの変化速度とに基づき選択する
前記(13)に記載の画像処理装置。
(15)
前記仮想視点画像生成部は、
前記視線方向を、前記取得状況と前記被写体の進行方向とに基づき設定する
前記(13)又は(14)に記載の画像処理装置。
(16)
前記被写体として人物が対象とされており、
前記仮想視点画像生成部は、
前記視点として、前記被写体から外方を観察する視点である一人称視点を設定し、前記視点からの視線方向を前記被写体の向きに係る解析情報に基づき設定し、
前記視線方向と前記被写体の視線の向きとのずれに応じた情報をユーザに報知するための処理を行う報知処理部を備える
前記(1)乃至(15)の何れかに記載の画像処理装置。
(17)
前記報知処理部は、
前記仮想視点画像の視線方向を前記被写体の視線の向きに一致させるための視線合わせ案内情報を前記仮想視点画像と共に表示させるための処理を行う
前記(16)に記載の画像処理装置。
(18)
前記報知処理部は、
前記被写体の視線の向きに基づき前記被写体の視野を推定し、前記仮想視点画像における前記被写体の視野との重複部分と非重複部分とについて、両部分を異なる表示態様で表示させる処理を行う
前記(16)又は(17)に記載の画像処理装置。
Claims (12)
- 撮像された被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する仮想視点画像生成部を備え、
前記仮想視点画像生成部は、
前記被写体の動きに追従して前記視点を設定すると共に、前記視点を、操作に応じて前記被写体の周囲を覆う球面に沿って設定する
画像処理装置。 - 撮像された被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する場合に、前記被写体の動きに追従して前記視点を設定すると共に、前記視点を、操作に応じて前記被写体の周囲を覆う球面に沿って設定する
画像処理方法。 - 撮像された被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する場合に、前記被写体の動きに追従して前記視点を設定すると共に、前記視点を、操作に応じて前記被写体の周囲を覆う球面に沿って設定する処理を、コンピュータ装置に実行させる
プログラム。 - 撮像された被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する仮想視点画像生成部を備え、
前記被写体として人物が対象とされており、
前記仮想視点画像生成部は、
前記被写体の動きに追従して前記視点を設定し、前記視点として、前記被写体から外方を観察する視点である一人称視点を設定すると共に、前記一人称視点からの視線方向の設定手法を、前記被写体の向きに係る解析情報の取得状況に基づき選択する
画像処理装置。 - 前記仮想視点画像生成部は、
前記視線方向の設定手法を、前記取得状況と前記被写体の向きの変化速度とに基づき選択する
請求項4に記載の画像処理装置。 - 前記仮想視点画像生成部は、
前記視線方向を、前記取得状況と前記被写体の進行方向とに基づき設定する
請求項4に記載の画像処理装置。 - 撮像された人物としての被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する場合に、前記被写体の動きに追従して前記視点を設定し、前記視点として、前記被写体から外方を観察する視点である一人称視点を設定すると共に、前記一人称視点からの視線方向の設定手法を、前記被写体の向きに係る解析情報の取得状況に基づき選択する
画像処理方法。 - 撮像された人物としての被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する場合に、前記被写体の動きに追従して前記視点を設定し、前記視点として、前記被写体から外方を観察する視点である一人称視点を設定すると共に、前記一人称視点からの視線方向の設定手法を、前記被写体の向きに係る解析情報の取得状況に基づき選択する処理を、コンピュータ装置に実行させる
プログラム。 - 撮像された被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する仮想視点画像生成部を備え、
前記被写体として人物が対象とされており、
前記仮想視点画像生成部は、
前記被写体の動きに追従して前記視点を設定すると共に、前記視点として、前記被写体から外方を観察する視点である一人称視点を設定し、前記視点からの視線方向を前記被写体の向きに係る解析情報に基づき設定し、
前記視線方向と前記被写体の視線の向きとのずれに応じた情報をユーザに報知するための処理を行う報知処理部を備え、
前記報知処理部は、
前記被写体の視線の向きに基づき前記被写体の視野を推定し、前記仮想視点画像における前記被写体の視野との重複部分と非重複部分とについて、両部分を異なる表示態様で表示させる処理を行う
画像処理装置。 - 前記報知処理部は、
前記仮想視点画像の視線方向を前記被写体の視線の向きに一致させるための視線合わせ案内情報を前記仮想視点画像と共に表示させるための処理を行う
請求項9に記載の画像処理装置。 - 撮像された人物としての被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する場合に、前記被写体の動きに追従して前記視点を設定すると共に、前記視点として、前記被写体から外方を観察する視点である一人称視点を設定し、前記視点からの視線方向を前記被写体の向きに係る解析情報に基づき設定し、
前記視線方向と前記被写体の視線の向きとのずれに応じた情報をユーザに報知するための処理において、前記被写体の視線の向きに基づき前記被写体の視野を推定し、前記仮想視点画像における前記被写体の視野との重複部分と非重複部分とについて、両部分を異なる表示態様で表示させる
画像処理方法。 - 撮像された人物としての被写体を三次元空間上で表した三次元情報に基づき、前記三次元空間上の視点からの観察画像を仮想視点画像として生成する場合に、前記被写体の動きに追従して前記視点を設定すると共に、前記視点として、前記被写体から外方を観察する視点である一人称視点を設定し、前記視点からの視線方向を前記被写体の向きに係る解析情報に基づき設定する処理と、
前記視線方向と前記被写体の視線の向きとのずれに応じた情報をユーザに報知するための処理において、前記被写体の視線の向きに基づき前記被写体の視野を推定し、前記仮想視点画像における前記被写体の視野との重複部分と非重複部分とについて、両部分を異なる表示態様で表示させる処理と、をコンピュータ装置に実行させる
プログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017138039 | 2017-07-14 | ||
JP2017138039 | 2017-07-14 | ||
JP2018079061 | 2018-04-17 | ||
JP2018079061 | 2018-04-17 | ||
PCT/JP2018/020129 WO2019012817A1 (ja) | 2017-07-14 | 2018-05-25 | 画像処理装置、画像処理装置の画像処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019012817A1 JPWO2019012817A1 (ja) | 2020-05-07 |
JP7322703B2 true JP7322703B2 (ja) | 2023-08-08 |
Family
ID=65002380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019528962A Active JP7322703B2 (ja) | 2017-07-14 | 2018-05-25 | 画像処理装置、画像処理装置の画像処理方法、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US11727642B2 (ja) |
EP (1) | EP3654294A4 (ja) |
JP (1) | JP7322703B2 (ja) |
CN (1) | CN110892455A (ja) |
WO (1) | WO2019012817A1 (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9332285B1 (en) * | 2014-05-28 | 2016-05-03 | Lucasfilm Entertainment Company Ltd. | Switching modes of a media content item |
US11612306B2 (en) * | 2017-11-01 | 2023-03-28 | Sony Corporation | Surgical arm system and surgical arm control system |
JP7218105B2 (ja) * | 2018-06-20 | 2023-02-06 | キヤノン株式会社 | ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム |
JP7233867B2 (ja) * | 2018-07-20 | 2023-03-07 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
JP6643417B2 (ja) * | 2018-08-02 | 2020-02-12 | Hapsモバイル株式会社 | システム、制御装置及び軽航空機 |
JP7267753B2 (ja) * | 2019-01-21 | 2023-05-02 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
IL264530B1 (en) * | 2019-01-29 | 2024-03-01 | Eyeway Vision Ltd | Device for tracking eye movement and method therefor |
JP2020126208A (ja) * | 2019-02-06 | 2020-08-20 | オリンパス株式会社 | 3次元画像表示方法、3次元画像表示装置、およびプログラム |
JP7353782B2 (ja) * | 2019-04-09 | 2023-10-02 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US10978019B2 (en) | 2019-04-15 | 2021-04-13 | XRSpace CO., LTD. | Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium |
KR102149732B1 (ko) * | 2019-04-17 | 2020-08-31 | 라쿠텐 인코포레이티드 | 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체 |
EP3734415A1 (en) * | 2019-04-30 | 2020-11-04 | XRSpace CO., LTD. | Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium |
GB2584276B (en) * | 2019-05-22 | 2023-06-07 | Sony Interactive Entertainment Inc | Capture of a three-dimensional representation of a scene |
JP7455524B2 (ja) * | 2019-07-11 | 2024-03-26 | キヤノン株式会社 | 情報処理装置、設定方法、及びプログラム |
JP7418101B2 (ja) * | 2019-07-26 | 2024-01-19 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7291224B2 (ja) * | 2019-07-26 | 2023-06-14 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、及びプログラム |
KR102161306B1 (ko) * | 2019-09-17 | 2020-10-05 | 주식회사 영국전자 | 이동형 ptz카메라의 영상에서의 팬 각도 보정방법 |
JP7344096B2 (ja) * | 2019-11-19 | 2023-09-13 | 日本放送協会 | 触覚メタデータ生成装置、映像触覚連動システム、及びプログラム |
KR20240025055A (ko) * | 2020-01-30 | 2024-02-26 | 아마텔러스 인크. | 영상 배신 장치, 영상 배신 시스템, 영상 배신 방법 및 프로그램 |
DE112021002004T5 (de) * | 2020-03-30 | 2023-03-02 | Sony Group Corporation | Bildverarbeitungseinrichtung, Bildverarbeitungsverfahren und Generierungsverfahren von 3D-Modell-Daten |
EP3902244B1 (en) * | 2020-04-23 | 2022-03-23 | Axis AB | Controlling a pan-tilt-zoom camera |
JP7467612B2 (ja) | 2020-04-27 | 2024-04-15 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US11463555B2 (en) * | 2020-08-04 | 2022-10-04 | Nxp B.V. | Local interconnect network (LIN) messaging between LIN partitions separated by a backbone communication network |
JP2022073651A (ja) * | 2020-11-02 | 2022-05-17 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP2022077380A (ja) * | 2020-11-11 | 2022-05-23 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2022090786A (ja) * | 2020-12-08 | 2022-06-20 | キヤノン株式会社 | 情報処理装置、画像生成装置、画像処理システム、情報処理方法、画像生成方法及びプログラム |
US20220189103A1 (en) * | 2020-12-15 | 2022-06-16 | Canon Kabushiki Kaisha | Generation apparatus, generation method, and storage medium |
CN112833816A (zh) * | 2020-12-31 | 2021-05-25 | 武汉中观自动化科技有限公司 | 一种标志点定位与智能反向定位混合的定位方法和系统 |
JP7228614B2 (ja) * | 2021-03-24 | 2023-02-24 | 本田技研工業株式会社 | 画像表示システム |
WO2023026519A1 (ja) * | 2021-08-27 | 2023-03-02 | ソニーグループ株式会社 | 情報処理装置、情報処理端末、情報処理方法、および記憶媒体 |
JP7011364B1 (ja) | 2021-10-15 | 2022-01-26 | シンメトリー・ディメンションズ・インク | 体験装置、体験システム、及び、表示方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015187797A (ja) | 2014-03-27 | 2015-10-29 | シャープ株式会社 | 画像データ生成装置および画像データ再生装置 |
JP2017012397A (ja) | 2015-06-30 | 2017-01-19 | 株式会社セガゲームス | プログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5729471A (en) * | 1995-03-31 | 1998-03-17 | The Regents Of The University Of California | Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene |
US6124862A (en) * | 1997-06-13 | 2000-09-26 | Anivision, Inc. | Method and apparatus for generating virtual views of sporting events |
JP2001269482A (ja) * | 2000-03-24 | 2001-10-02 | Konami Computer Entertainment Japan Inc | ゲームシステム、ゲーム用プログラムを記録したコンピュータ読み取り可能な記録媒体及び画像表示方法 |
US20040219980A1 (en) * | 2003-04-30 | 2004-11-04 | Nintendo Co., Ltd. | Method and apparatus for dynamically controlling camera parameters based on game play events |
JP4180065B2 (ja) * | 2005-05-13 | 2008-11-12 | 株式会社スクウェア・エニックス | 画像生成方法、画像生成装置、および画像生成プログラム |
EP2383696A1 (en) * | 2010-04-30 | 2011-11-02 | LiberoVision AG | Method for estimating a pose of an articulated object model |
EP2413286A1 (en) * | 2010-07-29 | 2012-02-01 | LiberoVision AG | Image processing method and device for instant replay |
JP5839220B2 (ja) | 2011-07-28 | 2016-01-06 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN105407992A (zh) * | 2013-07-25 | 2016-03-16 | 史克威尔·艾尼克斯控股公司 | 图像处理程序、服务器装置、图像处理系统及图像处理方法 |
JP2015026172A (ja) * | 2013-07-25 | 2015-02-05 | 株式会社スクウェア・エニックス | 画像処理プログラムおよび画像処理装置 |
JP2016077346A (ja) | 2014-10-10 | 2016-05-16 | セイコーエプソン株式会社 | 運動支援システム、運動支援方法、及び運動支援プログラム |
AU2017204099A1 (en) * | 2017-06-16 | 2019-01-17 | Canon Kabushiki Kaisha | System and method of configuring a virtual camera |
-
2018
- 2018-05-25 CN CN201880045529.1A patent/CN110892455A/zh active Pending
- 2018-05-25 EP EP18831999.0A patent/EP3654294A4/en active Pending
- 2018-05-25 US US16/628,892 patent/US11727642B2/en active Active
- 2018-05-25 WO PCT/JP2018/020129 patent/WO2019012817A1/ja unknown
- 2018-05-25 JP JP2019528962A patent/JP7322703B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015187797A (ja) | 2014-03-27 | 2015-10-29 | シャープ株式会社 | 画像データ生成装置および画像データ再生装置 |
JP2017012397A (ja) | 2015-06-30 | 2017-01-19 | 株式会社セガゲームス | プログラム |
Also Published As
Publication number | Publication date |
---|---|
US11727642B2 (en) | 2023-08-15 |
EP3654294A1 (en) | 2020-05-20 |
WO2019012817A1 (ja) | 2019-01-17 |
EP3654294A4 (en) | 2020-06-03 |
CN110892455A (zh) | 2020-03-17 |
US20200234495A1 (en) | 2020-07-23 |
JPWO2019012817A1 (ja) | 2020-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7322703B2 (ja) | 画像処理装置、画像処理装置の画像処理方法、プログラム | |
JP7283037B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10834315B2 (en) | Image transfer apparatus and moving image generating system for transferring moving image data | |
JP7248037B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2019083501A (ja) | 撮像装置 | |
US11119633B2 (en) | Information processing device and method | |
WO2018016344A1 (ja) | 固体撮像装置および電子機器 | |
JP2018007035A (ja) | 固体撮像素子、撮像装置、および、固体撮像素子の制御方法 | |
JP7131554B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP7306269B2 (ja) | 制御装置と制御方法およびプログラム | |
US20200382823A1 (en) | Display control apparatus, display control method, and video output apparatus | |
JP2018033072A (ja) | 撮像装置、撮像システム、及び、信号処理方法 | |
US11482159B2 (en) | Display control device, display control method, and display control program | |
JP7098526B2 (ja) | 電子機器および電子機器のレーン状態制御方法 | |
JP7484892B2 (ja) | 駆動モーター、像ぶれ補正装置及び撮像装置 | |
EP3761636B1 (en) | Signal processing device, signal processing method, and imaging device | |
WO2022124166A1 (ja) | 液晶表示素子、表示装置および電子機器、並びに、駆動基板および駆動基板の製造方法 | |
WO2019082686A1 (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210422 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220822 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20220822 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230307 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230710 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7322703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |