JP2021145287A - Display control device and display control method - Google Patents
Display control device and display control method Download PDFInfo
- Publication number
- JP2021145287A JP2021145287A JP2020044121A JP2020044121A JP2021145287A JP 2021145287 A JP2021145287 A JP 2021145287A JP 2020044121 A JP2020044121 A JP 2020044121A JP 2020044121 A JP2020044121 A JP 2020044121A JP 2021145287 A JP2021145287 A JP 2021145287A
- Authority
- JP
- Japan
- Prior art keywords
- vection
- image
- control
- control amount
- display control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
Description
本開示は、表示制御装置、および表示制御方法に関する。 The present disclosure relates to a display control device and a display control method.
ロボットやドローンなどの移動体をディスプレイに表示された映像を見ながら遠隔操作するシステム等が開発されている。 Systems have been developed to remotely control moving objects such as robots and drones while watching the images displayed on the display.
ディスプレイ等に表示された映像を見ながら遠隔操作等を行う場合、いわゆるVR(Virtual Reality)酔いが発生し、作業効率が低下し得る。 When remote control or the like is performed while viewing an image displayed on a display or the like, so-called VR (Virtual Reality) sickness may occur and work efficiency may decrease.
人の感覚を考慮した映像を表示することが可能な表示制御装置、および表示制御方法を提供することが望ましい。 It is desirable to provide a display control device and a display control method capable of displaying an image in consideration of human senses.
本開示の一実施の形態に係る表示制御装置は、ベクション制御を用いた映像の変形を行う必要があるか否かを判定する判定部と、判定部によってベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量を算出する制御量計算部と、制御量計算部によって算出されたベクション制御量に基づいて、所定の領域を変形させた映像を生成する映像生成部とを備える。 The display control device according to the embodiment of the present disclosure has a determination unit that determines whether or not it is necessary to transform an image using vection control, and a determination unit that transforms an image using vection control. When it is determined that it is necessary, it is determined based on the control amount calculation unit that calculates the vection control amount for deforming the image using the vection control and the vection control amount calculated by the control amount calculation unit. It is provided with an image generation unit that generates an image obtained by transforming the area of.
本開示の一実施の形態に係る表示制御方法は、ベクション制御を用いた映像の変形を行う必要があるか否かを判定することと、ベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量を算出することと、算出されたベクション制御量に基づいて、所定の領域を変形させた映像を生成することとを含む。 According to the display control method according to the embodiment of the present disclosure, it is necessary to determine whether or not it is necessary to perform image transformation using vection control and to perform image transformation using vection control. When it is determined, the vection control amount for deforming the image using the vection control is calculated, and the image in which a predetermined area is deformed is generated based on the calculated vection control amount. including.
本開示の一実施の形態に係る表示制御装置、または表示制御方法では、ベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量が算出され、算出されたベクション制御量に基づいて、所定の領域を変形させた映像が生成される。 In the display control device or the display control method according to the embodiment of the present disclosure, when it is determined that it is necessary to transform the image using the vection control, the image is transformed using the vection control. The vection control amount is calculated, and an image in which a predetermined area is deformed is generated based on the calculated vection control amount.
以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
0.比較例(図1〜図3)
1.第1の実施の形態(図4〜図21)
1.1 構成
1.2 動作
1.3 変形例
1.4 効果
2.その他の実施の形態
Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. The explanation will be given in the following order.
0. Comparative example (Figs. 1 to 3)
1. 1. First Embodiment (FIGS. 4 to 21)
1.1 Configuration 1.2 Operation 1.3 Modification example 1.4
<0.比較例>
図1は、遠隔操作システムの第1の例を示している。図2は、遠隔操作システムの第2の例を示している。
<0. Comparative example>
FIG. 1 shows a first example of a remote control system. FIG. 2 shows a second example of a remote control system.
5Gに代表される通信インフラの進展に伴い、ディスプレイや遠隔操作機器等を用いて、ロボット、ロボットアーム、車、およびドローンなどの機器を遠隔からリアルタイムで操作することを可能にする技術の開発が望まれている。また、遠隔地にいる人等に対して遠隔からリアルタイムで作業の指示等をしたり、ロボットやドローンなど用いて遠隔地をリアルタイムで観察したりすることを可能にする技術の開発が望まれている。例えば、図1に示したように、操作者100がHMD(ヘッドマウントディスプレイ)102を用いてロボット101等を遠隔から操作する技術の開発が望まれている。また、図2に示したように、操作者110が大画面ディスプレイ111を用いて遠隔地の映像を表示して作業等をする技術の開発が望まれている。
With the development of communication infrastructure represented by 5G, the development of technology that enables remote real-time operation of devices such as robots, robot arms, cars, and drones using displays and remote control devices has been developed. It is desired. In addition, it is desired to develop a technology that enables remote real-time work instructions to people in remote areas and real-time observation of remote areas using robots and drones. There is. For example, as shown in FIG. 1, it is desired to develop a technique for the
このような遠隔操作等を行う場合、VR酔いに代表されるように、感覚不一致による酔いが発生し、作業等を継続することが困難となり、作業効率が低下することが考えられる。この感覚不一致は、例えば操作者(観察者)自身が実際には動いていないのにも関わらず、動いている映像を見せられることにより、その矛盾によってVR酔いといった酔いの不快感が生じる現象である。故に、操作者が移動している感覚を低減することで感覚不一致による酔いの影響を低減することができる。 When such remote control is performed, as typified by VR sickness, sickness due to sensory disagreement may occur, making it difficult to continue the work or the like, and reducing work efficiency. This sensory disagreement is a phenomenon in which, for example, the operator (observer) himself is not actually moving, but is shown a moving image, and the contradiction causes the discomfort of sickness such as VR sickness. be. Therefore, it is possible to reduce the influence of sickness due to sensory inconsistency by reducing the sensation that the operator is moving.
また、HMDを用いた場合のような没入感のある映像は臨場感がある一方、没入感が強いために、操作者に対して速い速度で移動しているような映像が提示されると、操作者に恐怖感が発生し効率的な作業が困難となる。逆に、遠隔の操縦者が必要以上に速度を上げてドローンなどの移動体を操縦するような場合、移動体周辺の人に危険や不安感をおよぼすことが考えられる。この場合、操縦者の注意力を削ぐことなく移動体の速度を下げるように操縦者を誘導することが望ましい。 In addition, while an immersive image such as when using an HMD has a sense of presence, the immersive feeling is so strong that when an image that seems to be moving at a high speed is presented to the operator, The operator feels a sense of fear and it becomes difficult to work efficiently. On the contrary, when a remote operator operates a moving object such as a drone at an unnecessarily high speed, it may cause danger or anxiety to people around the moving object. In this case, it is desirable to guide the operator to slow down the moving object without reducing the operator's attention.
一方、人の運動感覚に関して、ベクション(視覚誘導性自己運動感覚)に着目した技術がある。ここで、ベクションとは、実際には自分は動いていないが、あたかも自分が動いているように錯覚する現象である。例えば、静止した電車に乗車中に隣の電車が動き出すと、あたかも静止中の電車が動いているように錯覚するようなことが、一例として挙げられる。ベクションは、静止時以外にも移動時における速度感を錯覚させることも可能である。 On the other hand, regarding human kinesthetic sensation, there is a technique focusing on vection (visually induced self-motor sensation). Here, vection is a phenomenon in which one is not actually moving, but one feels as if one is moving. For example, when the next train starts to move while riding on a stationary train, it gives the illusion that the stationary train is moving. Vection can also give the illusion of speed when moving as well as when stationary.
図3は、ベクションを用いた技術の一例を示している。ベクションは、例えば図3に示したように道路の路面に複数の丸いドット121を連続的にペイントしたり、道路脇に複数の発光点を連続的に表示することにより、車両が実際より速く移動しているようにドライバーに錯覚させ、ドライバーに対して速度を下げるように誘導する例として活用されている(非特許文献2,3参照)。
FIG. 3 shows an example of a technique using vection. For example, as shown in FIG. 3, the vehicle moves faster than it actually is by continuously painting a plurality of
特許文献1には、ヘッドアップディスプレイを用いて、車の運転中に光点を視界内に重畳することによって、速度超過防止を図る技術が提案されている。また、非特許文献4の技術では、視野内の周辺視野の一部の映像を暗転して周辺視野のオプティカルフローを遮断することで、ベクションによる感覚不一致の影響を低減し、VR酔いを防止している。これらベクションを用いた技術に共通する課題は、視界に光点を重畳したり、視界の一部を遮蔽することによる、視界の妨げが操作の支障になることである。また、例えばVRゲームにおける、光点やドットのAR(Augmented Reality)表示は、本来コンテンツが提示する世界感に不要なものであり、コンテンツへの没入感を低減させる。また、VRゲームでは、連続的な移動をすることなく、距離の離れた第1の地点から第2の地点へと瞬間的にワープすることで、ベクションによる感覚不一致の問題に対応する技術があるが、実世界の映像をワープすることは通常のカメラ映像の場合は実現性が容易ではない。
また、人の視知覚特性として、周辺視野では動体に対する知覚特性は高いが、映像を高解像度に見えていないことがよく知られている。これを応用した例として、fobeated renderingと呼ばれる手法がある。この手法では、周辺視野の解像度は落とし、注視している近傍の領域のみ高解像度に映像をレンダリングすることで、人に違和感を与えることなくレンダリングの処理コストを削減する。 Further, as a human visual perception characteristic, it is well known that although the perception characteristic for a moving object is high in the peripheral visual field, the image cannot be seen at a high resolution. As an example of applying this, there is a method called fobeated rendering. In this method, the resolution of the peripheral visual field is reduced, and the image is rendered at a high resolution only in the vicinity of the area of gaze, thereby reducing the rendering processing cost without giving a sense of discomfort to humans.
そこで、操作者(映像の観察者)等の視界を不必要に妨げることなく、ベクションを活用し、人の感覚、特に人が感じる速度感を適切に制御する技術の開発が望まれる。 Therefore, it is desired to develop a technique for appropriately controlling a human sense, particularly a sense of speed that a person feels, by utilizing vection without unnecessarily obstructing the field of view of an operator (image observer) or the like.
<1.第1の実施の形態>
[1.1 構成]
(表示システムの概要)
図4は、本開示の第1の実施の形態に係る表示制御装置1を含む表示システムの概要を示している。図5は、第1の実施の形態に係る表示システムの詳細な構成例を示している。
<1. First Embodiment>
[1.1 Configuration]
(Overview of display system)
FIG. 4 shows an outline of a display system including the
第1の実施の形態に係る表示システムは、例えば上記比較例において説明したロボットやドローンなどの移動体(操作対象)の遠隔操作システム等に適用可能である。また、現実の遠隔操作システム等に限らず、VRゲーム等の仮想現実のシステムにも適用可能である。 The display system according to the first embodiment can be applied to, for example, a remote control system for a moving body (operation target) such as a robot or a drone described in the above comparative example. Further, it can be applied not only to a real remote control system or the like but also to a virtual reality system such as a VR game.
第1の実施の形態に係る表示システムは、入力部10と、表示制御装置1と、表示部40とを備えている。表示制御装置1は、制御部20と処理部30とを備えている。
The display system according to the first embodiment includes an
入力部10は例えば、撮像部11と、センサ部12と、送信部13とを有している。撮像部11は例えば広角カメラで構成される。センサ部12は例えば、速度センサ、加速度センサ、および距離センサ等を含む。また、センサ部12は、アイトラッキングが可能な視線検出センサや、ヘッドトラッキングが可能な検出センサ等を含んでいてもよい。遠隔操作システムに適用する場合、例えば、撮像部11と、センサ部12の一部(速度センサ、加速度センサ、および距離センサ等)は、操作対象の移動体に設けられている。
The
入力部10は、撮像部11において例えば広視野角の映像を撮影し、送信部13によって有線または無線を用いて、制御部20に映像データを送信する。また、入力部10は、センサ部12によって操作対象の速度や角速度を検出し、その検出データを制御部20に送信してもよい。また、入力部10は、センサ部12によって周辺の障害物との距離を検出し、その距離情報を制御部20に送信してもよい。また、入力部10は、センサ部12によって操作者(映像の観察者)の視線や頭部の姿勢等を検出し、そのトラッキング情報を制御部20に送信してもよい。
The
制御部20は例えば、受信部21と、ベクション制御判定部22と、ベクション制御量計算部23とを有している。
ベクション制御判定部22は、本開示の技術における「判定部」の一具体例に相当する。ベクション制御量計算部23は、本開示の技術における「制御量計算部」の一具体例に相当する。
The
The vection
制御部20は、受信部21によって有線または無線を用いて入力部10の送信部13から送信されてきた映像データや検出データ等を受信する。制御部20は、ベクション制御を行う必要があるか否かを、ベクション制御判定部22によって判定する。制御部20は、ベクション制御判定部22によってベクション制御を行うことが必要と判定された場合、映像のベクション制御量をベクション制御量計算部23によって状況に応じて算出する。ベクション制御量は、例えば、後述する視野拡大率M、および注視点51の情報等を含む。ベクション制御量計算部は、後述するように、例えば、映像に対する注視点51の情報に基づいて、安定注視野領域50と周辺視野領域60とを判別し、周辺視野領域60を所定の領域とするベクション制御量を算出する。制御部20は、ベクション制御量計算部23によって算出されたベクション制御量を処理部30に出力する。
The
処理部30は例えば、映像生成部31を有している。処理部30は、映像生成部31によって、制御部20のベクション制御量計算部23からのベクション制御量に応じた周辺視野と注視野周辺とを実現するような映像生成を行う。
The
表示部40は例えば、HMDによって構成されている。表示部40は、処理部30の映像生成部31によって生成された映像を操作者に提示する。
The
[1.2 動作]
(ベクション制御の具体例)
ここでは、入力部10の撮像部11を例えば260°の撮影画角を有する広角魚眼カメラとする。また、表示部40をHMDとし、ドローンを移動制御するものとする。
[1.2 Operation]
(Specific example of vection control)
Here, the
図6は、表示部40に表示される、歪みのない通常状態の映像の一例を示している。
図7は、表示部40に表示される、ベクション制御による変形後の映像の一例を示している。
FIG. 6 shows an example of an image in a normal state without distortion displayed on the
FIG. 7 shows an example of the image displayed on the
上記比較例で説明したように、人間はベクションの影響で移動量を錯覚する。第1の実施の形態に係る表示システムでは、ベクション制御判定部22によってベクション制御を行うことが必要と判定された場合、表示部40に図7に示したようなベクション制御による変形後の映像を表示する。映像の変形は所定の領域に対して行う。所定の領域は、例えば周辺視野領域60である。変形後の映像としては、注視点51の近傍の安定注視野領域50と周辺視野領域60とで、後述する視野拡大率Mの異なる状態の映像を表示する。例えば図7に示したように、注視点51の近傍の安定注視野領域50では歪みのない通常状態の映像を表示する。また、周辺視野領域60では、図6に示したような歪みのない通常状態の映像に代えて周辺視野の映像を圧縮した映像(視野としては拡大された映像)を表示する。図7に示した変形後の映像では、図6の通常状態の映像と比較して周辺視野領域60の視界が拡大されていることが分かる。周辺視野領域60の視界が拡大されるということは、ドローンの移動時に発生する映像の移動量(オプティカルフロー)の速度が低下するため、同じ移動速度でドローンが移動した場合でも、図7に示した変形後の映像では図6の通常状態の映像と比べて体感速度が遅くなる。弊害として映像が歪むことになるが、人の目の周辺視野領域60の解像度は低いため、人の視知覚の特性上、歪みを知覚しにくい。逆に、周辺視野領域60を狭く見せることで、ベクションの効果により体感上、実際のドローンの移動速度よりも速く感じさせることも可能である。
As explained in the above comparative example, human beings have an illusion of the amount of movement due to the influence of vection. In the display system according to the first embodiment, when it is determined by the vection
図8および図9を参照して、第1の実施の形態に係る表示システムにおける表示部に表示される、ベクション制御による変形後の映像における周辺視野領域60の画角等について説明する。図9は、図8に対して視線方向が変化した場合における周辺視野領域60の画角等について示している。
With reference to FIGS. 8 and 9, the angle of view of the peripheral
図8および図9に示したように、注視点51を中心とした映像を歪ませない安定注視野領域50の画角をR1とし、変形後の周辺視野領域60の画角をR3,撮像部11による撮影画角から安定注視野領域50の画角R3を除いた画角をR2とする。周辺視野領域60の画角R3は、周辺視野領域60の視野拡大率Mによって決定され、Mは下記式で求まる。*は乗算記号を示す。各画角の単位はdegreeとする。
M=(R2/R3)*100(%)
As shown in FIGS. 8 and 9, the angle of view of the stable
M = (R2 / R3) * 100 (%)
例えば、安定注視野領域50の画角R1が60°、撮影画角が260°の場合、画角R2は100°(260/2−60/2)となる。視野拡大率Mが200%の場合、周辺視野領域60の画角R3は50°となる。つまり100°分の画角の映像が画角R3の周辺視野領域60に2倍に圧縮されて表示され、視野としては2倍に拡大される。視野拡大率Mを変更することで、ベクションによる移動速度感を連続的に制御することが可能となる。視野拡大率Mを100%より大きくすることで、周辺視野領域60のオプティカルフローの速度が遅くなり体感速度は低下する。視野拡大率Mを100%より小さくすることで、視野としては圧縮され、オプティカルフローの速度が速くなり、体感速度が向上する。入力部10のセンサ部12によってアイトラッキングによる視線検出やヘッドトラッキングによる頭部の姿勢検出を低遅延でかつ高精度に行うことができる場合は、安定注視野領域50を狭めても良いし、逆にそうでない場合は安定注視野領域50を広げることで、歪みの領域を知覚しにくくしても良い。
For example, when the angle of view R1 of the
ここで、注視点51は、入力部10のセンサ部12による視線検出および頭部の姿勢検出のトラッキング情報を用いて決定される。つまり、HMDを装着した操作者の視線方向が図8に示したように映像の正面方向を向いている場合、頭部を回転すると、安定注視野領域50は常に、映像の中心に対して適用される。また、図9に示したように視線方向が変化した場合、注視点51を中心に安定注視野領域50が決定される。これにより、頭部を移動することなく目線のみで観察対象を見た際、安定注視野領域50が注視点51に追従するため、周辺視野領域60の歪みが知覚されにくくなる。
Here, the
(ベクションを用いた表示制御の動作フロー)
図10は、第1の実施の形態に係る表示システムにおけるベクションを用いた表示制御の動作フローの一例を概略的に示している。
(Display control operation flow using vection)
FIG. 10 schematically shows an example of an operation flow of display control using vection in the display system according to the first embodiment.
制御部20のベクション制御判定部22は、入力部10のセンサ部12による視線検出および頭部の姿勢検出のトラッキング情報に基づいて、操作者の注視点51を検出する(ステップS11)。次に、ベクション制御判定部22は、撮像部11によって撮影された映像に対してベクション制御を行う必要があるか否かを判定する(ステップS12)。ベクション制御判定部22は、例えば、入力部10のセンサ部12による速度や角速度の検出データに基づいて、ドローンの移動や旋回の有無を判定し、移動や旋回が行われている場合には、ベクション制御を行う必要があると判定する(ステップS12:Y)。また、ベクション制御判定部22は、例えば、入力部10のセンサ部12による速度や角速度の検出データに基づいて、ドローンが静止状態にあると判定される場合には、ベクション制御を行う必要はないと判定する(ステップS12:N)。静止状態であるか否かの判定は、例えば速度が閾値以下であるか否かで判定することができる。また、角速度のノルムが閾値以下であるか否かで判定するようにしてもよい。
The vection
また、ベクション制御判定部22は、撮像部11によって撮影された動画像に基づいて、ベクション制御を行う必要があるか否かを判定するようにしてもよい。図11は、ベクション制御判定部22によるベクション制御の必要性の判定動作(ステップS12)の一例を概略的に示している。
Further, the vection
ベクション制御判定部22は、撮像部11によって撮影された動画像に基づいて、オプティカルフローを計算する(ステップS21)。次に、ベクション制御判定部22は、周辺視野領域60において、オプティカルフローが閾値以上の領域があるか否かを判定する(ステップS22)。オプティカルフローが閾値以上の領域があると判定される場合(ステップS22:Y)には、ベクション制御判定部22は、ベクション制御を行う必要があると判定する(ステップS23)。オプティカルフローが閾値以上の領域がないと判定される場合(ステップS22:N)には、ベクション制御判定部22は、ベクション制御を行う必要はないと判定する(ステップS24)。
The vection
ベクション制御判定部22によってベクション制御を行う必要はないと判定された場合(ステップS12:N、ステップS24)には、処理部30の映像生成部31は、通常状態の映像を生成して表示部40に表示する(ステップS16)。表示部40がHMDの場合、映像生成部31は、例えば、Sphereモデルに撮像部11である広角魚眼カメラによって撮影された魚眼映像をテクスチャマッピングする。魚眼映像を全天球にテクスチャマッピングする技術は、例えば非特許文献5に記載の技術を用いることができる。
When the vection
ベクション制御判定部22によってベクション制御を行う必要があると判定された場合(ステップS12:Y、ステップS23)には、制御部20のベクション制御量計算部23は、視野拡大率Mの算出を行う(ステップS13)。視野拡大率Mは固定値で与えても良いし、ドローンの速度またはオプティカルフローの速度に応じて設定しても良い。これは、速度が速くなるほど、ベクションによる不快感が増加するためである。
When the vection
図12は、ベクション制御量計算部23による、速度に応じた視野拡大率Mの第1の算出例を示している。図13は、ベクション制御量計算部23による、速度に応じた視野拡大率Mの第2の算出例を示している。図12および図13において、縦軸は視野拡大率M、横軸はドローンの速度またはオプティカルフローの速度を示す。ベクション制御量計算部23は、視野拡大率Mを速度に応じて変化させる場合、例えば、視野拡大率Mを100(%)から変化させ始める適用速度閾値Vminを設定してもよい。また、視野拡大率Mの拡大率上限値Mmaxと拡大率下限値Mminとを設定してもよい。視野拡大率Mを100より大きくする場合、ベクション制御量計算部23は、速度が適用速度閾値Vmin以上になったら視野拡大率Mを速度に応じて線形に変化させるが、拡大率上限値Mmaxよりも大きな値には変化させない。これは、撮像部11の撮影画角上、周辺視野の映像を圧縮できる範囲に限界があるためである。同様に、視野拡大率Mを100より小さくする場合、ベクション制御量計算部23は、速度が適用速度閾値Vmin以上になったら視野拡大率Mを速度に応じて線形に変化させるが、拡大率下限値Mminよりも小さな値には変化させない。
FIG. 12 shows a first calculation example of the field of view enlargement ratio M according to the speed by the vection control
なお、図12および図13には、視野拡大率Mを速度に応じて線形に変化させる例を示したが、非線形に視野拡大率Mを変化させてもよい。また、視野拡大率Mを角速度に応じて線形または非線形に変化させてもよい。ドローンの速度は、実際のドローンの速度を計測した値を用いてもよいし、ドローンのコントローラの入力値から推定して求めてもよい。 Although FIGS. 12 and 13 show an example in which the visual field enlargement ratio M is linearly changed according to the speed, the visual field enlargement ratio M may be changed non-linearly. Further, the visual field magnification M may be changed linearly or non-linearly depending on the angular velocity. The speed of the drone may be obtained by using a value obtained by measuring the actual speed of the drone, or by estimating it from the input value of the controller of the drone.
処理部30の映像生成部31は、ベクション制御量計算部23によって算出された視野拡大率Mを含むベクション制御量に基づいて、Sphereモデルにマッピングするテクスチャ座標を算出する(ステップS14)。魚眼映像を全天球にテクスチャマッピングする技術は、例えば非特許文献5に記載の技術を用いることができる。
The image generation unit 31 of the
図14は、視野拡大率Mに基づく魚眼映像の座標変換の一例を示している。ここでは、座標変換の例として、魚眼映像の半径の座標(r,θ)を座標変換する例を示す。説明の簡易化のため、魚眼映像の中心が注視点51である状況を例に説明する。図14に示したように安定注視野領域50の半径をr1とし、視野拡大率M(%)を、m=M/100とする。魚眼映像の座標系の半径をrとすると、座標変換後の半径r’は下記のように記述できる。
・安定注視野領域50
r<r1
r’=r
・周辺視野領域60(魚眼映像を中心に向かって圧縮する(m>1)または拡大する(m<1))
r>r1
r’=r1+(r−r1)*m
FIG. 14 shows an example of coordinate conversion of a fisheye image based on the field of view magnification M. Here, as an example of coordinate conversion, an example of coordinate conversion of the coordinates (r, θ) of the radius of the fisheye image is shown. For the sake of simplification of the explanation, a situation in which the center of the fisheye image is the
-
r <r1
r'= r
Peripheral visual field region 60 (compresses or enlarges the fisheye image toward the center (m> 1))
r> r1
r'= r1 + (r-r1) * m
図14のように,座標(r,θ)を座標(r’,θ)にサンプリングすることで、m>1の場合、周辺視野領域60の映像を注視点51に対して圧縮(視野としては拡大)することが可能となる。逆にm<1の場合は、周辺視野領域60の映像を注視点51に対して拡大(視野としては圧縮)することもできる。なお、上述したように、注視点51は頭部の姿勢や視線方向に基づいて求められる。
By sampling the coordinates (r, θ) to the coordinates (r', θ) as shown in FIG. 14, when m> 1, the image of the peripheral
映像生成部31は、例えば以上のような座標変換を行うことにより変形した映像を生成して表示部40に表示する(ステップS15)。表示部40がHMDの場合、映像生成部31は、例えば、Sphereモデルに撮像部11である広角魚眼カメラによって撮影された魚眼映像をテクスチャマッピングする。魚眼映像を全天球にテクスチャマッピングする技術は、例えば非特許文献5に記載の技術を用いることができる。
The image generation unit 31 generates, for example, a deformed image by performing the above coordinate conversion and displays it on the display unit 40 (step S15). When the
[1.3 変形例]
以上の説明では、安定注視野領域50では視野拡大率を100%とし、周辺視野領域60では視野拡大率をMとする2値的な制御を例に説明したが、本開示の技術は2値的な制御には限らない。具体的には、周辺視野領域60における映像の変形を行う際、安定注視野領域50の画角R1が狭いと、歪みのありなしの境界線が発生し違和感を抱きやすいため、定注視野領域50から離れるに従って視野拡大率Mを段階的に変化するようにしてもよい。特に、表示部40を大画面ディスプレイで実施した場合、歪みのない領域と歪みのある領域との境目の違和感を低減できる。
[1.3 Modification example]
In the above description, a binary control in which the visual field enlargement ratio is 100% in the
以上の説明では、操作対象の移動状態や速度に応じてベクション制御を行う例を挙げたが、周辺環境を考慮してベクション制御を行うようにしてもよい。例えば、操作対象の周辺に床や壁などの構造物がある場合と、ない場合とで視野拡大率Mを変えてもよいし、ベクション制御を行う必要があるか否かの判定を変えてもよい。 In the above description, an example of performing vection control according to the moving state and speed of the operation target has been given, but vection control may be performed in consideration of the surrounding environment. For example, the field of view magnification M may be changed depending on whether there is a structure such as a floor or a wall around the operation target, or the determination as to whether or not it is necessary to perform vection control may be changed. ..
図15は、ドローン70等の操作対象が地面71から離れた場所を移動している状況の一例を概略的に示している。図16は、ドローン70等の操作対象が地面71から近い場所を移動している状況の一例を概略的に示している。図17は、ドローン70等の操作対象が壁72に近い場所を移動している状況の一例を概略的に示している。
FIG. 15 schematically shows an example of a situation in which an operation target such as a
例えば図15に示したようにドローン70等の操作対象が地面71から遠く離れた場所(距離d)を移動している状況と、図16に示したように地面71から近い場所を移動している状況や図17に示したように壁72に近い場所を移動している状況とでは、ベクションのかかり方が異なる。例えば、図15に示したように操作対象が地面71から遠く離れた場所を移動している状況では、オプティカルフローは遅くなる。この状況では、視野拡大率Mを小さくするようなベクション制御を行うようにしてもよいし、ベクション制御を行わないようにしてもよい。逆に、図16や図17に示したような状況ではオプティカルフローは速くなる。このため、視野拡大率Mを大きくなるようにベクション制御を行うようにしてもよい。
For example, as shown in FIG. 15, the operation target such as the
図18は、表示制御装置1におけるベクション制御判定部22によるベクション制御の必要性の判定動作の一変形例を概略的に示している。図18では、周辺環境を考慮してベクション制御を行う必要があるか否かの判定を行う例を示している。
FIG. 18 schematically shows a modified example of the determination operation of the necessity of vection control by the vection
ベクション制御判定部22は、入力部10のセンサ部12によるトラッキング情報に基づいて、操作者の視点移動が発生しているか否かを判定する(ステップS31)。この判定は例えば、頭部の姿勢を変化させずに視線そのものが閾値以上移動しているか否かを判定することにより行われる。また、頭部が閾値以上回転しているか否かを判定することにより行われる。操作者の視点移動が発生していないと判定される場合(ステップS31:N)には、ベクション制御判定部22は、ベクション制御を行う必要はないと判定する(ステップS34)。
The vection
操作者の視点移動が発生していると判定される場合(ステップS31:Y)には、次に、ベクション制御判定部22は、入力部10のセンサ部12からの距離情報または撮像部11による撮像結果に基づいて、操作対象の周囲に物体があるか否かを判定する(ステップS32)。この判定は例えば、操作対象が地面、壁、床、または天井等から閾値以内の距離にあるか否かを判定することにより行われる。操作対象の周囲に物体があると判定される場合(ステップS32:Y)には、ベクション制御判定部22は、ベクション制御を行う必要があると判定する(ステップS33)。操作対象の周囲に物体がないと判定される場合(ステップS32:N)には、ベクション制御判定部22は、ベクション制御を行う必要はないと判定する(ステップS34)。
When it is determined that the operator's viewpoint movement has occurred (step S31: Y), the vection
また、以上の説明では、入力部10の撮像部11が単眼の広角魚眼カメラを用いる例を挙げたが、全天球映像を撮影可能な360°カメラを用いてもよい。
Further, in the above description, the
また、以上の説明では、処理部30の映像生成部31は、全天球画像をベースに処理を行う例を挙げたが、3次元再構成されたモデルを用いてもよい。
Further, in the above description, the image generation unit 31 of the
また、以上の説明では、注視点51から一様に映像を歪ませた例を挙げたが、Instance Segmentationを用いて視野内の領域を識別し、識別した領域ごとに映像を変形してもよい。
Further, in the above description, an example in which the image is uniformly distorted from the
図19は、ベクション制御による変形後の映像の第1の変形例を示している。図20は、ベクション制御による変形後の映像の第2の変形例を示している。図19および図20に示したように、通路の幅wと壁の高さhとを拡大縮小するような変形を行ってもよい。3Dモデルが適用されているVRゲームに対しても同様に適用してもよい。 FIG. 19 shows a first deformation example of the image after deformation by vection control. FIG. 20 shows a second deformation example of the image after deformation by vection control. As shown in FIGS. 19 and 20, the width w of the passage and the height h of the wall may be deformed so as to be enlarged or reduced. The same may be applied to a VR game to which a 3D model is applied.
また、以上の説明では、映像の変形を行う所定の領域として周辺視野領域60の映像全体をベクション制御により変形させる例を挙げたが、周辺視野領域60の一部の領域の映像のみを変形させるようにしてもよい。
Further, in the above description, an example in which the entire image of the peripheral
図21は、ベクション制御を行う領域の変形例を示している。例えば図21に示したように、所定の領域として、オプティカルフローが閾値以上の領域80にのみ、ベクション制御による映像の変形を行うようにしてもよい。
FIG. 21 shows a modified example of the region where the vection control is performed. For example, as shown in FIG. 21, the image may be deformed by the vection control only in the
また、以上の説明では、アイトラッキングを行う例を挙げたが、アイトラッキングは必ずしも行わなくてもよい。その場合は、頭部の移動に関するヘッドトラッキングのみを行うようにしてもよい。また、必ずしもヘッドトラッキングも行わなくてもよい。例えば、サッカードのような高速で眼球運動する場合には、注視点51のアイトラッキングを行わないようにしてもよい。
Further, in the above description, an example of performing eye tracking has been given, but eye tracking does not necessarily have to be performed. In that case, only head tracking related to the movement of the head may be performed. In addition, head tracking does not necessarily have to be performed. For example, in the case of high-speed eye movement such as saccade, eye tracking of the
また、以上の説明では、安定注視野領域の画角R1を固定値とする例を挙げたが、状況に応じて安定注視野領域の画角R1を変化させても良い。例えば、高速道路の車の運転は、視界が狭くなることが知られている。静止時や速度が低い場合は画角R1を広くし、速度に応じて画角R1を狭くしてもよい。画角R1が狭いと、より周辺視野の視野拡大率Mを向上させることができるためである。 Further, in the above description, an example in which the angle of view R1 of the stable viewing area is set to a fixed value has been given, but the angle of view R1 of the stable viewing area may be changed depending on the situation. For example, driving a car on a highway is known to have a narrow field of vision. The angle of view R1 may be widened when the vehicle is stationary or the speed is low, and the angle of view R1 may be narrowed according to the speed. This is because when the angle of view R1 is narrow, the visual field enlargement ratio M of the peripheral visual field can be further improved.
[1.4 効果]
以上説明したように、第1の実施の形態に係る表示システムによれば、ベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量を算出し、算出されたベクション制御量に基づいて、所定の領域を変形させた映像を生成するようにしたので、人の感覚、特に人が感じる速度感を考慮した映像を表示することが可能となる。
[1.4 Effect]
As described above, according to the display system according to the first embodiment, when it is determined that it is necessary to transform the image using the velocity control, the image is transformed using the velocity control. The vection control amount for this purpose is calculated, and an image in which a predetermined area is deformed is generated based on the calculated vection control amount. It becomes possible to display.
第1の実施の形態に係る表示システムによれば、操作者等の視界を不必要に妨げることなく、ベクションを活用し、人が感じる速度感を適切に制御することが可能となる。例えば、周辺視野領域60のオプティカルフローを画像処理で制御することで、操作者等に違和感や視界を妨げることがなく、酔いや不安感を低減するような画像表示の制御が可能となる。また、第1の実施の形態に係る表示システムによれば、HMDや大画面ディスプレイ上に提示する画像を直接処理することが可能なため、画像を変化させることが必要となる状況に対してのみ適応的に画像表示を制御することが可能となる。また、周辺視野に提示する視野角を拡大する効果もあるため、ドローン等の操作対象に接近する障害物や移動体の発見率を向上することも可能であり、操作対象と周囲の物体との接触・衝突を未然に防ぐことができ、作業効率や、安全性の向上に効果がある。
According to the display system according to the first embodiment, it is possible to appropriately control the sense of speed felt by a person by utilizing vection without unnecessarily obstructing the field of view of the operator or the like. For example, by controlling the optical flow of the peripheral
また、第1の実施の形態に係る表示システムによれば、周辺視野領域60の映像を変形することで、操作者が知覚する速度感を適切に制御することが可能となる。これにより、遠隔操作等を行う場合に、視界を妨げることなく、作業効率、および操作負荷を低減することが可能となる。例えば、高速移動時の恐怖感の低減、感覚不一致による酔いの低減等が可能となる。また、視野角を拡大することができるため、周囲の接近する物体への状況判断能力が向上し、安全性、および作業効率を向上させることが可能となる。また、速度超過時に、操作者の集中力を欠くことなく、自然に速度を低減するように操作者を誘導することが可能となる。
Further, according to the display system according to the first embodiment, it is possible to appropriately control the sense of speed perceived by the operator by deforming the image of the peripheral
また、第1の実施の形態に係る表示システムによれば、操作対象の速度に応じてベクションの影響が変化したとしても、映像の視野拡大率Mを調整することで、操作対象の速度に応じた適切な映像表示を行うことが可能となる。 Further, according to the display system according to the first embodiment, even if the influence of vection changes according to the speed of the operation target, the field of view enlargement ratio M of the image is adjusted according to the speed of the operation target. It is possible to display an appropriate image.
また、第1の実施の形態に係る表示システムによれば、周辺の対象物等との距離に応じてベクションの強度が変化したとしても、映像の視野拡大率Mを調整することで、周辺の対象物との距離に応じた適切な映像表示を行うことが可能となる。 Further, according to the display system according to the first embodiment, even if the intensity of the vection changes according to the distance to the surrounding object or the like, the visual field enlargement ratio M of the image is adjusted to obtain the peripheral image. It is possible to display an appropriate image according to the distance to the object.
また、第1の実施の形態に係る表示システムによれば、視線や頭部の姿勢等に応じて、注視点51から相対的に見た周辺視野に映像変形を行うことで、映像歪みを知覚しにくくなるため、視認性が向上する。
Further, according to the display system according to the first embodiment, image distortion is perceived by performing image deformation in the peripheral visual field relatively viewed from the
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.
<2.その他の実施の形態>
本開示による技術は、上記各実施の形態の説明に限定されず種々の変形実施が可能である。
<2. Other embodiments>
The technique according to the present disclosure is not limited to the description of each of the above embodiments, and various modifications can be implemented.
例えば、本技術は以下のような構成を取ることもできる。
以下の構成の本技術によれば、ベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量を算出し、算出されたベクション制御量に基づいて、所定の領域を変形させた映像を生成するようにしたので、人の感覚を考慮した映像を表示することが可能となる。
For example, the present technology may have the following configuration.
According to the present technology having the following configuration, when it is determined that it is necessary to deform the image using the vection control, the vection control amount for deforming the image using the vection control is calculated and calculated. Since an image obtained by deforming a predetermined area is generated based on the obtained vection control amount, it is possible to display an image in consideration of human senses.
(1)
ベクション制御を用いた映像の変形を行う必要があるか否かを判定する判定部と、
前記判定部によって前記ベクション制御を用いた映像の変形を行う必要があると判定された場合に、前記ベクション制御を用いた映像の変形を行うためのベクション制御量を算出する制御量計算部と、
前記制御量計算部によって算出された前記ベクション制御量に基づいて、所定の領域を変形させた映像を生成する映像生成部と
を備える
表示制御装置。
(2)
前記判定部は、映像のオプティカルフローに基づいて、前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
上記(1)に記載の表示制御装置。
(3)
前記制御量計算部は、映像のオプティカルフローに基づいて、前記ベクション制御量を算出する
上記(1)または(2)に記載の表示制御装置。
(4)
前記制御量計算部は、前記ベクション制御量として、前記所定の領域における視野の拡大率を算出する
上記(1)ないし(3)のいずれか1つに記載の表示制御装置。
(5)
前記判定部は、撮像部を備えた移動体によって撮影された映像に対して前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
上記(1)ないし(4)のいずれか1つに記載の表示制御装置。
(6)
前記判定部は、前記移動体の速度に基づいて、前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
上記(5)に記載の表示制御装置。
(7)
前記判定部は、前記移動体の周辺環境に基づいて、前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
上記(5)に記載の表示制御装置。
(8)
前記制御量計算部は、前記移動体の速度に基づいて、前記ベクション制御量を算出する
上記(5)ないし(7)のいずれか1つに記載の表示制御装置。
(9)
前記制御量計算部は、前記移動体の周辺環境に基づいて、前記ベクション制御量を算出する
上記(5)ないし(7)のいずれか1つに記載の表示制御装置。
(10)
前記制御量計算部は、映像の観察者の注視点の情報に基づいて、安定注視野領域と周辺視野領域とを判別し、前記周辺視野領域を前記所定の領域とする前記ベクション制御量を算出する
上記(1)ないし(9)のいずれか1つに記載の表示制御装置。
(11)
前記映像生成部は、映像の観察者の視線および頭部の姿勢のうち少なくとも一方に基づいて求められた領域を、前記所定の領域とする
上記(1)ないし(10)のいずれか1つに記載の表示制御装置。
(12)
前記映像生成部は、映像のオプティカルフローが閾値以上の領域を前記所定の領域とする
上記(1)ないし(11)のいずれか1つに記載の表示制御装置。
(13)
ベクション制御を用いた映像の変形を行う必要があるか否かを判定することと、
前記ベクション制御を用いた映像の変形を行う必要があると判定された場合に、前記ベクション制御を用いた映像の変形を行うためのベクション制御量を算出することと、
算出された前記ベクション制御量に基づいて、所定の領域を変形させた映像を生成することと
を含む
表示制御方法。
(1)
A determination unit that determines whether or not it is necessary to transform the image using vection control,
When the determination unit determines that it is necessary to deform the image using the vection control, the control amount calculation unit that calculates the vection control amount for deforming the image using the vection control, and the control amount calculation unit.
A display control device including an image generation unit that generates an image obtained by deforming a predetermined area based on the vection control amount calculated by the control amount calculation unit.
(2)
The display control device according to (1) above, wherein the determination unit determines whether or not it is necessary to perform deformation of the image using the vection control based on the optical flow of the image.
(3)
The display control device according to (1) or (2) above, wherein the control amount calculation unit calculates the vection control amount based on the optical flow of the image.
(4)
The display control device according to any one of (1) to (3) above, wherein the control amount calculation unit calculates the enlargement ratio of the visual field in the predetermined region as the vection control amount.
(5)
The determination unit determines whether or not it is necessary to deform the image taken by the moving body including the imaging unit using the vection control. Any of the above (1) to (4). The display control device according to one.
(6)
The display control device according to (5) above, wherein the determination unit determines whether or not it is necessary to perform deformation of an image using the vection control based on the speed of the moving body.
(7)
The display control device according to (5) above, wherein the determination unit determines whether or not it is necessary to perform deformation of an image using the vection control based on the surrounding environment of the moving body.
(8)
The display control device according to any one of (5) to (7) above, wherein the control amount calculation unit calculates the vection control amount based on the speed of the moving body.
(9)
The display control device according to any one of (5) to (7) above, wherein the control amount calculation unit calculates the vection control amount based on the surrounding environment of the moving body.
(10)
The control amount calculation unit discriminates between a stable gaze area and a peripheral visual field area based on the information of the gaze point of the observer of the image, and calculates the vection control amount with the peripheral visual field area as the predetermined area. The display control device according to any one of (1) to (9) above.
(11)
The image generation unit sets a region obtained based on at least one of the line of sight of the observer of the image and the posture of the head as the predetermined region in any one of (1) to (10) above. The display control device described.
(12)
The display control device according to any one of (1) to (11) above, wherein the image generation unit sets a region in which the optical flow of the video is equal to or greater than a threshold value as the predetermined region.
(13)
Determining whether it is necessary to transform the image using vection control, and
When it is determined that it is necessary to transform the image using the vection control, the vection control amount for transforming the image using the vection control is calculated.
A display control method including generating an image in which a predetermined area is deformed based on the calculated vection control amount.
1…表示制御装置、10…入力部、11…撮像部、12…センサ部、13…送信部、20…制御部、21…受信部、22…ベクション制御判定部(判定部)、23…ベクション制御量計算部(制御量計算部)、30…処理部、31…映像生成部、40…表示部、50…安定注視野領域、51…注視点、60…周辺視野領域、70…ドローン、71…地面、72…壁、80…オプティカルフローが閾値以上の領域、100…操作者、101…ロボット、102…HMD(ヘッドマウントディスプレイ)、110…操作者、111…大画面ディスプレイ、121…ドット、d…地面との距離、R1…安定注視野領域の画角、R2…撮影画角から安定注視野領域の画角を除いた画角、R3…周辺視野領域の画角、M…視野拡大率、w…幅、h…高さ。 1 ... Display control device, 10 ... Input unit, 11 ... Imaging unit, 12 ... Sensor unit, 13 ... Transmission unit, 20 ... Control unit, 21 ... Reception unit, 22 ... Vection control judgment unit (judgment unit), 23 ... Vection Control amount calculation unit (control amount calculation unit), 30 ... Processing unit, 31 ... Image generation unit, 40 ... Display unit, 50 ... Stable viewing area, 51 ... Gaze point, 60 ... Peripheral visual field area, 70 ... Drone, 71 ... ground, 72 ... wall, 80 ... area where optical flow is above the threshold, 100 ... operator, 101 ... robot, 102 ... HMD (head mount display), 110 ... operator, 111 ... large screen display, 121 ... dot, d ... Distance to the ground, R1 ... Stable viewing angle of view, R2 ... Shooting angle of view minus stable viewing area, R3 ... Peripheral field of view, M ... Field magnification , W ... width, h ... height.
Claims (13)
前記判定部によって前記ベクション制御を用いた映像の変形を行う必要があると判定された場合に、前記ベクション制御を用いた映像の変形を行うためのベクション制御量を算出する制御量計算部と、
前記制御量計算部によって算出された前記ベクション制御量に基づいて、所定の領域を変形させた映像を生成する映像生成部と
を備える
表示制御装置。 A determination unit that determines whether or not it is necessary to transform the image using vection control,
When the determination unit determines that it is necessary to deform the image using the vection control, the control amount calculation unit that calculates the vection control amount for deforming the image using the vection control, and the control amount calculation unit.
A display control device including an image generation unit that generates an image obtained by deforming a predetermined area based on the vection control amount calculated by the control amount calculation unit.
請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the determination unit determines whether or not it is necessary to perform deformation of the image using the vection control based on the optical flow of the image.
請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the control amount calculation unit calculates the vection control amount based on an optical flow of video.
請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the control amount calculation unit calculates the enlargement ratio of the visual field in the predetermined region as the vection control amount.
請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the determination unit determines whether or not it is necessary to deform an image using the vection control with respect to an image captured by a moving body including an imaging unit.
請求項5に記載の表示制御装置。 The display control device according to claim 5, wherein the determination unit determines whether or not it is necessary to perform deformation of an image using the vection control based on the speed of the moving body.
請求項5に記載の表示制御装置。 The display control device according to claim 5, wherein the determination unit determines whether or not it is necessary to perform deformation of an image using the vection control based on the surrounding environment of the moving body.
請求項5に記載の表示制御装置。 The display control device according to claim 5, wherein the control amount calculation unit calculates the vection control amount based on the speed of the moving body.
請求項5に記載の表示制御装置。 The display control device according to claim 5, wherein the control amount calculation unit calculates the vection control amount based on the surrounding environment of the moving body.
請求項1に記載の表示制御装置。 The control amount calculation unit discriminates between a stable gaze area and a peripheral visual field area based on the information of the gaze point of the observer of the image, and calculates the vection control amount with the peripheral visual field area as the predetermined area. The display control device according to claim 1.
請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the image generation unit sets a region obtained based on at least one of the line of sight of the observer of the image and the posture of the head as the predetermined region.
請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the image generation unit has a region in which the optical flow of the video is equal to or greater than a threshold value as the predetermined region.
前記ベクション制御を用いた映像の変形を行う必要があると判定された場合に、前記ベクション制御を用いた映像の変形を行うためのベクション制御量を算出することと、
算出された前記ベクション制御量に基づいて、所定の領域を変形させた映像を生成することと
を含む
表示制御方法。 Determining whether it is necessary to transform the image using vection control, and
When it is determined that it is necessary to transform the image using the vection control, the vection control amount for transforming the image using the vection control is calculated.
A display control method including generating an image in which a predetermined area is deformed based on the calculated vection control amount.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020044121A JP2021145287A (en) | 2020-03-13 | 2020-03-13 | Display control device and display control method |
PCT/JP2021/008273 WO2021182254A1 (en) | 2020-03-13 | 2021-03-03 | Display control device and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020044121A JP2021145287A (en) | 2020-03-13 | 2020-03-13 | Display control device and display control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021145287A true JP2021145287A (en) | 2021-09-24 |
Family
ID=77672222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020044121A Pending JP2021145287A (en) | 2020-03-13 | 2020-03-13 | Display control device and display control method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021145287A (en) |
WO (1) | WO2021182254A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023157053A1 (en) * | 2022-02-15 | 2023-08-24 | 日本電信電話株式会社 | Visual field expansion device, visual field expansion method, visual field expansion program, and visual field expansion system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007116309A (en) * | 2005-10-19 | 2007-05-10 | Seiko Epson Corp | Image information reproduction apparatus |
US8692845B2 (en) * | 2010-10-28 | 2014-04-08 | Eastman Kodak Company | Head-mounted display control with image-content analysis |
JP6092437B1 (en) * | 2016-02-02 | 2017-03-08 | 株式会社コロプラ | Virtual space image providing method and program thereof |
US20170255258A1 (en) * | 2016-03-02 | 2017-09-07 | The Trustees Of Columbia University In The City Of New York | Imperceptible Automatic Field-of-View Restrictors to Combat VR Sickness and Cybersickness |
-
2020
- 2020-03-13 JP JP2020044121A patent/JP2021145287A/en active Pending
-
2021
- 2021-03-03 WO PCT/JP2021/008273 patent/WO2021182254A1/en active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023157053A1 (en) * | 2022-02-15 | 2023-08-24 | 日本電信電話株式会社 | Visual field expansion device, visual field expansion method, visual field expansion program, and visual field expansion system |
Also Published As
Publication number | Publication date |
---|---|
WO2021182254A1 (en) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11484790B2 (en) | Reality vs virtual reality racing | |
JP5387763B2 (en) | Video processing apparatus, video processing method, and video processing program | |
CN110362193B (en) | Target tracking method and system assisted by hand or eye tracking | |
US10409447B2 (en) | System and method for acquiring partial space in augmented space | |
JP2017142569A (en) | Method and program for providing head-mounted display with virtual space image | |
JP6620063B2 (en) | Image processing apparatus and image processing method | |
JP2014219621A (en) | Display device and display control program | |
CN111095363B (en) | Display system and display method | |
US11314396B2 (en) | Selecting a text input field using eye gaze | |
JP2021531493A (en) | Dynamic panel masking | |
WO2021182254A1 (en) | Display control device and display control method | |
JP6963399B2 (en) | Program, recording medium, image generator, image generation method | |
US20210392318A1 (en) | Gaze tracking apparatus and systems | |
US11315215B2 (en) | Movement within an environment | |
CN110796116A (en) | Multi-panel display system, vehicle with multi-panel display system and display method | |
CN115985209A (en) | Wearable display device, control method, control device, electronic device and storage medium | |
WO2022004130A1 (en) | Information processing device, information processing method, and storage medium | |
JP7258620B2 (en) | Image processing system and image processing method | |
WO2021014673A1 (en) | Device, method, and program for controlling image display | |
WO2021002116A1 (en) | Information processing device, information processing method, and program | |
KR101973174B1 (en) | Apparatus for controlling drone based on gesture-recognition and method for using the same | |
CN111949113A (en) | Image interaction method and device applied to virtual reality VR scene | |
JP2017142769A (en) | Method and program for providing head-mounted display with virtual space image | |
JP2022184456A (en) | Image processing apparatus, image processing method, and program | |
CN116068765A (en) | Visual field blind area display method, device, equipment, vehicle and storage medium |