JP2021145287A - Display control device and display control method - Google Patents

Display control device and display control method Download PDF

Info

Publication number
JP2021145287A
JP2021145287A JP2020044121A JP2020044121A JP2021145287A JP 2021145287 A JP2021145287 A JP 2021145287A JP 2020044121 A JP2020044121 A JP 2020044121A JP 2020044121 A JP2020044121 A JP 2020044121A JP 2021145287 A JP2021145287 A JP 2021145287A
Authority
JP
Japan
Prior art keywords
vection
image
control
control amount
display control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020044121A
Other languages
Japanese (ja)
Inventor
脩 繁田
Osamu Shigeta
脩 繁田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Priority to JP2020044121A priority Critical patent/JP2021145287A/en
Priority to PCT/JP2021/008273 priority patent/WO2021182254A1/en
Publication of JP2021145287A publication Critical patent/JP2021145287A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

To display an image that takes into consideration a human sense.SOLUTION: A display control device disclosed herein includes a determination unit that determines whether it is necessary to transform an image using vection control, a control amount calculation unit that calculates a vection control amount for transforming the image using vection control when the determination unit determines that it is necessary to transform the image using vection control, and an image generation unit that generates an image in which a predetermined area is deformed on the basis of the vection control amount calculated by the control amount calculation unit.SELECTED DRAWING: Figure 5

Description

本開示は、表示制御装置、および表示制御方法に関する。 The present disclosure relates to a display control device and a display control method.

ロボットやドローンなどの移動体をディスプレイに表示された映像を見ながら遠隔操作するシステム等が開発されている。 Systems have been developed to remotely control moving objects such as robots and drones while watching the images displayed on the display.

特開2019−89512号公報JP-A-2019-89512

玉田靖明,“近年のベクション研究の動向”,視覚の科学,2017年,第38巻,第1号,p.5−10Yasuaki Tamada, “Recent Trends in Vection Research”, Science of Vision, 2017, Vol. 38, No. 1, p.5-10 “ベクション”,[online],NEXCO中日本,[令和2年2月25日検索],インターネット<URL:https://www.c-nexco.co.jp/jam/cause/measure05.html>"Vection", [online], NEXCO Central Japan, [Search on February 25, 2nd year of Reiwa], Internet <URL: https://www.c-nexco.co.jp/jam/cause/measure05.html> “道路に水玉模様で速度落ちる? 一般道初、峠道の事故対策に導入 その効果とは”,[online],2018.08.27,乗りものニュース編集部,[令和2年2月25日検索],インターネット<URL:https://trafficnews.jp/post/81300>"Slow down on the road with polka dots? First on a general road, introduced as an accident countermeasure on a mountain pass What is the effect?", [Online], 2018.08.27, Vehicle News Editorial Department, [Search on February 25, 2nd year of Reiwa ], Internet <URL: https://trafficnews.jp/post/81300> “VRゲームプレイ「Eagle Flight」鷲になってパリの街を飛び回る!vol.1”,[online],2016/10/30,クオのVRとゲーム,[令和2年2月25日検索],インターネット<URL:https://www.youtube.com/watch?v=Ob#SgQytsWg>“VR gameplay“ Eagle Flight ”Become an eagle and fly around the city of Paris! vol.1 ”, [online], 2016/10/30, Kuo's VR and games, [Search on February 25, 2nd year of Reiwa], Internet <URL: https://www.youtube.com/watch?v = Ob # SgQytsWg > Paul Bourke,“Converting dual fisheye images into a spherical (equirectangular) projection”,[online],August 2016,[令和2年2月25日検索],インターネット<URL:http://paulbourke.net/dome/dualfish2sphere/>Paul Bourke, “Converting dual fisheye images into a spherical (equirectangular) projection”, [online], August 2016, [Searched on February 25, 2nd year of Reiwa], Internet <URL: http://paulbourke.net/dome/ dualfish2sphere />

ディスプレイ等に表示された映像を見ながら遠隔操作等を行う場合、いわゆるVR(Virtual Reality)酔いが発生し、作業効率が低下し得る。 When remote control or the like is performed while viewing an image displayed on a display or the like, so-called VR (Virtual Reality) sickness may occur and work efficiency may decrease.

人の感覚を考慮した映像を表示することが可能な表示制御装置、および表示制御方法を提供することが望ましい。 It is desirable to provide a display control device and a display control method capable of displaying an image in consideration of human senses.

本開示の一実施の形態に係る表示制御装置は、ベクション制御を用いた映像の変形を行う必要があるか否かを判定する判定部と、判定部によってベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量を算出する制御量計算部と、制御量計算部によって算出されたベクション制御量に基づいて、所定の領域を変形させた映像を生成する映像生成部とを備える。 The display control device according to the embodiment of the present disclosure has a determination unit that determines whether or not it is necessary to transform an image using vection control, and a determination unit that transforms an image using vection control. When it is determined that it is necessary, it is determined based on the control amount calculation unit that calculates the vection control amount for deforming the image using the vection control and the vection control amount calculated by the control amount calculation unit. It is provided with an image generation unit that generates an image obtained by transforming the area of.

本開示の一実施の形態に係る表示制御方法は、ベクション制御を用いた映像の変形を行う必要があるか否かを判定することと、ベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量を算出することと、算出されたベクション制御量に基づいて、所定の領域を変形させた映像を生成することとを含む。 According to the display control method according to the embodiment of the present disclosure, it is necessary to determine whether or not it is necessary to perform image transformation using vection control and to perform image transformation using vection control. When it is determined, the vection control amount for deforming the image using the vection control is calculated, and the image in which a predetermined area is deformed is generated based on the calculated vection control amount. including.

本開示の一実施の形態に係る表示制御装置、または表示制御方法では、ベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量が算出され、算出されたベクション制御量に基づいて、所定の領域を変形させた映像が生成される。 In the display control device or the display control method according to the embodiment of the present disclosure, when it is determined that it is necessary to transform the image using the vection control, the image is transformed using the vection control. The vection control amount is calculated, and an image in which a predetermined area is deformed is generated based on the calculated vection control amount.

遠隔操作システムの第1の例を示す構成図である。It is a block diagram which shows the 1st example of a remote control system. 遠隔操作システムの第2の例を示す構成図である。It is a block diagram which shows the 2nd example of a remote control system. ベクションを用いた技術の一例を示す説明図である。It is explanatory drawing which shows an example of the technique using vection. 本開示の第1の実施の形態に係る表示制御装置を含む表示システムの概要を示すブロック図である。It is a block diagram which shows the outline of the display system including the display control device which concerns on 1st Embodiment of this disclosure. 第1の実施の形態に係る表示システムの詳細な構成例を示すブロック図である。It is a block diagram which shows the detailed configuration example of the display system which concerns on 1st Embodiment. 第1の実施の形態に係る表示システムにおける表示部に表示される、歪みのない通常状態の映像の一例を示す説明図である。It is explanatory drawing which shows an example of the image in a normal state without distortion, which is displayed on the display part in the display system which concerns on 1st Embodiment. 第1の実施の形態に係る表示システムにおける表示部に表示される、ベクション制御による変形後の映像の一例を示す説明図である。It is explanatory drawing which shows an example of the image after transformation by the vection control, which is displayed on the display part in the display system which concerns on 1st Embodiment. 第1の実施の形態に係る表示システムにおける表示部に表示される、ベクション制御による変形後の映像における周辺視野領域の画角等についての説明図である。It is explanatory drawing about the angle of view of the peripheral visual field region in the image after transformation by the vection control, which is displayed on the display part in the display system which concerns on 1st Embodiment. 図8に対して視線方向が変化した場合における周辺視野領域の画角等についての説明図である。It is explanatory drawing about the angle of view of the peripheral visual field region, etc. when the line-of-sight direction changes with respect to FIG. 第1の実施の形態に係る表示システムにおけるベクションを用いた表示制御の動作フローの一例を概略的に示す流れ図である。It is a flow chart which shows typically an example of the operation flow of the display control using vection in the display system which concerns on 1st Embodiment. 第1の実施の形態に係る表示制御装置におけるベクション制御判定部によるベクション制御の必要性の判定動作の一例を概略的に示す流れ図である。FIG. 5 is a flow chart schematically showing an example of a determination operation of the necessity of vection control by a vection control determination unit in the display control device according to the first embodiment. 第1の実施の形態に係る表示制御装置におけるベクション制御量計算部による、速度に応じた視野拡大率の第1の算出例を示す説明図である。It is explanatory drawing which shows the 1st calculation example of the field of view enlargement ratio according to the speed by the vection control amount calculation unit in the display control apparatus which concerns on 1st Embodiment. 第1の実施の形態に係る表示制御装置におけるベクション制御量計算部による、速度に応じた視野拡大率の第2の算出例を示す説明図である。It is explanatory drawing which shows the 2nd calculation example of the field of view enlargement ratio according to the speed by the vection control amount calculation unit in the display control apparatus which concerns on 1st Embodiment. 視野拡大率に基づく魚眼映像の座標変換の一例を示す説明図である。It is explanatory drawing which shows an example of the coordinate transformation of the fisheye image based on the field of view magnification. 操作対象が地面から離れた場所を移動している状況の一例を概略的に示す説明図である。It is explanatory drawing which shows typically an example of the situation where the operation target is moving a place away from the ground. 操作対象が地面に近い場所を移動している状況の一例を概略的に示す説明図である。It is explanatory drawing which shows typically an example of the situation where the operation target is moving a place close to the ground. 操作対象が壁に近い場所を移動している状況の一例を概略的に示す説明図である。It is explanatory drawing which shows typically an example of the situation where the operation target is moving the place near a wall. 第1の実施の形態に係る表示制御装置におけるベクション制御判定部によるベクション制御の必要性の判定動作の一変形例を概略的に示す流れ図である。It is a flow chart which shows typically one modification of the operation of determining the necessity of vection control by the vection control determination unit in the display control device which concerns on 1st Embodiment. ベクション制御による変形後の映像の第1の変形例を示す説明図である。It is explanatory drawing which shows the 1st transformation example of the image after transformation by the vection control. ベクション制御による変形後の映像の第2の変形例を示す説明図である。It is explanatory drawing which shows the 2nd transformation example of the image after transformation by the vection control. ベクション制御を行う領域の変形例を示す説明図である。It is explanatory drawing which shows the modification of the region which performs vection control.

以下、本開示の実施の形態について図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
0.比較例(図1〜図3)
1.第1の実施の形態(図4〜図21)
1.1 構成
1.2 動作
1.3 変形例
1.4 効果
2.その他の実施の形態
Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. The explanation will be given in the following order.
0. Comparative example (Figs. 1 to 3)
1. 1. First Embodiment (FIGS. 4 to 21)
1.1 Configuration 1.2 Operation 1.3 Modification example 1.4 Effect 2. Other embodiments

<0.比較例>
図1は、遠隔操作システムの第1の例を示している。図2は、遠隔操作システムの第2の例を示している。
<0. Comparative example>
FIG. 1 shows a first example of a remote control system. FIG. 2 shows a second example of a remote control system.

5Gに代表される通信インフラの進展に伴い、ディスプレイや遠隔操作機器等を用いて、ロボット、ロボットアーム、車、およびドローンなどの機器を遠隔からリアルタイムで操作することを可能にする技術の開発が望まれている。また、遠隔地にいる人等に対して遠隔からリアルタイムで作業の指示等をしたり、ロボットやドローンなど用いて遠隔地をリアルタイムで観察したりすることを可能にする技術の開発が望まれている。例えば、図1に示したように、操作者100がHMD(ヘッドマウントディスプレイ)102を用いてロボット101等を遠隔から操作する技術の開発が望まれている。また、図2に示したように、操作者110が大画面ディスプレイ111を用いて遠隔地の映像を表示して作業等をする技術の開発が望まれている。 With the development of communication infrastructure represented by 5G, the development of technology that enables remote real-time operation of devices such as robots, robot arms, cars, and drones using displays and remote control devices has been developed. It is desired. In addition, it is desired to develop a technology that enables remote real-time work instructions to people in remote areas and real-time observation of remote areas using robots and drones. There is. For example, as shown in FIG. 1, it is desired to develop a technique for the operator 100 to remotely control the robot 101 or the like using the HMD (head-mounted display) 102. Further, as shown in FIG. 2, it is desired to develop a technique for the operator 110 to display an image of a remote place by using the large screen display 111 and perform work or the like.

このような遠隔操作等を行う場合、VR酔いに代表されるように、感覚不一致による酔いが発生し、作業等を継続することが困難となり、作業効率が低下することが考えられる。この感覚不一致は、例えば操作者(観察者)自身が実際には動いていないのにも関わらず、動いている映像を見せられることにより、その矛盾によってVR酔いといった酔いの不快感が生じる現象である。故に、操作者が移動している感覚を低減することで感覚不一致による酔いの影響を低減することができる。 When such remote control is performed, as typified by VR sickness, sickness due to sensory disagreement may occur, making it difficult to continue the work or the like, and reducing work efficiency. This sensory disagreement is a phenomenon in which, for example, the operator (observer) himself is not actually moving, but is shown a moving image, and the contradiction causes the discomfort of sickness such as VR sickness. be. Therefore, it is possible to reduce the influence of sickness due to sensory inconsistency by reducing the sensation that the operator is moving.

また、HMDを用いた場合のような没入感のある映像は臨場感がある一方、没入感が強いために、操作者に対して速い速度で移動しているような映像が提示されると、操作者に恐怖感が発生し効率的な作業が困難となる。逆に、遠隔の操縦者が必要以上に速度を上げてドローンなどの移動体を操縦するような場合、移動体周辺の人に危険や不安感をおよぼすことが考えられる。この場合、操縦者の注意力を削ぐことなく移動体の速度を下げるように操縦者を誘導することが望ましい。 In addition, while an immersive image such as when using an HMD has a sense of presence, the immersive feeling is so strong that when an image that seems to be moving at a high speed is presented to the operator, The operator feels a sense of fear and it becomes difficult to work efficiently. On the contrary, when a remote operator operates a moving object such as a drone at an unnecessarily high speed, it may cause danger or anxiety to people around the moving object. In this case, it is desirable to guide the operator to slow down the moving object without reducing the operator's attention.

一方、人の運動感覚に関して、ベクション(視覚誘導性自己運動感覚)に着目した技術がある。ここで、ベクションとは、実際には自分は動いていないが、あたかも自分が動いているように錯覚する現象である。例えば、静止した電車に乗車中に隣の電車が動き出すと、あたかも静止中の電車が動いているように錯覚するようなことが、一例として挙げられる。ベクションは、静止時以外にも移動時における速度感を錯覚させることも可能である。 On the other hand, regarding human kinesthetic sensation, there is a technique focusing on vection (visually induced self-motor sensation). Here, vection is a phenomenon in which one is not actually moving, but one feels as if one is moving. For example, when the next train starts to move while riding on a stationary train, it gives the illusion that the stationary train is moving. Vection can also give the illusion of speed when moving as well as when stationary.

図3は、ベクションを用いた技術の一例を示している。ベクションは、例えば図3に示したように道路の路面に複数の丸いドット121を連続的にペイントしたり、道路脇に複数の発光点を連続的に表示することにより、車両が実際より速く移動しているようにドライバーに錯覚させ、ドライバーに対して速度を下げるように誘導する例として活用されている(非特許文献2,3参照)。 FIG. 3 shows an example of a technique using vection. For example, as shown in FIG. 3, the vehicle moves faster than it actually is by continuously painting a plurality of round dots 121 on the road surface or continuously displaying a plurality of light emitting points on the side of the road. It is used as an example of inducing the driver to slow down by giving the driver the illusion of doing so (see Non-Patent Documents 2 and 3).

特許文献1には、ヘッドアップディスプレイを用いて、車の運転中に光点を視界内に重畳することによって、速度超過防止を図る技術が提案されている。また、非特許文献4の技術では、視野内の周辺視野の一部の映像を暗転して周辺視野のオプティカルフローを遮断することで、ベクションによる感覚不一致の影響を低減し、VR酔いを防止している。これらベクションを用いた技術に共通する課題は、視界に光点を重畳したり、視界の一部を遮蔽することによる、視界の妨げが操作の支障になることである。また、例えばVRゲームにおける、光点やドットのAR(Augmented Reality)表示は、本来コンテンツが提示する世界感に不要なものであり、コンテンツへの没入感を低減させる。また、VRゲームでは、連続的な移動をすることなく、距離の離れた第1の地点から第2の地点へと瞬間的にワープすることで、ベクションによる感覚不一致の問題に対応する技術があるが、実世界の映像をワープすることは通常のカメラ映像の場合は実現性が容易ではない。 Patent Document 1 proposes a technique for preventing overspeed by superimposing light spots in the field of view while driving a vehicle by using a head-up display. Further, in the technique of Non-Patent Document 4, by darkening a part of the image of the peripheral visual field in the visual field and blocking the optical flow of the peripheral visual field, the influence of sensory mismatch due to vection is reduced and VR sickness is prevented. ing. A common problem with these technologies using vection is that the obstruction of the visual field by superimposing a light spot on the visual field or blocking a part of the visual field hinders the operation. Further, for example, in a VR game, the AR (Augmented Reality) display of light spots and dots is unnecessary for the world view originally presented by the content, and reduces the immersive feeling in the content. Also, in VR games, there is a technology to deal with the problem of sensory disagreement due to vection by instantaneously warping from a first point to a second point at a distance without moving continuously. However, it is not easy to warp a real-world image in the case of a normal camera image.

また、人の視知覚特性として、周辺視野では動体に対する知覚特性は高いが、映像を高解像度に見えていないことがよく知られている。これを応用した例として、fobeated renderingと呼ばれる手法がある。この手法では、周辺視野の解像度は落とし、注視している近傍の領域のみ高解像度に映像をレンダリングすることで、人に違和感を与えることなくレンダリングの処理コストを削減する。 Further, as a human visual perception characteristic, it is well known that although the perception characteristic for a moving object is high in the peripheral visual field, the image cannot be seen at a high resolution. As an example of applying this, there is a method called fobeated rendering. In this method, the resolution of the peripheral visual field is reduced, and the image is rendered at a high resolution only in the vicinity of the area of gaze, thereby reducing the rendering processing cost without giving a sense of discomfort to humans.

そこで、操作者(映像の観察者)等の視界を不必要に妨げることなく、ベクションを活用し、人の感覚、特に人が感じる速度感を適切に制御する技術の開発が望まれる。 Therefore, it is desired to develop a technique for appropriately controlling a human sense, particularly a sense of speed that a person feels, by utilizing vection without unnecessarily obstructing the field of view of an operator (image observer) or the like.

<1.第1の実施の形態>
[1.1 構成]
(表示システムの概要)
図4は、本開示の第1の実施の形態に係る表示制御装置1を含む表示システムの概要を示している。図5は、第1の実施の形態に係る表示システムの詳細な構成例を示している。
<1. First Embodiment>
[1.1 Configuration]
(Overview of display system)
FIG. 4 shows an outline of a display system including the display control device 1 according to the first embodiment of the present disclosure. FIG. 5 shows a detailed configuration example of the display system according to the first embodiment.

第1の実施の形態に係る表示システムは、例えば上記比較例において説明したロボットやドローンなどの移動体(操作対象)の遠隔操作システム等に適用可能である。また、現実の遠隔操作システム等に限らず、VRゲーム等の仮想現実のシステムにも適用可能である。 The display system according to the first embodiment can be applied to, for example, a remote control system for a moving body (operation target) such as a robot or a drone described in the above comparative example. Further, it can be applied not only to a real remote control system or the like but also to a virtual reality system such as a VR game.

第1の実施の形態に係る表示システムは、入力部10と、表示制御装置1と、表示部40とを備えている。表示制御装置1は、制御部20と処理部30とを備えている。 The display system according to the first embodiment includes an input unit 10, a display control device 1, and a display unit 40. The display control device 1 includes a control unit 20 and a processing unit 30.

入力部10は例えば、撮像部11と、センサ部12と、送信部13とを有している。撮像部11は例えば広角カメラで構成される。センサ部12は例えば、速度センサ、加速度センサ、および距離センサ等を含む。また、センサ部12は、アイトラッキングが可能な視線検出センサや、ヘッドトラッキングが可能な検出センサ等を含んでいてもよい。遠隔操作システムに適用する場合、例えば、撮像部11と、センサ部12の一部(速度センサ、加速度センサ、および距離センサ等)は、操作対象の移動体に設けられている。 The input unit 10 includes, for example, an image pickup unit 11, a sensor unit 12, and a transmission unit 13. The image pickup unit 11 is composed of, for example, a wide-angle camera. The sensor unit 12 includes, for example, a speed sensor, an acceleration sensor, a distance sensor, and the like. Further, the sensor unit 12 may include a line-of-sight detection sensor capable of eye tracking, a detection sensor capable of head tracking, and the like. When applied to a remote control system, for example, the image pickup unit 11 and a part of the sensor unit 12 (speed sensor, acceleration sensor, distance sensor, etc.) are provided on the moving body to be operated.

入力部10は、撮像部11において例えば広視野角の映像を撮影し、送信部13によって有線または無線を用いて、制御部20に映像データを送信する。また、入力部10は、センサ部12によって操作対象の速度や角速度を検出し、その検出データを制御部20に送信してもよい。また、入力部10は、センサ部12によって周辺の障害物との距離を検出し、その距離情報を制御部20に送信してもよい。また、入力部10は、センサ部12によって操作者(映像の観察者)の視線や頭部の姿勢等を検出し、そのトラッキング情報を制御部20に送信してもよい。 The input unit 10 captures, for example, a wide viewing angle image in the image pickup unit 11, and transmits the image data to the control unit 20 by the transmission unit 13 by wire or wirelessly. Further, the input unit 10 may detect the speed or angular velocity of the operation target by the sensor unit 12 and transmit the detection data to the control unit 20. Further, the input unit 10 may detect the distance to the surrounding obstacle by the sensor unit 12 and transmit the distance information to the control unit 20. Further, the input unit 10 may detect the line of sight of the operator (observer of the image), the posture of the head, and the like by the sensor unit 12, and transmit the tracking information to the control unit 20.

制御部20は例えば、受信部21と、ベクション制御判定部22と、ベクション制御量計算部23とを有している。
ベクション制御判定部22は、本開示の技術における「判定部」の一具体例に相当する。ベクション制御量計算部23は、本開示の技術における「制御量計算部」の一具体例に相当する。
The control unit 20 includes, for example, a reception unit 21, a vection control determination unit 22, and a vection control amount calculation unit 23.
The vection control determination unit 22 corresponds to a specific example of the “determination unit” in the technique of the present disclosure. The vection control amount calculation unit 23 corresponds to a specific example of the “control amount calculation unit” in the technique of the present disclosure.

制御部20は、受信部21によって有線または無線を用いて入力部10の送信部13から送信されてきた映像データや検出データ等を受信する。制御部20は、ベクション制御を行う必要があるか否かを、ベクション制御判定部22によって判定する。制御部20は、ベクション制御判定部22によってベクション制御を行うことが必要と判定された場合、映像のベクション制御量をベクション制御量計算部23によって状況に応じて算出する。ベクション制御量は、例えば、後述する視野拡大率M、および注視点51の情報等を含む。ベクション制御量計算部は、後述するように、例えば、映像に対する注視点51の情報に基づいて、安定注視野領域50と周辺視野領域60とを判別し、周辺視野領域60を所定の領域とするベクション制御量を算出する。制御部20は、ベクション制御量計算部23によって算出されたベクション制御量を処理部30に出力する。 The control unit 20 receives video data, detection data, and the like transmitted from the transmission unit 13 of the input unit 10 by wire or wirelessly by the reception unit 21. The control unit 20 determines whether or not it is necessary to perform vection control by the vection control determination unit 22. When the control unit 20 determines that it is necessary to perform the vection control by the vection control determination unit 22, the control unit 20 calculates the vection control amount of the video according to the situation by the vection control amount calculation unit 23. The vection control amount includes, for example, information on the visual field enlargement ratio M and the gazing point 51, which will be described later. As will be described later, the vection control amount calculation unit discriminates between the stable gaze area 50 and the peripheral visual field area 60 based on the information of the gaze point 51 with respect to the image, and sets the peripheral visual field area 60 as a predetermined area. Calculate the vection control amount. The control unit 20 outputs the vection control amount calculated by the vection control amount calculation unit 23 to the processing unit 30.

処理部30は例えば、映像生成部31を有している。処理部30は、映像生成部31によって、制御部20のベクション制御量計算部23からのベクション制御量に応じた周辺視野と注視野周辺とを実現するような映像生成を行う。 The processing unit 30 has, for example, a video generation unit 31. The processing unit 30 generates an image by the image generation unit 31 so as to realize a peripheral visual field and a gaze area according to the vection control amount from the vection control amount calculation unit 23 of the control unit 20.

表示部40は例えば、HMDによって構成されている。表示部40は、処理部30の映像生成部31によって生成された映像を操作者に提示する。 The display unit 40 is composed of, for example, an HMD. The display unit 40 presents the video generated by the video generation unit 31 of the processing unit 30 to the operator.

[1.2 動作]
(ベクション制御の具体例)
ここでは、入力部10の撮像部11を例えば260°の撮影画角を有する広角魚眼カメラとする。また、表示部40をHMDとし、ドローンを移動制御するものとする。
[1.2 Operation]
(Specific example of vection control)
Here, the imaging unit 11 of the input unit 10 is, for example, a wide-angle fisheye camera having a shooting angle of view of 260 °. Further, it is assumed that the display unit 40 is an HMD and the drone is moved and controlled.

図6は、表示部40に表示される、歪みのない通常状態の映像の一例を示している。
図7は、表示部40に表示される、ベクション制御による変形後の映像の一例を示している。
FIG. 6 shows an example of an image in a normal state without distortion displayed on the display unit 40.
FIG. 7 shows an example of the image displayed on the display unit 40 after being deformed by the vection control.

上記比較例で説明したように、人間はベクションの影響で移動量を錯覚する。第1の実施の形態に係る表示システムでは、ベクション制御判定部22によってベクション制御を行うことが必要と判定された場合、表示部40に図7に示したようなベクション制御による変形後の映像を表示する。映像の変形は所定の領域に対して行う。所定の領域は、例えば周辺視野領域60である。変形後の映像としては、注視点51の近傍の安定注視野領域50と周辺視野領域60とで、後述する視野拡大率Mの異なる状態の映像を表示する。例えば図7に示したように、注視点51の近傍の安定注視野領域50では歪みのない通常状態の映像を表示する。また、周辺視野領域60では、図6に示したような歪みのない通常状態の映像に代えて周辺視野の映像を圧縮した映像(視野としては拡大された映像)を表示する。図7に示した変形後の映像では、図6の通常状態の映像と比較して周辺視野領域60の視界が拡大されていることが分かる。周辺視野領域60の視界が拡大されるということは、ドローンの移動時に発生する映像の移動量(オプティカルフロー)の速度が低下するため、同じ移動速度でドローンが移動した場合でも、図7に示した変形後の映像では図6の通常状態の映像と比べて体感速度が遅くなる。弊害として映像が歪むことになるが、人の目の周辺視野領域60の解像度は低いため、人の視知覚の特性上、歪みを知覚しにくい。逆に、周辺視野領域60を狭く見せることで、ベクションの効果により体感上、実際のドローンの移動速度よりも速く感じさせることも可能である。 As explained in the above comparative example, human beings have an illusion of the amount of movement due to the influence of vection. In the display system according to the first embodiment, when it is determined by the vection control determination unit 22 that it is necessary to perform vection control, the display unit 40 displays an image after deformation by vection control as shown in FIG. indicate. The image is deformed in a predetermined area. The predetermined region is, for example, the peripheral visual field region 60. As the image after the deformation, an image in a state in which the stable visual field region 50 near the gazing point 51 and the peripheral visual field region 60 have different visual field enlargement ratios M, which will be described later, is displayed. For example, as shown in FIG. 7, in the stable gaze area 50 near the gaze point 51, an image in a normal state without distortion is displayed. Further, in the peripheral visual field region 60, a compressed image (an enlarged image as a visual field) is displayed instead of the image in a normal state without distortion as shown in FIG. In the deformed image shown in FIG. 7, it can be seen that the field of view of the peripheral visual field region 60 is enlarged as compared with the image in the normal state of FIG. The expansion of the field of view of the peripheral visual field area 60 reduces the speed of the moving amount (optical flow) of the image generated when the drone moves, so that even if the drone moves at the same moving speed, it is shown in FIG. In the deformed image, the perceived speed is slower than that in the image in the normal state of FIG. As an adverse effect, the image is distorted, but since the resolution of the peripheral visual field region 60 of the human eye is low, it is difficult to perceive the distortion due to the characteristics of human visual perception. On the contrary, by making the peripheral visual field area 60 look narrow, it is possible to make the drone feel faster than the actual moving speed due to the effect of vection.

図8および図9を参照して、第1の実施の形態に係る表示システムにおける表示部に表示される、ベクション制御による変形後の映像における周辺視野領域60の画角等について説明する。図9は、図8に対して視線方向が変化した場合における周辺視野領域60の画角等について示している。 With reference to FIGS. 8 and 9, the angle of view of the peripheral visual field region 60 in the image after deformation by vection control, which is displayed on the display unit in the display system according to the first embodiment, will be described. FIG. 9 shows the angle of view and the like of the peripheral visual field region 60 when the line-of-sight direction changes with respect to FIG.

図8および図9に示したように、注視点51を中心とした映像を歪ませない安定注視野領域50の画角をR1とし、変形後の周辺視野領域60の画角をR3,撮像部11による撮影画角から安定注視野領域50の画角R3を除いた画角をR2とする。周辺視野領域60の画角R3は、周辺視野領域60の視野拡大率Mによって決定され、Mは下記式で求まる。*は乗算記号を示す。各画角の単位はdegreeとする。
M=(R2/R3)*100(%)
As shown in FIGS. 8 and 9, the angle of view of the stable visual field region 50 that does not distort the image centered on the gazing point 51 is R1, and the angle of view of the peripheral visual field region 60 after deformation is R3. Let R2 be the angle of view obtained by excluding the angle of view R3 of the stable viewing area 50 from the angle of view taken by 11. The angle of view R3 of the peripheral visual field region 60 is determined by the visual field enlargement ratio M of the peripheral visual field region 60, and M is obtained by the following formula. * Indicates a multiplication symbol. The unit of each angle of view is degree.
M = (R2 / R3) * 100 (%)

例えば、安定注視野領域50の画角R1が60°、撮影画角が260°の場合、画角R2は100°(260/2−60/2)となる。視野拡大率Mが200%の場合、周辺視野領域60の画角R3は50°となる。つまり100°分の画角の映像が画角R3の周辺視野領域60に2倍に圧縮されて表示され、視野としては2倍に拡大される。視野拡大率Mを変更することで、ベクションによる移動速度感を連続的に制御することが可能となる。視野拡大率Mを100%より大きくすることで、周辺視野領域60のオプティカルフローの速度が遅くなり体感速度は低下する。視野拡大率Mを100%より小さくすることで、視野としては圧縮され、オプティカルフローの速度が速くなり、体感速度が向上する。入力部10のセンサ部12によってアイトラッキングによる視線検出やヘッドトラッキングによる頭部の姿勢検出を低遅延でかつ高精度に行うことができる場合は、安定注視野領域50を狭めても良いし、逆にそうでない場合は安定注視野領域50を広げることで、歪みの領域を知覚しにくくしても良い。 For example, when the angle of view R1 of the stable viewing area 50 is 60 ° and the shooting angle of view is 260 °, the angle of view R2 is 100 ° (260 / 2-60/2). When the visual field magnification M is 200%, the angle of view R3 of the peripheral visual field region 60 is 50 °. That is, the image having an angle of view of 100 ° is compressed twice and displayed in the peripheral visual field region 60 of the angle of view R3, and the field of view is enlarged twice. By changing the field of view enlargement ratio M, it is possible to continuously control the feeling of movement speed due to vection. By increasing the visual field enlargement ratio M to more than 100%, the speed of the optical flow in the peripheral visual field region 60 becomes slower, and the perceived speed decreases. By making the visual field enlargement ratio M smaller than 100%, the visual field is compressed, the optical flow speed is increased, and the perceived speed is improved. If the sensor unit 12 of the input unit 10 can detect the line of sight by eye tracking and the posture of the head by head tracking with low delay and with high accuracy, the stable gaze area 50 may be narrowed, or vice versa. If this is not the case, the stable gaze area 50 may be widened to make it difficult to perceive the distorted area.

ここで、注視点51は、入力部10のセンサ部12による視線検出および頭部の姿勢検出のトラッキング情報を用いて決定される。つまり、HMDを装着した操作者の視線方向が図8に示したように映像の正面方向を向いている場合、頭部を回転すると、安定注視野領域50は常に、映像の中心に対して適用される。また、図9に示したように視線方向が変化した場合、注視点51を中心に安定注視野領域50が決定される。これにより、頭部を移動することなく目線のみで観察対象を見た際、安定注視野領域50が注視点51に追従するため、周辺視野領域60の歪みが知覚されにくくなる。 Here, the gazing point 51 is determined by using the tracking information of the line-of-sight detection and the posture detection of the head by the sensor unit 12 of the input unit 10. That is, when the line-of-sight direction of the operator wearing the HMD is toward the front of the image as shown in FIG. 8, when the head is rotated, the stable gaze area 50 is always applied to the center of the image. Will be done. Further, when the line-of-sight direction changes as shown in FIG. 9, the stable gaze area 50 is determined centering on the gaze point 51. As a result, when the observation target is viewed only from the line of sight without moving the head, the stable gaze area 50 follows the gaze point 51, so that the distortion of the peripheral visual field area 60 is less likely to be perceived.

(ベクションを用いた表示制御の動作フロー)
図10は、第1の実施の形態に係る表示システムにおけるベクションを用いた表示制御の動作フローの一例を概略的に示している。
(Display control operation flow using vection)
FIG. 10 schematically shows an example of an operation flow of display control using vection in the display system according to the first embodiment.

制御部20のベクション制御判定部22は、入力部10のセンサ部12による視線検出および頭部の姿勢検出のトラッキング情報に基づいて、操作者の注視点51を検出する(ステップS11)。次に、ベクション制御判定部22は、撮像部11によって撮影された映像に対してベクション制御を行う必要があるか否かを判定する(ステップS12)。ベクション制御判定部22は、例えば、入力部10のセンサ部12による速度や角速度の検出データに基づいて、ドローンの移動や旋回の有無を判定し、移動や旋回が行われている場合には、ベクション制御を行う必要があると判定する(ステップS12:Y)。また、ベクション制御判定部22は、例えば、入力部10のセンサ部12による速度や角速度の検出データに基づいて、ドローンが静止状態にあると判定される場合には、ベクション制御を行う必要はないと判定する(ステップS12:N)。静止状態であるか否かの判定は、例えば速度が閾値以下であるか否かで判定することができる。また、角速度のノルムが閾値以下であるか否かで判定するようにしてもよい。 The vection control determination unit 22 of the control unit 20 detects the gaze point 51 of the operator based on the tracking information of the line-of-sight detection and the posture detection of the head by the sensor unit 12 of the input unit 10 (step S11). Next, the vection control determination unit 22 determines whether or not it is necessary to perform vection control on the image captured by the imaging unit 11 (step S12). The vection control determination unit 22 determines whether or not the drone is moving or turning based on the detection data of the speed or the angular velocity by the sensor unit 12 of the input unit 10, and if the drone is moving or turning, for example, if the drone is moving or turning. It is determined that the velocity control needs to be performed (step S12: Y). Further, the vection control determination unit 22 does not need to perform vection control when it is determined that the drone is in a stationary state, for example, based on the detection data of the speed and the angular velocity by the sensor unit 12 of the input unit 10. (Step S12: N). The determination of whether or not the vehicle is in a stationary state can be determined by, for example, whether or not the speed is equal to or less than a threshold value. Further, it may be determined whether or not the norm of the angular velocity is equal to or less than the threshold value.

また、ベクション制御判定部22は、撮像部11によって撮影された動画像に基づいて、ベクション制御を行う必要があるか否かを判定するようにしてもよい。図11は、ベクション制御判定部22によるベクション制御の必要性の判定動作(ステップS12)の一例を概略的に示している。 Further, the vection control determination unit 22 may determine whether or not it is necessary to perform vection control based on the moving image captured by the imaging unit 11. FIG. 11 schematically shows an example of a determination operation (step S12) of the necessity of vection control by the vection control determination unit 22.

ベクション制御判定部22は、撮像部11によって撮影された動画像に基づいて、オプティカルフローを計算する(ステップS21)。次に、ベクション制御判定部22は、周辺視野領域60において、オプティカルフローが閾値以上の領域があるか否かを判定する(ステップS22)。オプティカルフローが閾値以上の領域があると判定される場合(ステップS22:Y)には、ベクション制御判定部22は、ベクション制御を行う必要があると判定する(ステップS23)。オプティカルフローが閾値以上の領域がないと判定される場合(ステップS22:N)には、ベクション制御判定部22は、ベクション制御を行う必要はないと判定する(ステップS24)。 The vection control determination unit 22 calculates the optical flow based on the moving image captured by the imaging unit 11 (step S21). Next, the vection control determination unit 22 determines whether or not there is an region in which the optical flow is equal to or greater than the threshold value in the peripheral visual field region 60 (step S22). When it is determined that the optical flow has a region equal to or larger than the threshold value (step S22: Y), the vection control determination unit 22 determines that it is necessary to perform vection control (step S23). When it is determined that there is no region where the optical flow is equal to or greater than the threshold value (step S22: N), the vection control determination unit 22 determines that it is not necessary to perform vection control (step S24).

ベクション制御判定部22によってベクション制御を行う必要はないと判定された場合(ステップS12:N、ステップS24)には、処理部30の映像生成部31は、通常状態の映像を生成して表示部40に表示する(ステップS16)。表示部40がHMDの場合、映像生成部31は、例えば、Sphereモデルに撮像部11である広角魚眼カメラによって撮影された魚眼映像をテクスチャマッピングする。魚眼映像を全天球にテクスチャマッピングする技術は、例えば非特許文献5に記載の技術を用いることができる。 When the vection control determination unit 22 determines that it is not necessary to perform vection control (step S12: N, step S24), the image generation unit 31 of the processing unit 30 generates an image in a normal state and displays the image. It is displayed on 40 (step S16). When the display unit 40 is an HMD, the image generation unit 31 texture-maps the fisheye image captured by the wide-angle fisheye camera, which is the imaging unit 11, to the Sphere model, for example. As a technique for texture mapping a fisheye image to a spherical image, for example, the technique described in Non-Patent Document 5 can be used.

ベクション制御判定部22によってベクション制御を行う必要があると判定された場合(ステップS12:Y、ステップS23)には、制御部20のベクション制御量計算部23は、視野拡大率Mの算出を行う(ステップS13)。視野拡大率Mは固定値で与えても良いし、ドローンの速度またはオプティカルフローの速度に応じて設定しても良い。これは、速度が速くなるほど、ベクションによる不快感が増加するためである。 When the vection control determination unit 22 determines that it is necessary to perform vection control (step S12: Y, step S23), the vection control amount calculation unit 23 of the control unit 20 calculates the field of view enlargement ratio M. (Step S13). The field of view magnification M may be given as a fixed value, or may be set according to the speed of the drone or the speed of the optical flow. This is because the higher the speed, the greater the discomfort caused by vection.

図12は、ベクション制御量計算部23による、速度に応じた視野拡大率Mの第1の算出例を示している。図13は、ベクション制御量計算部23による、速度に応じた視野拡大率Mの第2の算出例を示している。図12および図13において、縦軸は視野拡大率M、横軸はドローンの速度またはオプティカルフローの速度を示す。ベクション制御量計算部23は、視野拡大率Mを速度に応じて変化させる場合、例えば、視野拡大率Mを100(%)から変化させ始める適用速度閾値Vminを設定してもよい。また、視野拡大率Mの拡大率上限値Mmaxと拡大率下限値Mminとを設定してもよい。視野拡大率Mを100より大きくする場合、ベクション制御量計算部23は、速度が適用速度閾値Vmin以上になったら視野拡大率Mを速度に応じて線形に変化させるが、拡大率上限値Mmaxよりも大きな値には変化させない。これは、撮像部11の撮影画角上、周辺視野の映像を圧縮できる範囲に限界があるためである。同様に、視野拡大率Mを100より小さくする場合、ベクション制御量計算部23は、速度が適用速度閾値Vmin以上になったら視野拡大率Mを速度に応じて線形に変化させるが、拡大率下限値Mminよりも小さな値には変化させない。 FIG. 12 shows a first calculation example of the field of view enlargement ratio M according to the speed by the vection control amount calculation unit 23. FIG. 13 shows a second calculation example of the field of view enlargement ratio M according to the speed by the vection control amount calculation unit 23. In FIGS. 12 and 13, the vertical axis represents the field of view magnification M, and the horizontal axis represents the speed of the drone or the speed of the optical flow. When the visual field enlargement ratio M is changed according to the speed, the vection control amount calculation unit 23 may set, for example, an application speed threshold value Vmin that starts changing the visual field enlargement ratio M from 100 (%). Further, the magnifying power upper limit value Mmax and the magnifying power lower limit value Mmin of the field of view enlargement ratio M may be set. When the field of view expansion rate M is made larger than 100, the vection control amount calculation unit 23 linearly changes the field of view expansion rate M according to the speed when the speed becomes equal to or higher than the application speed threshold value Vmin, but is more than the magnification rate upper limit value Mmax. Does not change to a large value. This is because there is a limit to the range in which the image in the peripheral visual field can be compressed due to the shooting angle of view of the imaging unit 11. Similarly, when the field of view enlargement ratio M is made smaller than 100, the vection control amount calculation unit 23 linearly changes the field of view enlargement ratio M according to the speed when the speed becomes equal to or higher than the application speed threshold value Vmin, but the lower limit of the enlargement ratio. It is not changed to a value smaller than the value Mmin.

なお、図12および図13には、視野拡大率Mを速度に応じて線形に変化させる例を示したが、非線形に視野拡大率Mを変化させてもよい。また、視野拡大率Mを角速度に応じて線形または非線形に変化させてもよい。ドローンの速度は、実際のドローンの速度を計測した値を用いてもよいし、ドローンのコントローラの入力値から推定して求めてもよい。 Although FIGS. 12 and 13 show an example in which the visual field enlargement ratio M is linearly changed according to the speed, the visual field enlargement ratio M may be changed non-linearly. Further, the visual field magnification M may be changed linearly or non-linearly depending on the angular velocity. The speed of the drone may be obtained by using a value obtained by measuring the actual speed of the drone, or by estimating it from the input value of the controller of the drone.

処理部30の映像生成部31は、ベクション制御量計算部23によって算出された視野拡大率Mを含むベクション制御量に基づいて、Sphereモデルにマッピングするテクスチャ座標を算出する(ステップS14)。魚眼映像を全天球にテクスチャマッピングする技術は、例えば非特許文献5に記載の技術を用いることができる。 The image generation unit 31 of the processing unit 30 calculates the texture coordinates to be mapped to the Sphere model based on the vection control amount including the field of view enlargement ratio M calculated by the vection control amount calculation unit 23 (step S14). As a technique for texture mapping a fisheye image to a spherical image, for example, the technique described in Non-Patent Document 5 can be used.

図14は、視野拡大率Mに基づく魚眼映像の座標変換の一例を示している。ここでは、座標変換の例として、魚眼映像の半径の座標(r,θ)を座標変換する例を示す。説明の簡易化のため、魚眼映像の中心が注視点51である状況を例に説明する。図14に示したように安定注視野領域50の半径をr1とし、視野拡大率M(%)を、m=M/100とする。魚眼映像の座標系の半径をrとすると、座標変換後の半径r’は下記のように記述できる。
・安定注視野領域50
r<r1
r’=r
・周辺視野領域60(魚眼映像を中心に向かって圧縮する(m>1)または拡大する(m<1))
r>r1
r’=r1+(r−r1)*m
FIG. 14 shows an example of coordinate conversion of a fisheye image based on the field of view magnification M. Here, as an example of coordinate conversion, an example of coordinate conversion of the coordinates (r, θ) of the radius of the fisheye image is shown. For the sake of simplification of the explanation, a situation in which the center of the fisheye image is the gazing point 51 will be described as an example. As shown in FIG. 14, the radius of the stable visual field region 50 is r1, and the visual field enlargement ratio M (%) is m = M / 100. Assuming that the radius of the coordinate system of the fisheye image is r, the radius r'after the coordinate conversion can be described as follows.
-Stable gaze area 50
r <r1
r'= r
Peripheral visual field region 60 (compresses or enlarges the fisheye image toward the center (m> 1))
r> r1
r'= r1 + (r-r1) * m

図14のように,座標(r,θ)を座標(r’,θ)にサンプリングすることで、m>1の場合、周辺視野領域60の映像を注視点51に対して圧縮(視野としては拡大)することが可能となる。逆にm<1の場合は、周辺視野領域60の映像を注視点51に対して拡大(視野としては圧縮)することもできる。なお、上述したように、注視点51は頭部の姿勢や視線方向に基づいて求められる。 By sampling the coordinates (r, θ) to the coordinates (r', θ) as shown in FIG. 14, when m> 1, the image of the peripheral visual field region 60 is compressed with respect to the gazing point 51 (as a visual field). It becomes possible to expand). On the contrary, when m <1, the image of the peripheral visual field region 60 can be enlarged (compressed as a visual field) with respect to the gazing point 51. As described above, the gazing point 51 is obtained based on the posture of the head and the direction of the line of sight.

映像生成部31は、例えば以上のような座標変換を行うことにより変形した映像を生成して表示部40に表示する(ステップS15)。表示部40がHMDの場合、映像生成部31は、例えば、Sphereモデルに撮像部11である広角魚眼カメラによって撮影された魚眼映像をテクスチャマッピングする。魚眼映像を全天球にテクスチャマッピングする技術は、例えば非特許文献5に記載の技術を用いることができる。 The image generation unit 31 generates, for example, a deformed image by performing the above coordinate conversion and displays it on the display unit 40 (step S15). When the display unit 40 is an HMD, the image generation unit 31 texture-maps the fisheye image captured by the wide-angle fisheye camera, which is the imaging unit 11, to the Sphere model, for example. As a technique for texture mapping a fisheye image to a spherical image, for example, the technique described in Non-Patent Document 5 can be used.

[1.3 変形例]
以上の説明では、安定注視野領域50では視野拡大率を100%とし、周辺視野領域60では視野拡大率をMとする2値的な制御を例に説明したが、本開示の技術は2値的な制御には限らない。具体的には、周辺視野領域60における映像の変形を行う際、安定注視野領域50の画角R1が狭いと、歪みのありなしの境界線が発生し違和感を抱きやすいため、定注視野領域50から離れるに従って視野拡大率Mを段階的に変化するようにしてもよい。特に、表示部40を大画面ディスプレイで実施した場合、歪みのない領域と歪みのある領域との境目の違和感を低減できる。
[1.3 Modification example]
In the above description, a binary control in which the visual field enlargement ratio is 100% in the stable gaze area 50 and the visual field enlargement ratio is M in the peripheral visual field region 60 has been described as an example, but the technique of the present disclosure is binary. It is not limited to control. Specifically, when the image is deformed in the peripheral visual field region 60, if the angle of view R1 of the stable visual field region 50 is narrow, a boundary line with or without distortion is generated and it is easy to feel a sense of discomfort. The visual field enlargement ratio M may be changed stepwise as the distance from 50 is increased. In particular, when the display unit 40 is mounted on a large screen display, it is possible to reduce the sense of discomfort at the boundary between the non-distorted region and the distorted region.

以上の説明では、操作対象の移動状態や速度に応じてベクション制御を行う例を挙げたが、周辺環境を考慮してベクション制御を行うようにしてもよい。例えば、操作対象の周辺に床や壁などの構造物がある場合と、ない場合とで視野拡大率Mを変えてもよいし、ベクション制御を行う必要があるか否かの判定を変えてもよい。 In the above description, an example of performing vection control according to the moving state and speed of the operation target has been given, but vection control may be performed in consideration of the surrounding environment. For example, the field of view magnification M may be changed depending on whether there is a structure such as a floor or a wall around the operation target, or the determination as to whether or not it is necessary to perform vection control may be changed. ..

図15は、ドローン70等の操作対象が地面71から離れた場所を移動している状況の一例を概略的に示している。図16は、ドローン70等の操作対象が地面71から近い場所を移動している状況の一例を概略的に示している。図17は、ドローン70等の操作対象が壁72に近い場所を移動している状況の一例を概略的に示している。 FIG. 15 schematically shows an example of a situation in which an operation target such as a drone 70 is moving away from the ground 71. FIG. 16 schematically shows an example of a situation in which an operation target such as the drone 70 is moving near the ground 71. FIG. 17 schematically shows an example of a situation in which an operation target such as a drone 70 is moving near a wall 72.

例えば図15に示したようにドローン70等の操作対象が地面71から遠く離れた場所(距離d)を移動している状況と、図16に示したように地面71から近い場所を移動している状況や図17に示したように壁72に近い場所を移動している状況とでは、ベクションのかかり方が異なる。例えば、図15に示したように操作対象が地面71から遠く離れた場所を移動している状況では、オプティカルフローは遅くなる。この状況では、視野拡大率Mを小さくするようなベクション制御を行うようにしてもよいし、ベクション制御を行わないようにしてもよい。逆に、図16や図17に示したような状況ではオプティカルフローは速くなる。このため、視野拡大率Mを大きくなるようにベクション制御を行うようにしてもよい。 For example, as shown in FIG. 15, the operation target such as the drone 70 is moving far away from the ground 71 (distance d), and as shown in FIG. 16, the operation target is moving near the ground 71. The way of applying vection is different from the situation where the vehicle is moving or the situation where the vehicle is moving near the wall 72 as shown in FIG. For example, in a situation where the operation target is moving far away from the ground 71 as shown in FIG. 15, the optical flow becomes slow. In this situation, the vection control may be performed so as to reduce the field of view enlargement ratio M, or the vection control may not be performed. On the contrary, in the situation shown in FIGS. 16 and 17, the optical flow becomes faster. Therefore, the vection control may be performed so as to increase the field of view enlargement ratio M.

図18は、表示制御装置1におけるベクション制御判定部22によるベクション制御の必要性の判定動作の一変形例を概略的に示している。図18では、周辺環境を考慮してベクション制御を行う必要があるか否かの判定を行う例を示している。 FIG. 18 schematically shows a modified example of the determination operation of the necessity of vection control by the vection control determination unit 22 in the display control device 1. FIG. 18 shows an example of determining whether or not it is necessary to perform vection control in consideration of the surrounding environment.

ベクション制御判定部22は、入力部10のセンサ部12によるトラッキング情報に基づいて、操作者の視点移動が発生しているか否かを判定する(ステップS31)。この判定は例えば、頭部の姿勢を変化させずに視線そのものが閾値以上移動しているか否かを判定することにより行われる。また、頭部が閾値以上回転しているか否かを判定することにより行われる。操作者の視点移動が発生していないと判定される場合(ステップS31:N)には、ベクション制御判定部22は、ベクション制御を行う必要はないと判定する(ステップS34)。 The vection control determination unit 22 determines whether or not the operator's viewpoint movement has occurred based on the tracking information by the sensor unit 12 of the input unit 10 (step S31). This determination is made, for example, by determining whether or not the line of sight itself is moving by a threshold value or more without changing the posture of the head. It is also performed by determining whether or not the head is rotated by a threshold value or more. When it is determined that the operator's viewpoint movement has not occurred (step S31: N), the vection control determination unit 22 determines that it is not necessary to perform vection control (step S34).

操作者の視点移動が発生していると判定される場合(ステップS31:Y)には、次に、ベクション制御判定部22は、入力部10のセンサ部12からの距離情報または撮像部11による撮像結果に基づいて、操作対象の周囲に物体があるか否かを判定する(ステップS32)。この判定は例えば、操作対象が地面、壁、床、または天井等から閾値以内の距離にあるか否かを判定することにより行われる。操作対象の周囲に物体があると判定される場合(ステップS32:Y)には、ベクション制御判定部22は、ベクション制御を行う必要があると判定する(ステップS33)。操作対象の周囲に物体がないと判定される場合(ステップS32:N)には、ベクション制御判定部22は、ベクション制御を行う必要はないと判定する(ステップS34)。 When it is determined that the operator's viewpoint movement has occurred (step S31: Y), the vection control determination unit 22 then uses the distance information from the sensor unit 12 of the input unit 10 or the imaging unit 11. Based on the imaging result, it is determined whether or not there is an object around the operation target (step S32). This determination is performed, for example, by determining whether or not the operation target is within a threshold distance from the ground, wall, floor, ceiling, or the like. When it is determined that there is an object around the operation target (step S32: Y), the vection control determination unit 22 determines that it is necessary to perform vection control (step S33). When it is determined that there is no object around the operation target (step S32: N), the vection control determination unit 22 determines that it is not necessary to perform vection control (step S34).

また、以上の説明では、入力部10の撮像部11が単眼の広角魚眼カメラを用いる例を挙げたが、全天球映像を撮影可能な360°カメラを用いてもよい。 Further, in the above description, the imaging unit 11 of the input unit 10 uses a monocular wide-angle fisheye camera, but a 360 ° camera capable of capturing a spherical image may be used.

また、以上の説明では、処理部30の映像生成部31は、全天球画像をベースに処理を行う例を挙げたが、3次元再構成されたモデルを用いてもよい。 Further, in the above description, the image generation unit 31 of the processing unit 30 has given an example of performing processing based on the spherical image, but a three-dimensionally reconstructed model may be used.

また、以上の説明では、注視点51から一様に映像を歪ませた例を挙げたが、Instance Segmentationを用いて視野内の領域を識別し、識別した領域ごとに映像を変形してもよい。 Further, in the above description, an example in which the image is uniformly distorted from the gazing point 51 has been given, but an area in the visual field may be identified by using the Presence Segmentation, and the image may be deformed for each identified area. ..

図19は、ベクション制御による変形後の映像の第1の変形例を示している。図20は、ベクション制御による変形後の映像の第2の変形例を示している。図19および図20に示したように、通路の幅wと壁の高さhとを拡大縮小するような変形を行ってもよい。3Dモデルが適用されているVRゲームに対しても同様に適用してもよい。 FIG. 19 shows a first deformation example of the image after deformation by vection control. FIG. 20 shows a second deformation example of the image after deformation by vection control. As shown in FIGS. 19 and 20, the width w of the passage and the height h of the wall may be deformed so as to be enlarged or reduced. The same may be applied to a VR game to which a 3D model is applied.

また、以上の説明では、映像の変形を行う所定の領域として周辺視野領域60の映像全体をベクション制御により変形させる例を挙げたが、周辺視野領域60の一部の領域の映像のみを変形させるようにしてもよい。 Further, in the above description, an example in which the entire image of the peripheral visual field area 60 is deformed by vection control is given as a predetermined area for deforming the image, but only a part of the image of the peripheral visual field area 60 is deformed. You may do so.

図21は、ベクション制御を行う領域の変形例を示している。例えば図21に示したように、所定の領域として、オプティカルフローが閾値以上の領域80にのみ、ベクション制御による映像の変形を行うようにしてもよい。 FIG. 21 shows a modified example of the region where the vection control is performed. For example, as shown in FIG. 21, the image may be deformed by the vection control only in the region 80 where the optical flow is equal to or higher than the threshold value as a predetermined region.

また、以上の説明では、アイトラッキングを行う例を挙げたが、アイトラッキングは必ずしも行わなくてもよい。その場合は、頭部の移動に関するヘッドトラッキングのみを行うようにしてもよい。また、必ずしもヘッドトラッキングも行わなくてもよい。例えば、サッカードのような高速で眼球運動する場合には、注視点51のアイトラッキングを行わないようにしてもよい。 Further, in the above description, an example of performing eye tracking has been given, but eye tracking does not necessarily have to be performed. In that case, only head tracking related to the movement of the head may be performed. In addition, head tracking does not necessarily have to be performed. For example, in the case of high-speed eye movement such as saccade, eye tracking of the gazing point 51 may not be performed.

また、以上の説明では、安定注視野領域の画角R1を固定値とする例を挙げたが、状況に応じて安定注視野領域の画角R1を変化させても良い。例えば、高速道路の車の運転は、視界が狭くなることが知られている。静止時や速度が低い場合は画角R1を広くし、速度に応じて画角R1を狭くしてもよい。画角R1が狭いと、より周辺視野の視野拡大率Mを向上させることができるためである。 Further, in the above description, an example in which the angle of view R1 of the stable viewing area is set to a fixed value has been given, but the angle of view R1 of the stable viewing area may be changed depending on the situation. For example, driving a car on a highway is known to have a narrow field of vision. The angle of view R1 may be widened when the vehicle is stationary or the speed is low, and the angle of view R1 may be narrowed according to the speed. This is because when the angle of view R1 is narrow, the visual field enlargement ratio M of the peripheral visual field can be further improved.

[1.4 効果]
以上説明したように、第1の実施の形態に係る表示システムによれば、ベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量を算出し、算出されたベクション制御量に基づいて、所定の領域を変形させた映像を生成するようにしたので、人の感覚、特に人が感じる速度感を考慮した映像を表示することが可能となる。
[1.4 Effect]
As described above, according to the display system according to the first embodiment, when it is determined that it is necessary to transform the image using the velocity control, the image is transformed using the velocity control. The vection control amount for this purpose is calculated, and an image in which a predetermined area is deformed is generated based on the calculated vection control amount. It becomes possible to display.

第1の実施の形態に係る表示システムによれば、操作者等の視界を不必要に妨げることなく、ベクションを活用し、人が感じる速度感を適切に制御することが可能となる。例えば、周辺視野領域60のオプティカルフローを画像処理で制御することで、操作者等に違和感や視界を妨げることがなく、酔いや不安感を低減するような画像表示の制御が可能となる。また、第1の実施の形態に係る表示システムによれば、HMDや大画面ディスプレイ上に提示する画像を直接処理することが可能なため、画像を変化させることが必要となる状況に対してのみ適応的に画像表示を制御することが可能となる。また、周辺視野に提示する視野角を拡大する効果もあるため、ドローン等の操作対象に接近する障害物や移動体の発見率を向上することも可能であり、操作対象と周囲の物体との接触・衝突を未然に防ぐことができ、作業効率や、安全性の向上に効果がある。 According to the display system according to the first embodiment, it is possible to appropriately control the sense of speed felt by a person by utilizing vection without unnecessarily obstructing the field of view of the operator or the like. For example, by controlling the optical flow of the peripheral visual field region 60 by image processing, it is possible to control the image display so as to reduce sickness and anxiety without causing discomfort or obstruction to the operator or the like. Further, according to the display system according to the first embodiment, since the image presented on the HMD or the large screen display can be directly processed, only in the situation where it is necessary to change the image. It is possible to adaptively control the image display. In addition, since it also has the effect of expanding the viewing angle presented in the peripheral visual field, it is possible to improve the detection rate of obstacles and moving objects approaching the operation target such as a drone, and it is possible to improve the detection rate between the operation target and surrounding objects. It can prevent contact and collision, which is effective in improving work efficiency and safety.

また、第1の実施の形態に係る表示システムによれば、周辺視野領域60の映像を変形することで、操作者が知覚する速度感を適切に制御することが可能となる。これにより、遠隔操作等を行う場合に、視界を妨げることなく、作業効率、および操作負荷を低減することが可能となる。例えば、高速移動時の恐怖感の低減、感覚不一致による酔いの低減等が可能となる。また、視野角を拡大することができるため、周囲の接近する物体への状況判断能力が向上し、安全性、および作業効率を向上させることが可能となる。また、速度超過時に、操作者の集中力を欠くことなく、自然に速度を低減するように操作者を誘導することが可能となる。 Further, according to the display system according to the first embodiment, it is possible to appropriately control the sense of speed perceived by the operator by deforming the image of the peripheral visual field region 60. As a result, when performing remote control or the like, it is possible to reduce work efficiency and operation load without obstructing the field of view. For example, it is possible to reduce the feeling of fear when moving at high speed, and to reduce sickness due to sensory disagreement. In addition, since the viewing angle can be expanded, the ability to judge the situation of a nearby object is improved, and safety and work efficiency can be improved. In addition, when the speed is exceeded, the operator can be guided to naturally reduce the speed without losing the concentration of the operator.

また、第1の実施の形態に係る表示システムによれば、操作対象の速度に応じてベクションの影響が変化したとしても、映像の視野拡大率Mを調整することで、操作対象の速度に応じた適切な映像表示を行うことが可能となる。 Further, according to the display system according to the first embodiment, even if the influence of vection changes according to the speed of the operation target, the field of view enlargement ratio M of the image is adjusted according to the speed of the operation target. It is possible to display an appropriate image.

また、第1の実施の形態に係る表示システムによれば、周辺の対象物等との距離に応じてベクションの強度が変化したとしても、映像の視野拡大率Mを調整することで、周辺の対象物との距離に応じた適切な映像表示を行うことが可能となる。 Further, according to the display system according to the first embodiment, even if the intensity of the vection changes according to the distance to the surrounding object or the like, the visual field enlargement ratio M of the image is adjusted to obtain the peripheral image. It is possible to display an appropriate image according to the distance to the object.

また、第1の実施の形態に係る表示システムによれば、視線や頭部の姿勢等に応じて、注視点51から相対的に見た周辺視野に映像変形を行うことで、映像歪みを知覚しにくくなるため、視認性が向上する。 Further, according to the display system according to the first embodiment, image distortion is perceived by performing image deformation in the peripheral visual field relatively viewed from the gazing point 51 according to the line of sight, the posture of the head, and the like. Visibility is improved because it is difficult to do.

なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。 It should be noted that the effects described in the present specification are merely examples and are not limited, and other effects may be obtained.

<2.その他の実施の形態>
本開示による技術は、上記各実施の形態の説明に限定されず種々の変形実施が可能である。
<2. Other embodiments>
The technique according to the present disclosure is not limited to the description of each of the above embodiments, and various modifications can be implemented.

例えば、本技術は以下のような構成を取ることもできる。
以下の構成の本技術によれば、ベクション制御を用いた映像の変形を行う必要があると判定された場合に、ベクション制御を用いた映像の変形を行うためのベクション制御量を算出し、算出されたベクション制御量に基づいて、所定の領域を変形させた映像を生成するようにしたので、人の感覚を考慮した映像を表示することが可能となる。
For example, the present technology may have the following configuration.
According to the present technology having the following configuration, when it is determined that it is necessary to deform the image using the vection control, the vection control amount for deforming the image using the vection control is calculated and calculated. Since an image obtained by deforming a predetermined area is generated based on the obtained vection control amount, it is possible to display an image in consideration of human senses.

(1)
ベクション制御を用いた映像の変形を行う必要があるか否かを判定する判定部と、
前記判定部によって前記ベクション制御を用いた映像の変形を行う必要があると判定された場合に、前記ベクション制御を用いた映像の変形を行うためのベクション制御量を算出する制御量計算部と、
前記制御量計算部によって算出された前記ベクション制御量に基づいて、所定の領域を変形させた映像を生成する映像生成部と
を備える
表示制御装置。
(2)
前記判定部は、映像のオプティカルフローに基づいて、前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
上記(1)に記載の表示制御装置。
(3)
前記制御量計算部は、映像のオプティカルフローに基づいて、前記ベクション制御量を算出する
上記(1)または(2)に記載の表示制御装置。
(4)
前記制御量計算部は、前記ベクション制御量として、前記所定の領域における視野の拡大率を算出する
上記(1)ないし(3)のいずれか1つに記載の表示制御装置。
(5)
前記判定部は、撮像部を備えた移動体によって撮影された映像に対して前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
上記(1)ないし(4)のいずれか1つに記載の表示制御装置。
(6)
前記判定部は、前記移動体の速度に基づいて、前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
上記(5)に記載の表示制御装置。
(7)
前記判定部は、前記移動体の周辺環境に基づいて、前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
上記(5)に記載の表示制御装置。
(8)
前記制御量計算部は、前記移動体の速度に基づいて、前記ベクション制御量を算出する
上記(5)ないし(7)のいずれか1つに記載の表示制御装置。
(9)
前記制御量計算部は、前記移動体の周辺環境に基づいて、前記ベクション制御量を算出する
上記(5)ないし(7)のいずれか1つに記載の表示制御装置。
(10)
前記制御量計算部は、映像の観察者の注視点の情報に基づいて、安定注視野領域と周辺視野領域とを判別し、前記周辺視野領域を前記所定の領域とする前記ベクション制御量を算出する
上記(1)ないし(9)のいずれか1つに記載の表示制御装置。
(11)
前記映像生成部は、映像の観察者の視線および頭部の姿勢のうち少なくとも一方に基づいて求められた領域を、前記所定の領域とする
上記(1)ないし(10)のいずれか1つに記載の表示制御装置。
(12)
前記映像生成部は、映像のオプティカルフローが閾値以上の領域を前記所定の領域とする
上記(1)ないし(11)のいずれか1つに記載の表示制御装置。
(13)
ベクション制御を用いた映像の変形を行う必要があるか否かを判定することと、
前記ベクション制御を用いた映像の変形を行う必要があると判定された場合に、前記ベクション制御を用いた映像の変形を行うためのベクション制御量を算出することと、
算出された前記ベクション制御量に基づいて、所定の領域を変形させた映像を生成することと
を含む
表示制御方法。
(1)
A determination unit that determines whether or not it is necessary to transform the image using vection control,
When the determination unit determines that it is necessary to deform the image using the vection control, the control amount calculation unit that calculates the vection control amount for deforming the image using the vection control, and the control amount calculation unit.
A display control device including an image generation unit that generates an image obtained by deforming a predetermined area based on the vection control amount calculated by the control amount calculation unit.
(2)
The display control device according to (1) above, wherein the determination unit determines whether or not it is necessary to perform deformation of the image using the vection control based on the optical flow of the image.
(3)
The display control device according to (1) or (2) above, wherein the control amount calculation unit calculates the vection control amount based on the optical flow of the image.
(4)
The display control device according to any one of (1) to (3) above, wherein the control amount calculation unit calculates the enlargement ratio of the visual field in the predetermined region as the vection control amount.
(5)
The determination unit determines whether or not it is necessary to deform the image taken by the moving body including the imaging unit using the vection control. Any of the above (1) to (4). The display control device according to one.
(6)
The display control device according to (5) above, wherein the determination unit determines whether or not it is necessary to perform deformation of an image using the vection control based on the speed of the moving body.
(7)
The display control device according to (5) above, wherein the determination unit determines whether or not it is necessary to perform deformation of an image using the vection control based on the surrounding environment of the moving body.
(8)
The display control device according to any one of (5) to (7) above, wherein the control amount calculation unit calculates the vection control amount based on the speed of the moving body.
(9)
The display control device according to any one of (5) to (7) above, wherein the control amount calculation unit calculates the vection control amount based on the surrounding environment of the moving body.
(10)
The control amount calculation unit discriminates between a stable gaze area and a peripheral visual field area based on the information of the gaze point of the observer of the image, and calculates the vection control amount with the peripheral visual field area as the predetermined area. The display control device according to any one of (1) to (9) above.
(11)
The image generation unit sets a region obtained based on at least one of the line of sight of the observer of the image and the posture of the head as the predetermined region in any one of (1) to (10) above. The display control device described.
(12)
The display control device according to any one of (1) to (11) above, wherein the image generation unit sets a region in which the optical flow of the video is equal to or greater than a threshold value as the predetermined region.
(13)
Determining whether it is necessary to transform the image using vection control, and
When it is determined that it is necessary to transform the image using the vection control, the vection control amount for transforming the image using the vection control is calculated.
A display control method including generating an image in which a predetermined area is deformed based on the calculated vection control amount.

1…表示制御装置、10…入力部、11…撮像部、12…センサ部、13…送信部、20…制御部、21…受信部、22…ベクション制御判定部(判定部)、23…ベクション制御量計算部(制御量計算部)、30…処理部、31…映像生成部、40…表示部、50…安定注視野領域、51…注視点、60…周辺視野領域、70…ドローン、71…地面、72…壁、80…オプティカルフローが閾値以上の領域、100…操作者、101…ロボット、102…HMD(ヘッドマウントディスプレイ)、110…操作者、111…大画面ディスプレイ、121…ドット、d…地面との距離、R1…安定注視野領域の画角、R2…撮影画角から安定注視野領域の画角を除いた画角、R3…周辺視野領域の画角、M…視野拡大率、w…幅、h…高さ。 1 ... Display control device, 10 ... Input unit, 11 ... Imaging unit, 12 ... Sensor unit, 13 ... Transmission unit, 20 ... Control unit, 21 ... Reception unit, 22 ... Vection control judgment unit (judgment unit), 23 ... Vection Control amount calculation unit (control amount calculation unit), 30 ... Processing unit, 31 ... Image generation unit, 40 ... Display unit, 50 ... Stable viewing area, 51 ... Gaze point, 60 ... Peripheral visual field area, 70 ... Drone, 71 ... ground, 72 ... wall, 80 ... area where optical flow is above the threshold, 100 ... operator, 101 ... robot, 102 ... HMD (head mount display), 110 ... operator, 111 ... large screen display, 121 ... dot, d ... Distance to the ground, R1 ... Stable viewing angle of view, R2 ... Shooting angle of view minus stable viewing area, R3 ... Peripheral field of view, M ... Field magnification , W ... width, h ... height.

Claims (13)

ベクション制御を用いた映像の変形を行う必要があるか否かを判定する判定部と、
前記判定部によって前記ベクション制御を用いた映像の変形を行う必要があると判定された場合に、前記ベクション制御を用いた映像の変形を行うためのベクション制御量を算出する制御量計算部と、
前記制御量計算部によって算出された前記ベクション制御量に基づいて、所定の領域を変形させた映像を生成する映像生成部と
を備える
表示制御装置。
A determination unit that determines whether or not it is necessary to transform the image using vection control,
When the determination unit determines that it is necessary to deform the image using the vection control, the control amount calculation unit that calculates the vection control amount for deforming the image using the vection control, and the control amount calculation unit.
A display control device including an image generation unit that generates an image obtained by deforming a predetermined area based on the vection control amount calculated by the control amount calculation unit.
前記判定部は、映像のオプティカルフローに基づいて、前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the determination unit determines whether or not it is necessary to perform deformation of the image using the vection control based on the optical flow of the image.
前記制御量計算部は、映像のオプティカルフローに基づいて、前記ベクション制御量を算出する
請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the control amount calculation unit calculates the vection control amount based on an optical flow of video.
前記制御量計算部は、前記ベクション制御量として、前記所定の領域における視野の拡大率を算出する
請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the control amount calculation unit calculates the enlargement ratio of the visual field in the predetermined region as the vection control amount.
前記判定部は、撮像部を備えた移動体によって撮影された映像に対して前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the determination unit determines whether or not it is necessary to deform an image using the vection control with respect to an image captured by a moving body including an imaging unit.
前記判定部は、前記移動体の速度に基づいて、前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
請求項5に記載の表示制御装置。
The display control device according to claim 5, wherein the determination unit determines whether or not it is necessary to perform deformation of an image using the vection control based on the speed of the moving body.
前記判定部は、前記移動体の周辺環境に基づいて、前記ベクション制御を用いた映像の変形を行う必要があるか否かを判定する
請求項5に記載の表示制御装置。
The display control device according to claim 5, wherein the determination unit determines whether or not it is necessary to perform deformation of an image using the vection control based on the surrounding environment of the moving body.
前記制御量計算部は、前記移動体の速度に基づいて、前記ベクション制御量を算出する
請求項5に記載の表示制御装置。
The display control device according to claim 5, wherein the control amount calculation unit calculates the vection control amount based on the speed of the moving body.
前記制御量計算部は、前記移動体の周辺環境に基づいて、前記ベクション制御量を算出する
請求項5に記載の表示制御装置。
The display control device according to claim 5, wherein the control amount calculation unit calculates the vection control amount based on the surrounding environment of the moving body.
前記制御量計算部は、映像の観察者の注視点の情報に基づいて、安定注視野領域と周辺視野領域とを判別し、前記周辺視野領域を前記所定の領域とする前記ベクション制御量を算出する
請求項1に記載の表示制御装置。
The control amount calculation unit discriminates between a stable gaze area and a peripheral visual field area based on the information of the gaze point of the observer of the image, and calculates the vection control amount with the peripheral visual field area as the predetermined area. The display control device according to claim 1.
前記映像生成部は、映像の観察者の視線および頭部の姿勢のうち少なくとも一方に基づいて求められた領域を、前記所定の領域とする
請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the image generation unit sets a region obtained based on at least one of the line of sight of the observer of the image and the posture of the head as the predetermined region.
前記映像生成部は、映像のオプティカルフローが閾値以上の領域を前記所定の領域とする
請求項1に記載の表示制御装置。
The display control device according to claim 1, wherein the image generation unit has a region in which the optical flow of the video is equal to or greater than a threshold value as the predetermined region.
ベクション制御を用いた映像の変形を行う必要があるか否かを判定することと、
前記ベクション制御を用いた映像の変形を行う必要があると判定された場合に、前記ベクション制御を用いた映像の変形を行うためのベクション制御量を算出することと、
算出された前記ベクション制御量に基づいて、所定の領域を変形させた映像を生成することと
を含む
表示制御方法。
Determining whether it is necessary to transform the image using vection control, and
When it is determined that it is necessary to transform the image using the vection control, the vection control amount for transforming the image using the vection control is calculated.
A display control method including generating an image in which a predetermined area is deformed based on the calculated vection control amount.
JP2020044121A 2020-03-13 2020-03-13 Display control device and display control method Pending JP2021145287A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020044121A JP2021145287A (en) 2020-03-13 2020-03-13 Display control device and display control method
PCT/JP2021/008273 WO2021182254A1 (en) 2020-03-13 2021-03-03 Display control device and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020044121A JP2021145287A (en) 2020-03-13 2020-03-13 Display control device and display control method

Publications (1)

Publication Number Publication Date
JP2021145287A true JP2021145287A (en) 2021-09-24

Family

ID=77672222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020044121A Pending JP2021145287A (en) 2020-03-13 2020-03-13 Display control device and display control method

Country Status (2)

Country Link
JP (1) JP2021145287A (en)
WO (1) WO2021182254A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157053A1 (en) * 2022-02-15 2023-08-24 日本電信電話株式会社 Visual field expansion device, visual field expansion method, visual field expansion program, and visual field expansion system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007116309A (en) * 2005-10-19 2007-05-10 Seiko Epson Corp Image information reproduction apparatus
US8692845B2 (en) * 2010-10-28 2014-04-08 Eastman Kodak Company Head-mounted display control with image-content analysis
JP6092437B1 (en) * 2016-02-02 2017-03-08 株式会社コロプラ Virtual space image providing method and program thereof
US20170255258A1 (en) * 2016-03-02 2017-09-07 The Trustees Of Columbia University In The City Of New York Imperceptible Automatic Field-of-View Restrictors to Combat VR Sickness and Cybersickness

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157053A1 (en) * 2022-02-15 2023-08-24 日本電信電話株式会社 Visual field expansion device, visual field expansion method, visual field expansion program, and visual field expansion system

Also Published As

Publication number Publication date
WO2021182254A1 (en) 2021-09-16

Similar Documents

Publication Publication Date Title
US11484790B2 (en) Reality vs virtual reality racing
JP5387763B2 (en) Video processing apparatus, video processing method, and video processing program
CN110362193B (en) Target tracking method and system assisted by hand or eye tracking
US10409447B2 (en) System and method for acquiring partial space in augmented space
JP2017142569A (en) Method and program for providing head-mounted display with virtual space image
JP6620063B2 (en) Image processing apparatus and image processing method
JP2014219621A (en) Display device and display control program
CN111095363B (en) Display system and display method
US11314396B2 (en) Selecting a text input field using eye gaze
JP2021531493A (en) Dynamic panel masking
WO2021182254A1 (en) Display control device and display control method
JP6963399B2 (en) Program, recording medium, image generator, image generation method
US20210392318A1 (en) Gaze tracking apparatus and systems
US11315215B2 (en) Movement within an environment
CN110796116A (en) Multi-panel display system, vehicle with multi-panel display system and display method
CN115985209A (en) Wearable display device, control method, control device, electronic device and storage medium
WO2022004130A1 (en) Information processing device, information processing method, and storage medium
JP7258620B2 (en) Image processing system and image processing method
WO2021014673A1 (en) Device, method, and program for controlling image display
WO2021002116A1 (en) Information processing device, information processing method, and program
KR101973174B1 (en) Apparatus for controlling drone based on gesture-recognition and method for using the same
CN111949113A (en) Image interaction method and device applied to virtual reality VR scene
JP2017142769A (en) Method and program for providing head-mounted display with virtual space image
JP2022184456A (en) Image processing apparatus, image processing method, and program
CN116068765A (en) Visual field blind area display method, device, equipment, vehicle and storage medium