JP2021174317A - Electronic apparatus and control method therefor - Google Patents

Electronic apparatus and control method therefor Download PDF

Info

Publication number
JP2021174317A
JP2021174317A JP2020078548A JP2020078548A JP2021174317A JP 2021174317 A JP2021174317 A JP 2021174317A JP 2020078548 A JP2020078548 A JP 2020078548A JP 2020078548 A JP2020078548 A JP 2020078548A JP 2021174317 A JP2021174317 A JP 2021174317A
Authority
JP
Japan
Prior art keywords
image
posture
display
display unit
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020078548A
Other languages
Japanese (ja)
Inventor
光輝 北矢
Mitsuteru Kitaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020078548A priority Critical patent/JP2021174317A/en
Publication of JP2021174317A publication Critical patent/JP2021174317A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To enable a physical load applied to a user to be reduced without deteriorating the visibility of the user in the case of changing display areas according to the posture of the user.SOLUTION: An electronic apparatus includes: detection means for detecting a posture of a display part; display means for displaying a range being a portion of an image and including a position separated according to difference of the posture and reference direction of the display part from a reference position set in the image in the display part; and update means for updating the reference position to a position corresponding to a constant direction in the case of maintaining a state where the posture of the display part is directed to the constant direction different from the reference direction for a first prescribed time.SELECTED DRAWING: Figure 3

Description

本発明は、電子機器及び電子機器の制御方法に関するものである。 The present invention relates to an electronic device and a control method for the electronic device.

近年、全方位画像、全天球画像といった、人間の視野角より広い範囲を含む映像を撮影することが可能な撮像装置が普及している。例えば、特許文献1は、人間の視野角より広い画角のうち表示部に表示する画角の大きさを設定できること、さらにユーザの姿勢情報に対応する位置の画像を表示することを開示している。 In recent years, imaging devices capable of capturing images including a wider range than the viewing angle of humans, such as omnidirectional images and spherical images, have become widespread. For example, Patent Document 1 discloses that the size of the angle of view to be displayed on the display unit can be set among the angles of view wider than the viewing angle of a human being, and that an image at a position corresponding to the posture information of the user is displayed. There is.

特開2015−125502号公報Japanese Unexamined Patent Publication No. 2015-125502

姿勢情報に対応する位置の画像が表示される場合、ユーザは、正面とは異なる領域を見るためには、姿勢を変更したままにするか画角の大きさを変更することになる。画角の大きさを変更することで、ユーザは正面を向いたまま所望の領域を見ることができるが、ユーザの見たい領域は、変更前の画角で表示するよりも小さく表示されてしまう。また、画角を変更しない場合、姿勢を変えたままの状態で画像を見るため、ユーザに身体的な負荷がかかる可能性がある。 When the image of the position corresponding to the posture information is displayed, the user has to keep the posture changed or change the size of the angle of view in order to see the area different from the front. By changing the size of the angle of view, the user can see the desired area while facing the front, but the area that the user wants to see is displayed smaller than the area displayed at the angle of view before the change. .. Further, when the angle of view is not changed, the image is viewed in the state where the posture is changed, which may impose a physical load on the user.

本発明は、上記課題に鑑み、ユーザの姿勢に応じて表示領域を変更する場合に、ユーザの視認性を低下させずに、ユーザにかかる身体的な負荷を軽減することを目的とする。 In view of the above problems, it is an object of the present invention to reduce the physical load on the user without deteriorating the visibility of the user when the display area is changed according to the posture of the user.

上記課題を解決するために、本発明の電子機器は、
表示部の姿勢を検出する検出手段と、
画像の一部の範囲であって、前記画像に設定された基準位置から前記表示部の姿勢と基準方向の差に応じて離れた位置を含む範囲を前記表示部に表示する表示手段と、
前記表示部の姿勢が前記基準方向と異なる一定方向に第1の所定時間向けられた状態が維持された場合に、前記基準位置を前記一定方向に対応する位置に更新する更新手段と、を有することを特徴とする。
In order to solve the above problems, the electronic device of the present invention
A detection means for detecting the posture of the display unit and
A display means for displaying a range of a part of the image including a position separated from the reference position set in the image according to the difference between the posture of the display unit and the reference direction on the display unit.
It has an updating means for updating the reference position to a position corresponding to the certain direction when the state in which the posture of the display unit is directed to a certain direction different from the reference direction for a first predetermined time is maintained. It is characterized by that.

本発明によれば、ユーザの姿勢に応じて表示領域を変更する場合に、ユーザの視認性を低下させずに、ユーザにかかる身体的な負荷を軽減することができる。 According to the present invention, when the display area is changed according to the posture of the user, the physical load on the user can be reduced without deteriorating the visibility of the user.

デジタルカメラの外観図およびブロック図である。It is an external view and a block diagram of a digital camera. 電子機器の外観図およびブロック図である。It is an external view and a block diagram of an electronic device. 表示制御装置の姿勢に応じた基準位置更新処理を説明する図である。It is a figure explaining the reference position update process according to the posture of a display control device. VRビュー表示処理を例示するフローチャートである。It is a flowchart which illustrates VR view display processing. 基準位置更新処理を例示するフローチャートである。It is a flowchart which illustrates the reference position update process. 変形例に係る基準位置更新処理を例示するフローチャートである。It is a flowchart which illustrates the reference position update process which concerns on the modification.

<実施形態>
(デジタルカメラの構成)
以下、図面を参照して本発明の好適な実施形態を説明する。図1(a)は、電子機器であるデジタルカメラ100(撮像装置)の前面斜視図(外観図)である。図1(b)は、デジタルカメラ100の背面斜視図(外観図)である。デジタルカメラ100は、全方位カメラ(全天球カメラ)である。
<Embodiment>
(Digital camera configuration)
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. FIG. 1A is a front perspective view (external view) of a digital camera 100 (imaging device) which is an electronic device. FIG. 1B is a rear perspective view (external view) of the digital camera 100. The digital camera 100 is an omnidirectional camera (omnidirectional camera).

バリア102aはデジタルカメラ100の前方を撮影範囲とした前方カメラ部のための保護窓である。前方カメラ部は、例えば、デジタルカメラ100の前側の上下左右180度以上の広範囲を撮影範囲とする広角カメラ部である。バリア102bは、デジタルカメラ100の後方を撮影範囲とした後方カメラ部のための保護窓である。後方カメラ部は、例えば、デジタルカメラ100の後ろ側の上下左右180度以上の広範囲を撮影範囲とする広角カメラ部である。 The barrier 102a is a protective window for the front camera unit with the front of the digital camera 100 as the shooting range. The front camera unit is, for example, a wide-angle camera unit that covers a wide range of 180 degrees or more in the vertical and horizontal directions on the front side of the digital camera 100. The barrier 102b is a protective window for the rear camera unit whose shooting range is the rear of the digital camera 100. The rear camera unit is, for example, a wide-angle camera unit that covers a wide range of 180 degrees or more in the vertical and horizontal directions on the rear side of the digital camera 100.

表示部28は各種情報を表示する。シャッターボタン61は撮影指示を行うための操作部(操作部材)である。モード切替スイッチ60は各種モードを切り替えるための操作部である。接続I/F25は、接続ケーブルをデジタルカメラ100に接続するためのコネクタであり、接続ケーブルを用いて、スマートフォン、パーソナルコンピュータ、テレビなどの外部機器がデジタルカメラ100に接続される。操作部70は、ユーザからの各種操作を受け付ける各種スイッチ、ボタン、ダイヤル、タッチセンサ等である。電源スイッチ72は、電源のオン/オフを切り替えるための押しボタンである。 The display unit 28 displays various information. The shutter button 61 is an operation unit (operation member) for giving a shooting instruction. The mode changeover switch 60 is an operation unit for switching various modes. The connection I / F 25 is a connector for connecting the connection cable to the digital camera 100, and an external device such as a smartphone, a personal computer, or a television is connected to the digital camera 100 by using the connection cable. The operation unit 70 is various switches, buttons, dials, touch sensors, etc. that receive various operations from the user. The power switch 72 is a push button for switching the power on / off.

発光部21は発光ダイオード(LED)などの発光部材であり、デジタルカメラ100の各種状態を発光パターンや発光色によってユーザに通知する。固定部40は、例えば三脚ネジ穴であり、三脚などの固定器具でデジタルカメラ100を固定して設置するために使用される。 The light emitting unit 21 is a light emitting member such as a light emitting diode (LED), and notifies the user of various states of the digital camera 100 by a light emitting pattern and a light emitting color. The fixing portion 40 is, for example, a tripod screw hole, and is used for fixing and installing the digital camera 100 with a fixing device such as a tripod.

図1(c)は、デジタルカメラ100の構成例を示すブロック図である。バリア102aは、前方カメラ部の撮像系(撮影レンズ103a、シャッター101a、撮像部22a等)を覆うことにより、当該撮像系の汚れや破損を防止する。撮影レンズ103aは、ズームレンズやフォーカスレンズを含むレンズ群であり、広角レンズである。シャッター101aは、撮像部22aへの被写体光の入射量を調整する絞り機能を有するシャッターである。撮像部22aは、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子(撮像センサ)である。A/D変換器23aは、撮像部22aから出力されるアナログ信号をデジタル信号に変換する。なお、バリア102aを設けずに、撮影レンズ103aの外側の面が露出し、撮影レンズ103aによって他の撮像系(シャッター101aや撮像部22a)の汚れや破損を防止してもよい。 FIG. 1C is a block diagram showing a configuration example of the digital camera 100. The barrier 102a covers the imaging system (photographing lens 103a, shutter 101a, imaging unit 22a, etc.) of the front camera unit to prevent the imaging system from becoming dirty or damaged. The photographing lens 103a is a lens group including a zoom lens and a focus lens, and is a wide-angle lens. The shutter 101a is a shutter having an aperture function for adjusting the amount of subject light incident on the imaging unit 22a. The image pickup unit 22a is an image pickup device (imaging sensor) composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The A / D converter 23a converts the analog signal output from the imaging unit 22a into a digital signal. The outer surface of the photographing lens 103a may be exposed without providing the barrier 102a, and the photographing lens 103a may prevent other imaging systems (shutter 101a and imaging unit 22a) from becoming dirty or damaged.

バリア102bは、後方カメラ部の撮像系(撮影レンズ103b、シャッター101b、撮像部22b等)を覆うことにより、当該撮像系の汚れや破損を防止する。撮影レンズ103bは、ズームレンズやフォーカスレンズを含むレンズ群であり、広角レンズである。シャッター101bは、撮像部22bへの被写体光の入射量を調整する絞り機能を有するシャッターである。撮像部22bは、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23bは、撮像部22bから出力されるアナログ信号をデジタル信号に変換する。なお、バリア102bを設けずに、撮影レンズ103bの外側の面が露出し、撮影レンズ103bによって他の撮像系(シャッター101bや撮像部22b)の汚れや破損を防止してもよい。 The barrier 102b covers the imaging system (photographing lens 103b, shutter 101b, imaging unit 22b, etc.) of the rear camera unit to prevent the imaging system from becoming dirty or damaged. The photographing lens 103b is a lens group including a zoom lens and a focus lens, and is a wide-angle lens. The shutter 101b is a shutter having an aperture function for adjusting the amount of subject light incident on the imaging unit 22b. The image pickup unit 22b is an image pickup device composed of a CCD, a CMOS element, or the like that converts an optical image into an electric signal. The A / D converter 23b converts the analog signal output from the imaging unit 22b into a digital signal. The outer surface of the photographing lens 103b may be exposed without providing the barrier 102b, and the photographing lens 103b may prevent other imaging systems (shutter 101b and imaging unit 22b) from becoming dirty or damaged.

撮像部22aと撮像部22bにより、VR(Virtual Reality)画像が撮像される。VR画像とは、VR表示(表示モード「VRビュー」で表示)をすることの
できる画像であるものとする。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示部28に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像などが含まれるものとする。VR画像には、静止画だけでなく、動画やライブビュー画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で上下方向(垂直角度、天頂からの角度、仰角、俯角、高度角、ピッチ角)360度、左右方向(水平角度、方位角度、ヨー角)360度の視野分の映像範囲(有効映像範囲)を持つ。
A VR (Virtual Reality) image is imaged by the imaging unit 22a and the imaging unit 22b. The VR image is an image that can be displayed in VR (displayed in the display mode "VR view"). The VR image includes an omnidirectional image (omnidirectional image) captured by an omnidirectional camera (omnidirectional camera) and a panorama having a wider image range (effective image range) than the display range that can be displayed on the display unit 28 at one time. Images etc. shall be included. The VR image includes not only a still image but also a moving image and a live view image (an image acquired from a camera in almost real time). The VR image has a maximum image range of 360 degrees in the vertical direction (vertical angle, angle from the zenith, elevation angle, depression angle, altitude angle, pitch angle) and 360 degrees in the horizontal direction (horizontal angle, azimuth angle, yaw angle). Has (effective video range).

また、VR画像は、上下360度未満、左右360度未満であっても、通常のカメラで撮影可能な画角よりも広い広範な画角(視野範囲)、あるいは、表示部28に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つ画像も含むものとする。例えば、左右方向(水平角度、方位角度)360度、天頂(zenith)を中心とした垂直角度210度の視野分(画角分)の被写体を撮影可能な全天球カメラで撮影された画像はVR画像の一種である。また、例えば、左右方向(水平角度、方位角度)180度、水平方向を中心とした垂直角度180度の視野分(画角分)の被写体を撮影可能なカメラで撮影された画像はVR画像の一種である。すなわち、上下方向と左右方向にそれぞれ160度(±80度)以上の視野分の映像範囲を有しており、人間が一度に視認できる範囲よりも広い映像範囲を有している画像はVR画像の一種である。 Further, even if the VR image is less than 360 degrees up and down and less than 360 degrees left and right, it is displayed at once on the display unit 28 or a wide angle of view (field of view) wider than the angle of view that can be taken by a normal camera. Images with an image range (effective image range) wider than the display range that can be displayed shall also be included. For example, an image taken with an omnidirectional camera capable of shooting a subject with a field of view (angle of view) of 360 degrees in the left-right direction (horizontal angle, azimuth angle) and a vertical angle of 210 degrees centered on the zenith (zenith) It is a kind of VR image. Further, for example, an image taken by a camera capable of shooting a subject with a viewing angle (angle of view) of 180 degrees in the horizontal direction (horizontal angle, azimuth angle) and a vertical angle of 180 degrees centered on the horizontal direction is a VR image. It is a kind. That is, an image having a field of view of 160 degrees (± 80 degrees) or more in each of the vertical and horizontal directions and a wider image range than a human can see at one time is a VR image. It is a kind of.

このVR画像をVR表示(表示モード「VRビュー」で表示)すると、左右回転方向に表示装置(VR画像を表示する表示装置)の姿勢を変化させることで、左右方向(水平回転方向)には継ぎ目のない全方位の映像を視聴することができる。上下方向(垂直回転方向)には、真上(天頂)から±105度の範囲では継ぎ目のない全方位の映像を視聴することができるが、真上から105度を超える範囲は映像が存在しないブランク領域となる。VR画像は、「映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。 When this VR image is displayed in VR (displayed in the display mode "VR view"), the posture of the display device (display device that displays the VR image) is changed in the left-right rotation direction, so that the left-right direction (horizontal rotation direction) can be changed. You can watch seamless omnidirectional video. In the vertical direction (vertical rotation direction), a seamless omnidirectional image can be viewed within a range of ± 105 degrees from directly above (zenith), but there is no image in a range exceeding 105 degrees from directly above. It becomes a blank area. A VR image can also be said to be an "image in which the image range is at least a part of a virtual space (VR space)".

VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。表示装置であるヘッドマウントディスプレイ(HMD)を装着して視聴する場合には、ユーザの顔の向きに応じた視野範囲の映像を表示することになる。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野角(画角)の映像を表示しているものとする。この状態から、表示装置の姿勢を表裏反転させると(例えば、表示面を南向きから北向きに変更すると)、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度(水平)を中心とした視野角の映像に、表示範囲が変更される。ユーザがHMDを視聴している場合で言えば、ユーザが顔を北から南に向ければ(すなわち後ろを向けば)、HMDに表示される映像も北の映像から南の映像に変わるということである。このようなVR表示によって、ユーザに、視覚的にあたかもVR画像内(VR空間内)のその場にいるような感覚を提供することができる。VRゴーグル(ヘッドマウントアダプター)に装着されたスマートフォンは、HMDの一種と言える。 The VR display (VR view) is a display method (display mode) in which the display range can be changed to display an image of a viewing range according to the posture of the display device among the VR images. When a head-mounted display (HMD), which is a display device, is attached for viewing, an image in a visual field range corresponding to the orientation of the user's face is displayed. For example, in a VR image, a viewing angle (angle of view) centered on 0 degrees in the left-right direction (specific orientation, for example, north) and 90 degrees in the up-down direction (90 degrees from the zenith, that is, horizontal) at a certain point in time. Is displayed. From this state, if the posture of the display device is turned upside down (for example, when the display surface is changed from south to north), 180 degrees in the left-right direction (opposite direction, for example, south) in the same VR image, up and down. The display range is changed to an image with a viewing angle centered on 90 degrees (horizontal) in the direction. In the case where the user is watching the HMD, if the user turns his face from north to south (that is, turns to the back), the image displayed on the HMD also changes from the north image to the south image. be. By such a VR display, it is possible to visually provide the user with the feeling of being in the place in the VR image (in the VR space). A smartphone attached to VR goggles (head mount adapter) can be said to be a type of HMD.

なお、VR画像の表示方法は上記に限るものではない。姿勢変化ではなく、タッチパネルや方向ボタンなどに対するユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。VR表示時(表示モード「VRビュー」時)において、姿勢変化による表示範囲の変更に加え、タッチパネルへのタッチムーブ、マウスなどへのドラッグ操作、方向ボタンの押下などに応じて表示範囲を変更できるようにしてもよい。 The VR image display method is not limited to the above. The display range may be moved (scrolled) according to the user's operation on the touch panel, the direction button, or the like instead of the posture change. In VR display (when the display mode is "VR view"), in addition to changing the display range by changing the posture, the display range can be changed according to touch move to the touch panel, drag operation to the mouse, etc., pressing the direction button, etc. You may do so.

画像処理部24は、A/D変換器23aやA/D変換器23bからのデータ、又は、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換
処理を行う。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行う。システム制御部50は、画像処理部24により得られた演算結果に基づいて露光制御や測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理などが行われる。画像処理部24は更に、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
The image processing unit 24 performs resizing processing such as predetermined pixel interpolation and reduction and color conversion processing on the data from the A / D converter 23a and the A / D converter 23b or the data from the memory control unit 15. In addition, the image processing unit 24 performs predetermined arithmetic processing using the captured image data. The system control unit 50 performs exposure control and distance measurement control based on the calculation result obtained by the image processing unit 24. As a result, TTL (through-the-lens) AF (autofocus) processing, AE (autoexposure) processing, EF (flash pre-flash) processing, and the like are performed. The image processing unit 24 further performs a predetermined calculation process using the captured image data, and performs a TTL method AWB (auto white balance) process based on the obtained calculation result.

画像処理部24は、A/D変換器23aおよびA/D変換器23bから得られた2つの画像(2つの魚眼画像;2つの広角画像)に基本的な画像処理を施し、基本的な画像処理が施された2つの画像を合成する繋ぎ画像処理を行って、単一のVR画像を生成する。また、画像処理部24は、ライブビューでのVR表示時、あるいは再生時に、VR画像をVR表示するための画像切出し処理、拡大処理、歪み補正などを行い、メモリ32のVRAMへ処理結果を描画するレンダリングを行う。 The image processing unit 24 performs basic image processing on two images (two fisheye images; two wide-angle images) obtained from the A / D converter 23a and the A / D converter 23b, and basically performs basic image processing. A single VR image is generated by performing joint image processing that combines two images that have undergone image processing. Further, the image processing unit 24 performs image cutting processing, enlargement processing, distortion correction, etc. for displaying the VR image in VR at the time of VR display or playback in the live view, and draws the processing result in the VRAM of the memory 32. Perform rendering.

繋ぎ画像処理では、画像処理部24は、2つの画像の一方を基準画像、他方を比較画像として用いて、パターンマッチング処理によりエリア毎に基準画像と比較画像のずれ量を算出し、エリア毎のずれ量に基づいて、2つの画像を繋ぐ繋ぎ位置を検出する。画像処理部24は、検出した繋ぎ位置と各光学系のレンズ特性とを考慮して、幾何学変換により各画像の歪みを補正し、各画像を全天球形式(全天球イメージ形式)の画像に変換する。そして、画像処理部24は、全天球形式の2つの画像を合成(ブレンド)することで、1つの全天球画像(VR画像)を生成する。生成された全天球画像は、例えば正距円筒図法を用いた画像であり、全天球画像の各画素の位置は球体(VR空間)の表面の座標と対応づけることができる。 In the connected image processing, the image processing unit 24 uses one of the two images as a reference image and the other as a comparison image, calculates the amount of deviation between the reference image and the comparison image for each area by pattern matching processing, and calculates the amount of deviation between the reference image and the comparison image for each area. The connection position connecting the two images is detected based on the amount of deviation. The image processing unit 24 corrects the distortion of each image by geometric transformation in consideration of the detected connection position and the lens characteristics of each optical system, and converts each image into an all-sky format (all-sky image format). Convert to an image. Then, the image processing unit 24 generates one spherical image (VR image) by synthesizing (blending) two images in the spherical format. The generated spherical image is, for example, an image using equirectangular projection, and the position of each pixel of the spherical image can be associated with the coordinates of the surface of the sphere (VR space).

A/D変換器23a,23bからの出力データは、画像処理部24及びメモリ制御部15を介して、或いは、画像処理部24を介さずにメモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22a,22bによって得られA/D変換器23a,23bによりデジタルデータに変換された画像データや、接続I/F25から外部のディスプレイに出力するための画像データを格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。 The output data from the A / D converters 23a and 23b is written to the memory 32 via the image processing unit 24 and the memory control unit 15 or via the memory control unit 15 without the image processing unit 24. The memory 32 stores image data obtained by the imaging units 22a and 22b and converted into digital data by the A / D converters 23a and 23b, and image data to be output from the connection I / F 25 to an external display. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined time, and audio.

また、メモリ32は画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に格納されている画像表示用のデータは、接続I/F25から外部のディスプレイに出力することが可能である。撮像部22a、22bで撮像され、画像処理部24で生成されたVR画像であって、メモリ32に蓄積されたVR画像を外部ディスプレイに逐次転送して表示することで、電子ビューファインダとしての機能を実現でき、ライブビュー表示(LV表示)を行える。以下、ライブビュー表示で表示される画像をライブビュー画像(LV画像)と称する。また、メモリ32に蓄積されたVR画像を、通信部54を介して無線接続された外部機器(スマートフォンなど)に転送し、外部機器側で表示することでもライブビュー表示(リモートLV表示)を行える。 Further, the memory 32 also serves as a memory (video memory) for displaying an image. The image display data stored in the memory 32 can be output from the connection I / F 25 to an external display. A VR image captured by the imaging units 22a and 22b and generated by the image processing unit 24, which functions as an electronic viewfinder by sequentially transferring and displaying the VR image stored in the memory 32 to an external display. Can be realized, and live view display (LV display) can be performed. Hereinafter, the image displayed in the live view display is referred to as a live view image (LV image). In addition, the VR image stored in the memory 32 can be transferred to an external device (smartphone or the like) wirelessly connected via the communication unit 54 and displayed on the external device side to perform live view display (remote LV display). ..

不揮発性メモリ56は、電気的に消去・記録可能な記録媒体としてのメモリであり、例えばEEPROM等である。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記録される。ここでいうプログラムとは、各種処理を実行するためのコンピュータプログラムのことである。 The non-volatile memory 56 is a memory as a recording medium that can be electrically erased and recorded, such as EEPROM. The non-volatile memory 56 records constants, programs, and the like for the operation of the system control unit 50. The program referred to here is a computer program for executing various processes.

システム制御部50は、少なくとも1つのプロセッサーまたは回路を有する制御部であり、デジタルカメラ100全体を制御する。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、各処理を実現する。システムメモリ52は例えばRAMであり、システムメモリ52には、システム制御部50の動作用の定
数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50は、メモリ32、画像処理部24、メモリ制御部15等を制御することにより表示制御も行う。システムタイマー53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。
The system control unit 50 is a control unit having at least one processor or circuit, and controls the entire digital camera 100. The system control unit 50 realizes each process by executing the program recorded in the non-volatile memory 56 described above. The system memory 52 is, for example, a RAM, and in the system memory 52, constants and variables for operation of the system control unit 50, a program read from the non-volatile memory 56, and the like are expanded. The system control unit 50 also controls the display by controlling the memory 32, the image processing unit 24, the memory control unit 15, and the like. The system timer 53 is a time measuring unit that measures the time used for various controls and the time of the built-in clock.

モード切替スイッチ60、シャッターボタン61、操作部70、及び、電源スイッチ72は、システム制御部50に各種の動作指示を入力するために使用される。 The mode changeover switch 60, the shutter button 61, the operation unit 70, and the power switch 72 are used to input various operation instructions to the system control unit 50.

モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード、通信接続モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモードがある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。モード切替スイッチ60より、ユーザは、これらのモードのいずれかに直接切り替えることができる。あるいは、モード切替スイッチ60で撮影モードの一覧画面に一旦切り替えた後に、表示部28に表示された複数のモードのいずれかに、他の操作部材を用いて選択的に切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 The mode changeover switch 60 switches the operation mode of the system control unit 50 to any one of a still image recording mode, a moving image shooting mode, a playback mode, a communication connection mode, and the like. The modes included in the still image recording mode include an auto shooting mode, an auto scene discrimination mode, a manual mode, an aperture priority mode (Av mode), a shutter speed priority mode (Tv mode), and a program AE mode. In addition, there are various scene modes, custom modes, etc. that are shooting settings for each shooting scene. From the mode changeover switch 60, the user can directly switch to any of these modes. Alternatively, after switching to the shooting mode list screen with the mode changeover switch 60, the mode may be selectively switched to any of the plurality of modes displayed on the display unit 28 by using another operation member. Similarly, the moving image shooting mode may include a plurality of modes.

シャッターボタン61は、第1シャッタースイッチ62と第2シャッタースイッチ64を備える。第1シャッタースイッチ62は、シャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。システム制御部50は、第1シャッタースイッチ信号SW1により、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の撮影準備動作を開始する。 The shutter button 61 includes a first shutter switch 62 and a second shutter switch 64. The first shutter switch 62 is turned on by a so-called half-press (shooting preparation instruction) during the operation of the shutter button 61, and the first shutter switch signal SW1 is generated. The system control unit 50 starts shooting preparation operations such as AF (autofocus) processing, AE (autoexposure) processing, AWB (auto white balance) processing, and EF (flash pre-flash) processing by the first shutter switch signal SW1. do.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22a,22bからの信号読み出しから記録媒体90に画像データを書き込むまでの一連の撮影処理の動作を開始する。 The second shutter switch 64 is turned on when the operation of the shutter button 61 is completed, so-called full pressing (shooting instruction), and the second shutter switch signal SW2 is generated. The system control unit 50 starts a series of shooting processes from reading signals from the imaging units 22a and 22b to writing image data to the recording medium 90 by the second shutter switch signal SW2.

なお、シャッターボタン61は全押しと半押しの2段階の操作ができる操作部材に限るものではなく、1段階の押下だけができる操作部材であってもよい。その場合、1段階の押下によって撮影準備動作と撮影処理が連続して行われる。これは、半押しと全押しが可能なシャッターボタンを全押しした場合(第1シャッタースイッチ信号SW1と第2シャッタースイッチ信号SW2とがほぼ同時に発生した場合)と同じ動作である。 The shutter button 61 is not limited to an operating member that can be operated in two steps of full pressing and half pressing, and may be an operating member that can be pressed in only one step. In that case, the shooting preparation operation and the shooting process are continuously performed by pressing the button in one step. This is the same operation as when the shutter button that can be half-pressed and fully pressed is fully pressed (when the first shutter switch signal SW1 and the second shutter switch signal SW2 are generated almost at the same time).

操作部70は、表示部28に表示される種々の機能アイコンや選択肢を選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。ユーザは、表示部28に表示されたメニュー画面を見ながら操作部70を操作することで、直感的に各種設定を行うことができる。 The operation unit 70 is assigned various functions for each scene by selecting and operating various function icons and options displayed on the display unit 28, and acts as various function buttons. The function buttons include, for example, an end button, a back button, an image feed button, a jump button, a narrowing down button, an attribute change button, and the like. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 28. The user can intuitively make various settings by operating the operation unit 70 while looking at the menu screen displayed on the display unit 28.

電源スイッチ72は、電源のオン/オフを切り替えるための押しボタンである。電源制御部80は、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量等の検出を行う。また、電源制御部80は、その検出結果及びシステム制御部50の指示に基づいてDC−
DCコンバータを制御し、必要な電圧を必要な期間、記録媒体90を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池、NiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる。
The power switch 72 is a push button for switching the power on / off. The power supply control unit 80 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching a block to be energized, and the like, and detects whether or not a battery is installed, the type of battery, the remaining battery level, and the like. Further, the power supply control unit 80 is DC-based on the detection result and the instruction of the system control unit 50.
The DC converter is controlled to supply a required voltage to each unit including the recording medium 90 for a required period. The power supply unit 30 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.

記録媒体I/F18は、メモリーカードやハードディスク等の記録媒体90とのインターフェースである。記録媒体90は、撮影された画像を記録するためのメモリーカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。記録媒体90は、デジタルカメラ100に対して着脱可能な交換記録媒体であってもよいし、デジタルカメラ100に内蔵された記録媒体であってもよい。 The recording medium I / F18 is an interface with a recording medium 90 such as a memory card or a hard disk. The recording medium 90 is a recording medium such as a memory card for recording a captured image, and is composed of a semiconductor memory, an optical disk, a magnetic disk, or the like. The recording medium 90 may be an interchangeable recording medium that can be attached to and detached from the digital camera 100, or may be a recording medium built in the digital camera 100.

通信部54は、無線または有線ケーブルによって接続された外部機器との間で、映像信号や音声信号等の送受信を行う。通信部54は、無線LAN(Local Area Network)やインターネットにも接続可能である。通信部54は撮像部22a,22bで撮像した画像(LV画像を含む)や、記録媒体90に記録された画像を送信可能であり、外部機器から画像やその他の各種情報を受信することができる。 The communication unit 54 transmits and receives video signals, audio signals, and the like to and from an external device connected by a wireless or wired cable. The communication unit 54 can also be connected to a wireless LAN (Local Area Network) or the Internet. The communication unit 54 can transmit images (including LV images) captured by the imaging units 22a and 22b and images recorded on the recording medium 90, and can receive images and various other information from an external device. ..

姿勢検知部55は重力方向に対するデジタルカメラ100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮像部22a,22bで撮影された画像が、デジタルカメラ100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。また、撮像部22a,22bで撮影された画像が、ヨー方向、ピッチ方向、ロール方向の3軸方向(回転方向)にデジタルカメラ100をどの程度傾けて撮影された画像であるかを判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22a,22bで撮像されたVR画像の画像ファイルに付加したり、画像を回転(傾き補正(天頂補正)するように画像の向きを調整)して記録したりすることが可能である。加速度センサ、ジャイロセンサ、地磁気センサ、方位センサ、高度センサなどのうちの1つのセンサまたは複数のセンサの組み合わせを、姿勢検知部55として用いることができる。姿勢検知部55を構成する加速度センサ、ジャイロセンサ、方位センサ等を用いて、デジタルカメラ100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。 The posture detection unit 55 detects the posture of the digital camera 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 55, the image taken by the image pickup units 22a and 22b is an image taken by holding the digital camera 100 horizontally or an image taken by holding the digital camera 100 vertically. It is possible to determine whether or not there is. Further, it is possible to determine how much the images taken by the imaging units 22a and 22b are taken by tilting the digital camera 100 in the three axial directions (rotational directions) of the yaw direction, the pitch direction, and the roll direction. be. The system control unit 50 adds orientation information according to the posture detected by the posture detection unit 55 to the image file of the VR image captured by the image pickup units 22a and 22b, and rotates the image (tilt correction (zenith correction)). It is possible to adjust the orientation of the image so that it can be recorded. One sensor such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an orientation sensor, an altitude sensor, or a combination of a plurality of sensors can be used as the attitude detection unit 55. It is also possible to detect the movement (pan, tilt, lift, whether or not it is stationary, etc.) of the digital camera 100 by using an acceleration sensor, a gyro sensor, a direction sensor, or the like that constitute the attitude detection unit 55.

マイク20は、動画であるVR画像(VR動画)の音声として記録されるデジタルカメラ100の周囲の音声を集音するマイクロフォンである。接続I/F25は、外部機器と接続して映像の送受信を行うための、HDMI(登録商標)ケーブルやUSBケーブルなどが接続される接続プラグである。 The microphone 20 is a microphone that collects the sound around the digital camera 100 recorded as the sound of a VR image (VR moving image) which is a moving image. The connection I / F25 is a connection plug to which an HDMI (registered trademark) cable, a USB cable, or the like for connecting to an external device and transmitting / receiving video is connected.

(表示制御装置の構成)
図2(a)は、電子機器の一種である表示制御装置200の外観図の例である。表示制御装置200は、例えばスマートフォンなどの表示装置である。ディスプレイ205は画像や各種情報を表示する表示部である。ディスプレイ205はタッチパネル206aと一体的に構成されており、ディスプレイ205の表示面へのタッチ操作を検出できるようになっている。表示制御装置200は、VR画像(VRコンテンツ)をディスプレイ205においてVR表示することが可能である。操作部206bは表示制御装置200の電源のオンとオフを切り替える操作を受け付ける電源ボタンである。操作部206cと操作部206dは、スピーカー212bや、音声出力端子212aに接続されたイヤホンや外部スピーカーなどから出力する音声のボリュームを増減するボリュームボタンである。操作部206eは、ディスプレイ205にホーム画面を表示させるためのホームボタンである。音声出力端子212aはイヤホンジャックであり、イヤホンや外部スピーカーなどに音声信号を出力する端子である。スピーカー212bは音声を出力する本体内蔵スピーカーである。
(Configuration of display control device)
FIG. 2A is an example of an external view of a display control device 200, which is a type of electronic device. The display control device 200 is a display device such as a smartphone. The display 205 is a display unit that displays images and various information. The display 205 is integrally configured with the touch panel 206a, and can detect a touch operation on the display surface of the display 205. The display control device 200 can display a VR image (VR content) in VR on the display 205. The operation unit 206b is a power button that accepts an operation of switching the power of the display control device 200 on and off. The operation unit 206c and the operation unit 206d are volume buttons for increasing or decreasing the volume of audio output from the speaker 212b, earphones connected to the audio output terminal 212a, an external speaker, or the like. The operation unit 206e is a home button for displaying the home screen on the display 205. The audio output terminal 212a is an earphone jack, and is a terminal that outputs an audio signal to an earphone, an external speaker, or the like. The speaker 212b is a built-in speaker that outputs sound.

図2(b)は、表示制御装置200の構成例を示すブロック図である。内部バス250に対してCPU201、メモリ202、不揮発性メモリ203、画像処理部204、ディスプレイ205、操作部206、記録媒体I/F207、外部I/F209、及び、通信I/F210が接続されている。また、内部バス250に対して音声出力部212と姿勢検出部213も接続されている。内部バス250に接続される各部は、内部バス250を介して互いにデータのやりとりを行うことができるようにされている。 FIG. 2B is a block diagram showing a configuration example of the display control device 200. The CPU 201, memory 202, non-volatile memory 203, image processing unit 204, display 205, operation unit 206, recording medium I / F 207, external I / F 209, and communication I / F 210 are connected to the internal bus 250. .. Further, the audio output unit 212 and the posture detection unit 213 are also connected to the internal bus 250. Each part connected to the internal bus 250 can exchange data with each other via the internal bus 250.

CPU201は、表示制御装置200の全体を制御する制御部であり、少なくとも1つのプロセッサーまたは回路からなる。メモリ202は、例えばRAM(半導体素子を利用した揮発性のメモリなど)からなる。CPU201は、例えば、不揮発性メモリ203に格納されるプログラムに従い、メモリ202をワークメモリとして用いて、表示制御装置200の各部を制御する。不揮発性メモリ203には、画像データや音声データ、その他のデータ、CPU201が動作するための各種プログラムなどが格納される。不揮発性メモリ203は例えばフラッシュメモリやROMなどで構成される。 The CPU 201 is a control unit that controls the entire display control device 200, and includes at least one processor or circuit. The memory 202 includes, for example, a RAM (such as a volatile memory using a semiconductor element). The CPU 201 controls each part of the display control device 200 by using the memory 202 as a work memory according to a program stored in the non-volatile memory 203, for example. The non-volatile memory 203 stores image data, audio data, other data, various programs for operating the CPU 201, and the like. The non-volatile memory 203 is composed of, for example, a flash memory or a ROM.

画像処理部204は、CPU201の制御に基づいて、不揮発性メモリ203や記録媒体208に格納された画像や、外部I/F209を介して取得した映像信号、通信I/F210を介して取得した画像などに対して各種画像処理を施す。画像処理部204が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理などが含まれる。また、全方位画像あるいは全方位ではないにせよ広範囲の映像を有する広範囲画像であるVR画像のパノラマ展開やマッピング処理、変換などの各種画像処理も行う。画像処理部204は特定の画像処理を施すための専用の回路ブロックで構成してもよい。また、画像処理の種別によっては画像処理部204を用いずにCPU201がプログラムに従って画像処理を施すことも可能である。 The image processing unit 204 controls the image stored in the non-volatile memory 203 or the recording medium 208 based on the control of the CPU 201, the video signal acquired via the external I / F 209, and the image acquired via the communication I / F 210. Various image processing is applied to such as. The image processing performed by the image processing unit 204 includes A / D conversion processing, D / A conversion processing, image data coding processing, compression processing, decoding processing, enlargement / reduction processing (resizing), noise reduction processing, and color conversion. Processing etc. are included. It also performs various image processing such as panoramic development, mapping processing, and conversion of a VR image which is an omnidirectional image or a wide range image having a wide range of images even if it is not omnidirectional. The image processing unit 204 may be configured by a dedicated circuit block for performing specific image processing. Further, depending on the type of image processing, the CPU 201 may perform image processing according to a program without using the image processing unit 204.

ディスプレイ205は、CPU201の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU201は、プログラムに従い表示制御信号を生成し、ディスプレイ205に表示するための映像信号を生成してディスプレイ205に出力するように表示制御装置200の各部を制御する。ディスプレイ205は生成・出力された映像信号に基づいて映像を表示する。なお、表示制御装置200自体が備える構成としてはディスプレイ205に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ205は外付けのモニタ(テレビやHMDなど)で構成してもよい。 The display 205 displays an image, a GUI screen that constitutes a GUI (Graphical User Interface), and the like based on the control of the CPU 201. The CPU 201 controls each part of the display control device 200 so as to generate a display control signal according to a program, generate a video signal to be displayed on the display 205, and output the video signal to the display 205. The display 205 displays an image based on the generated / output image signal. The display control device 200 itself may include an interface for outputting a video signal to be displayed on the display 205, and the display 205 may be configured by an external monitor (television, HMD, etc.).

操作部206は、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッドなどを含む、ユーザ操作を受け付けるための入力デバイスである。本実施形態では、操作部206は、タッチパネル206a,操作部206b,206c,206d,206eを含む。 The operation unit 206 is an input device for receiving user operations, including a character information input device such as a keyboard, a pointing device such as a mouse and a touch panel, a button, a dial, a joystick, a touch sensor, and a touch pad. In the present embodiment, the operation unit 206 includes a touch panel 206a, operation units 206b, 206c, 206d, 206e.

記録媒体I/F207には、メモリーカードやCD、DVDといった記録媒体208が着脱可能である。記録媒体I/F207は、CPU201の制御に基づき、装着された記録媒体208からのデータの読み出しや、記録媒体208に対するデータの書き込みを行う。記録媒体208は、ディスプレイ205で表示するための画像などのデータを記憶する。外部I/F209は、有線ケーブル(USBケーブルなど)や無線によって外部機器と接続し、映像信号や音声信号の入出力(データ通信)を行うためのインターフェースである。通信I/F210は、外部機器やインターネット211などと通信(無線通信)して、ファイルやコマンドなどの各種データの送受信(データ通信)を行うためのインターフェースである。 A recording medium 208 such as a memory card, a CD, or a DVD can be attached to and detached from the recording medium I / F 207. The recording medium I / F 207 reads data from the mounted recording medium 208 and writes data to the recording medium 208 based on the control of the CPU 201. The recording medium 208 stores data such as an image to be displayed on the display 205. The external I / F 209 is an interface for connecting to an external device by a wired cable (USB cable or the like) or wirelessly to input / output (data communication) a video signal or an audio signal. The communication I / F 210 is an interface for communicating (wireless communication) with an external device, the Internet 211, or the like to send / receive various data such as files and commands (data communication).

音声出力部212は、表示制御装置200で再生する動画や音楽データ(コンテンツ)の音声や、操作音、着信音、各種通知音などを出力する。音声出力部212には、イヤホンなどを接続する音声出力端子212a、スピーカー212bが含まれるものとするが、音声出力部212は無線通信などで外部スピーカーに音声データを出力してもよい。 The voice output unit 212 outputs voices of moving images and music data (contents) to be played by the display control device 200, operation sounds, ringtones, various notification sounds, and the like. It is assumed that the audio output unit 212 includes an audio output terminal 212a and a speaker 212b for connecting an earphone or the like, but the audio output unit 212 may output audio data to an external speaker by wireless communication or the like.

姿勢検出部213は、重力方向に対する表示制御装置200の姿勢(傾き)や、ヨー方向、ピッチ方向、ロール方向の各軸に対する表示制御装置200の姿勢を検出し、CPU201へ姿勢情報を通知する。姿勢検出部213で検出された姿勢に基づいて、表示制御装置200が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。また、ヨー方向、ピッチ方向、ロール方向などの回転方向における表示制御装置200の傾きの有無や大きさ、当該回転方向に表示制御装置200が回転したかなどを判別可能である。加速度センサ、ジャイロセンサ、地磁気センサ、方位センサ、高度センサなどのうちの1つのセンサまたは複数のセンサの組み合わせを、姿勢検出部213として用いることができる。 The posture detection unit 213 detects the posture (tilt) of the display control device 200 with respect to the gravity direction and the posture of the display control device 200 with respect to each axis in the yaw direction, the pitch direction, and the roll direction, and notifies the CPU 201 of the posture information. Based on the posture detected by the posture detection unit 213, whether the display control device 200 is held horizontally, vertically, upwards, downwards, or in an oblique posture. Etc. can be discriminated. Further, it is possible to determine whether or not the display control device 200 is tilted or large in the rotation direction such as the yaw direction, the pitch direction, and the roll direction, and whether the display control device 200 is rotated in the rotation direction. One sensor such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an orientation sensor, an altitude sensor, or a combination of a plurality of sensors can be used as the attitude detection unit 213.

上述したように、操作部206にはタッチパネル206aが含まれる。タッチパネル206aは、ディスプレイ205に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。CPU201はタッチパネル206aへの以下の操作、あるいは状態を検出できる。
・タッチパネル206aにタッチしていなかった指やペンが新たにタッチパネル206aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch−Down)と称する)
・タッチパネル206aを指やペンがタッチしている状態(以下、タッチオン(Touch−On)と称する)
・指やペンがタッチパネル206aをタッチしたまま移動していること(以下、タッチムーブ(Touch−Move)と称する)
・タッチパネル206aへタッチしていた指やペンがタッチパネル206aから離れたこと、すなわちタッチの終了(以下、タッチアップ(Touch−Up)と称する)
・タッチパネル206aに何もタッチしていない状態(以下、タッチオフ(Touch−Off)と称する)
As described above, the operation unit 206 includes the touch panel 206a. The touch panel 206a is an input device that is superposed on the display 205 and is configured in a plane so that coordinate information corresponding to the contacted position is output. The CPU 201 can detect the following operations or states on the touch panel 206a.
-A finger or pen that has not touched the touch panel 206a newly touches the touch panel 206a, that is, the start of touch (hereinafter referred to as touch-down).
-A state in which the touch panel 206a is touched by a finger or a pen (hereinafter referred to as touch-on).
-The finger or pen is moving while touching the touch panel 206a (hereinafter referred to as Touch-Move).
-The finger or pen that was touching the touch panel 206a has moved away from the touch panel 206a, that is, the end of the touch (hereinafter referred to as touch-up).
-A state in which nothing is touched on the touch panel 206a (hereinafter referred to as touch-off).

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。 When touchdown is detected, touch-on is also detected at the same time. After touchdown, touch-on usually continues to be detected unless touch-up is detected. When a touch move is detected, a touch-on is detected at the same time. Even if touch-on is detected, touch move is not detected unless the touch position is moved. Touch-off is detected when it is detected that all touched fingers and pens have been touched up.

これらの操作・状態や、タッチパネル206a上に指やペンがタッチしている位置座標は内部バスを通じてCPU201に通知され、CPU201は通知された情報に基づいてタッチパネル206a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル206a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル206a上の垂直成分・水平成分毎に判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。タッチムーブは、ユーザがタッチパネル206aに対して行った移動操作である。後述するタッチムーブに応じた各種処理は、同じく移動操作であるマウスでのドラッグ操作に応じて行うことも可能である。 These operations / states and the position coordinates of the finger or pen touching on the touch panel 206a are notified to the CPU 201 through the internal bus, and the CPU 201 performs what kind of operation (touch operation) on the touch panel 206a based on the notified information. ) Was performed. Regarding the touch move, the moving direction of the finger or pen moving on the touch panel 206a can also be determined for each vertical component and horizontal component on the touch panel 206a based on the change in the position coordinates. When it is detected that the touch move is performed over a predetermined distance, it is determined that the slide operation has been performed. The touch move is a movement operation performed by the user on the touch panel 206a. Various processes corresponding to the touch move, which will be described later, can also be performed in response to a drag operation with the mouse, which is also a movement operation.

タッチパネル206a上に指をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル20
6a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。
The operation of quickly moving a finger on the touch panel 206a by a certain distance and then releasing it is called flicking. Flick is, in other words, touch panel 20
6a This is an operation of swiftly tracing the top with a finger. If it is detected that the touch move is performed at a predetermined speed or more over a predetermined distance and the touch-up is detected as it is, it can be determined that the flick has been performed (it can be determined that there was a flick following the slide operation).

更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル206aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。 Further, a touch operation in which a plurality of points (for example, two points) are touched at the same time to bring the touch positions closer to each other is called a pinch-in, and a touch operation to move the touch positions away from each other is called a pinch-out. Pinch out and pinch in are collectively called pinch operation (or simply pinch). The touch panel 206a may be any of various types of touch panels such as a resistive film method, a capacitance method, a surface acoustic wave method, an infrared method, an electromagnetic induction method, an image recognition method, and an optical sensor method. good. There are a method of detecting that there is a touch due to contact with the touch panel and a method of detecting that there is a touch due to the approach of a finger or a pen to the touch panel, but any method may be used.

図2(c)は、表示制御装置200を装着可能なVRゴーグル(ヘッドマウントアダプター)230の外観図である。表示制御装置200は、VRゴーグル230に装着することで、ヘッドマウントディスプレイとして使用することも可能である。挿入口231は、表示制御装置200を差し込むための挿入口である。ディスプレイ205の表示面を、VRゴーグル230をユーザの頭部に固定するためのヘッドバンド232側(すなわちユーザ側)に向けて表示制御装置200の全体をVRゴーグル230差し込むことができる。ユーザは、表示制御装置200が装着されたVRゴーグル230を頭部に装着した状態で、手で表示制御装置200を保持することなく、ディスプレイ205を視認することができる。この場合は、ユーザが頭部または体全体を動かすと、表示制御装置200の姿勢も変化する。姿勢検出部213はこの時の表示制御装置200の姿勢変化を検出し、この姿勢変化に基づいてCPU201がVR表示のための処理を行う。この場合に姿勢検出部213が表示制御装置200の姿勢を検出することは、ユーザの頭部の姿勢(ユーザの視線が向いている方向)を検出することと同等である。なお、表示制御装置200自体が、VRゴーグル無しでも頭部に到着可能なHMDであってもよい。 FIG. 2C is an external view of the VR goggles (head mount adapter) 230 to which the display control device 200 can be mounted. The display control device 200 can also be used as a head-mounted display by being attached to the VR goggles 230. The insertion port 231 is an insertion port for inserting the display control device 200. The entire display control device 200 can be inserted into the VR goggles 230 with the display surface of the display 205 facing the headband 232 side (that is, the user side) for fixing the VR goggles 230 to the user's head. The user can visually recognize the display 205 with the VR goggles 230 equipped with the display control device 200 attached to the head without holding the display control device 200 by hand. In this case, when the user moves the head or the entire body, the posture of the display control device 200 also changes. The posture detection unit 213 detects the posture change of the display control device 200 at this time, and the CPU 201 performs a process for VR display based on the posture change. In this case, detecting the posture of the display control device 200 by the posture detecting unit 213 is equivalent to detecting the posture of the user's head (the direction in which the user's line of sight is facing). The display control device 200 itself may be an HMD that can reach the head without VR goggles.

(基準位置の更新)
図3を参照して、表示制御装置200のディスプレイ205(以下、表示部205とも称する)における基準位置更新処理について説明する。基準位置は、VR画像の基準として設定された位置である。VR画像の再生開始時における基準位置は、例えば、VR画像の撮影時における撮影レンズ103aの正面の位置とすることができる。
(Update of reference position)
The reference position update process in the display 205 (hereinafter, also referred to as the display unit 205) of the display control device 200 will be described with reference to FIG. The reference position is a position set as a reference for the VR image. The reference position at the start of reproduction of the VR image can be, for example, the position in front of the photographing lens 103a at the time of photographing the VR image.

基準方向は、初期状態での表示部205の姿勢(表示制御装置200の姿勢)である。初期状態は、表示制御装置200の電源が入り、VR画像の再生が開始されたときの状態である。初期状態では、基準方向は、VR画像の基準位置の方向に向けられている。 The reference direction is the posture of the display unit 205 (the posture of the display control device 200) in the initial state. The initial state is the state when the power of the display control device 200 is turned on and the reproduction of the VR image is started. In the initial state, the reference direction is directed to the reference position of the VR image.

表示部205は、VR画像の一部の範囲を表示する。表示部205に表示される表示画像の範囲は、VR画像のうち、表示部205の姿勢と基準方向との差に応じて基準位置から離れた位置(表示位置)を含む範囲である。表示位置は、表示部205に表示される表示画像の基準となる方向であり、例えば、表示画像の中心の位置である。 The display unit 205 displays a part of the range of the VR image. The range of the display image displayed on the display unit 205 is a range of the VR image including a position (display position) away from the reference position according to the difference between the posture of the display unit 205 and the reference direction. The display position is a reference direction of the display image displayed on the display unit 205, and is, for example, the position of the center of the display image.

本実施形態では、表示部205の姿勢が一定方向に所定時間向けられた状態が維持された場合、すなわち、ユーザが一定方向を所定時間注視した場合、VR画像における基準位置は、当該一定方向に対応する位置に更新される。図3(a)〜図3(d)は、VR画像の再生状態における、表示部205の姿勢の変化(以下、姿勢変化とも称する)に応じた基準位置の更新を説明する図である。 In the present embodiment, when the posture of the display unit 205 is maintained in a fixed direction for a predetermined time, that is, when the user gazes at a fixed direction for a predetermined time, the reference position in the VR image is in the fixed direction. Updated to the corresponding position. 3A to 3D are diagrams for explaining the update of the reference position according to the change in the posture of the display unit 205 (hereinafter, also referred to as the posture change) in the reproduction state of the VR image.

図3(a)は、VR画像の再生開始時の表示部205の姿勢の状態を例示する図である
。デフォルト基準位置301は、VR画像の再生開始時の基準位置であり、例えば、VR画像を撮影したときの正面位置である。基準方向302は、表示部205の初期状態での姿勢である。表示位置303は、表示制御装置200の表示部205に表示されるVR画像の一部の範囲(表示領域)の基準となる位置である。
FIG. 3A is a diagram illustrating a state of the posture of the display unit 205 at the start of reproduction of the VR image. The default reference position 301 is a reference position at the start of reproduction of the VR image, and is, for example, a front position when the VR image is taken. The reference direction 302 is the posture of the display unit 205 in the initial state. The display position 303 is a position that serves as a reference for a part of a range (display area) of the VR image displayed on the display unit 205 of the display control device 200.

基準方向に対する方位角、仰角などの表示位置を示す情報は、メモリ202等に保存される。VR画像の再生開始時には、表示位置303は、デフォルト基準位置301の方向に設定されている。すなわち、VR画像の再生開始時の表示位置を示す情報は、デフォルト基準位置301および基準方向302に基づいて設定される。表示画像304は、VR画像の再生開始時の表示位置を示す情報に基づいて表示される範囲の画像である。 Information indicating the display position such as the azimuth angle and the elevation angle with respect to the reference direction is stored in the memory 202 or the like. At the start of playback of the VR image, the display position 303 is set in the direction of the default reference position 301. That is, the information indicating the display position at the start of reproduction of the VR image is set based on the default reference position 301 and the reference direction 302. The display image 304 is an image in a range displayed based on the information indicating the display position at the start of reproduction of the VR image.

図3(b)は、表示画像304の再生中に、表示部205の姿勢が基準方向302と異なる一定方向に所定時間(第1の所定時間)向けられた場合に、表示位置303を更新する例を示す図である。表示部205の姿勢が基準方向302と異なる方向を向いている場合、表示部205は、現在の姿勢に対応する位置の表示画像305を表示する。表示部205が基準方向302と異なる姿勢を所定時間継続した場合、表示位置を示す情報は、姿勢変更後の表示位置303および表示部205の姿勢に基づいて更新される。この場合、デフォルト基準位置301および基準方向302は変化していない。 FIG. 3B updates the display position 303 when the posture of the display unit 205 is directed to a fixed time (first predetermined time) different from the reference direction 302 during playback of the display image 304. It is a figure which shows an example. When the posture of the display unit 205 faces a direction different from the reference direction 302, the display unit 205 displays the display image 305 at the position corresponding to the current posture. When the display unit 205 continues a posture different from the reference direction 302 for a predetermined time, the information indicating the display position is updated based on the postures of the display position 303 and the display unit 205 after the posture change. In this case, the default reference position 301 and the reference direction 302 have not changed.

図3(c)は、基準位置更新処理を説明する図である。図3(b)で説明したように表示位置303が変更されると、VR画像の基準位置は、所定時間(第2の所定時間)をかけて、表示部205の姿勢の方向に表示されている表示画像305に徐々に変更される。すなわち、基準位置が表示画像305に変更されるまでの間、表示部205に表示される表示範囲は、基準方向302とは反対の向きにスクロールする。ユーザは表示画像305を注視しようとするため、表示部205の姿勢は矢印306で示されるように基準方向302まで移動する。このように、ユーザは、基準方向302と異なる一定方向の範囲を所定時間注視した場合、注視した一定方向が表示位置として設定される。そして、ユーザの姿勢が基準方向302に戻った場合には、注視した表示位置の画像が基準方向302に表示されている。図3(c)で説明した基準位置更新処理は、図5のフローチャートにより詳細に説明される。 FIG. 3C is a diagram illustrating a reference position update process. When the display position 303 is changed as described with reference to FIG. 3B, the reference position of the VR image is displayed in the direction of the posture of the display unit 205 over a predetermined time (second predetermined time). It is gradually changed to the displayed image 305. That is, until the reference position is changed to the display image 305, the display range displayed on the display unit 205 scrolls in the direction opposite to the reference direction 302. Since the user tries to gaze at the display image 305, the posture of the display unit 205 moves to the reference direction 302 as indicated by the arrow 306. In this way, when the user gazes at a range in a certain direction different from the reference direction 302 for a predetermined time, the gaze constant direction is set as the display position. Then, when the user's posture returns to the reference direction 302, the image of the gaze display position is displayed in the reference direction 302. The reference position update process described with reference to FIG. 3C will be described in detail with reference to the flowchart of FIG.

図3(d)は、基準位置更新処理の別の例を説明する図である。図3(b)で説明したように、表示部205の姿勢が表示画像305の方向に所定時間向けられると、表示位置303は、表示画像305にロックされる。表示部205の姿勢変化に応じたVR画像の表示処理は一時停止される。表示部205の姿勢が矢印307で示されるように基準方向302まで変化している間、表示部205は、表示部205の姿勢に関わらず表示画像305を表示する。表示部205の姿勢が基準方向302まで移動すると、表示部205の姿勢変化に応じたVR画像の表示処理は再開される。図3(d)で説明した基準位置更新処理は、図6のフローチャートにより詳細に説明される。 FIG. 3D is a diagram illustrating another example of the reference position update process. As described with reference to FIG. 3B, when the posture of the display unit 205 is directed toward the display image 305 for a predetermined time, the display position 303 is locked to the display image 305. The display processing of the VR image according to the posture change of the display unit 205 is temporarily stopped. While the posture of the display unit 205 changes to the reference direction 302 as indicated by the arrow 307, the display unit 205 displays the display image 305 regardless of the posture of the display unit 205. When the posture of the display unit 205 moves to the reference direction 302, the display processing of the VR image corresponding to the change in the posture of the display unit 205 is restarted. The reference position update process described with reference to FIG. 3D will be described in detail with reference to the flowchart of FIG.

(VRビュー表示処理の流れ)
図4は、VRビュー表示処理を例示するフローチャートである。この処理は、不揮発性メモリ203に記録されたプログラムをメモリ202に展開してCPU201が実行することで実現する。なお、この処理は、表示制御装置200の電源ボタン206bが操作されて電源が入ると開始する。CPU201は、電源が入るとフラグおよび制御変数等を初期化し、VRビュー表示処理を開始する。
(Flow of VR view display processing)
FIG. 4 is a flowchart illustrating the VR view display process. This process is realized by expanding the program recorded in the non-volatile memory 203 into the memory 202 and executing it by the CPU 201. This process starts when the power button 206b of the display control device 200 is operated and the power is turned on. When the power is turned on, the CPU 201 initializes the flags, control variables, and the like, and starts the VR view display process.

S401では、CPU201は、記録媒体208または通信I/F210を介した通信先(例えば、デジタルカメラ100)から、表示対象となるVR画像を取得する。また、CPU201は、属性情報としてVR画像に付帯する映像範囲(有効映像範囲)を示す情
報を取得する。有効映像範囲を示す情報は、VR画像が、上下方向および左右方向のそれぞれにおいて、有効な映像を有する範囲に関する情報である。有効映像範囲を示す情報は、VR画像の有効映像範囲を特定できる情報であればよく、画角、視野角、方位角、仰角、左右の画素数、または座標などの位置情報であってもよい。また、有効映像範囲を示す情報は、VR画像を撮像したカメラの機種情報であってもよい。機種を特定することで、CPU201は、撮影可能な範囲を特定することができる。さらに、有効映像範囲を示す情報は、撮影時のズームの情報等であってもよい。
In S401, the CPU 201 acquires a VR image to be displayed from a communication destination (for example, a digital camera 100) via the recording medium 208 or the communication I / F 210. Further, the CPU 201 acquires information indicating a video range (effective video range) attached to the VR image as attribute information. The information indicating the effective image range is information regarding the range in which the VR image has an effective image in each of the vertical direction and the horizontal direction. The information indicating the effective image range may be any information that can specify the effective image range of the VR image, and may be position information such as an angle of view, a viewing angle, an azimuth angle, an elevation angle, the number of left and right pixels, or coordinates. .. Further, the information indicating the effective image range may be the model information of the camera that captured the VR image. By specifying the model, the CPU 201 can specify the shooting range. Further, the information indicating the effective image range may be zoom information at the time of shooting or the like.

CPU201は、有効映像範囲を示す情報を取得すると、上下方向および左右方向のそれぞれについて、360度との差分から無効映像範囲(非映像範囲)を特定(算出)することができる。なお、CPU201は、VR画像の属性情報から無効映像範囲を示す情報を取得し、無効映像範囲を示す情報から有効映像範囲を算出してもよい。また、CPU201は、有効映像範囲を示す情報および無効映像範囲を示す情報をVR画像の属性情報から取得するようにしてもよい。 When the CPU 201 acquires the information indicating the effective video range, the CPU 201 can specify (calculate) the invalid video range (non-video range) from the difference from 360 degrees in each of the vertical direction and the horizontal direction. The CPU 201 may acquire information indicating the invalid video range from the attribute information of the VR image and calculate the effective video range from the information indicating the invalid video range. Further, the CPU 201 may acquire the information indicating the effective video range and the information indicating the invalid video range from the attribute information of the VR image.

S402では、CPU201は、S401で取得したVR画像から、デフォルト基準位置301の情報を取得する。デフォルト基準位置301は、VR画像を撮影したときの正面の向きであり、VR画像を表示する位置の基準となるデフォルト位置の情報である。デフォルト基準位置301の情報は、例えば、デジタルカメラ100の撮影レンズ103aの正面方向、上下方向における水平位置、または撮影時の方位位置の情報である。 In S402, the CPU 201 acquires the information of the default reference position 301 from the VR image acquired in S401. The default reference position 301 is the front orientation when the VR image is taken, and is information on the default position that serves as a reference for the position where the VR image is displayed. The information of the default reference position 301 is, for example, information on the horizontal position in the front direction, the vertical direction, or the directional position at the time of shooting of the photographing lens 103a of the digital camera 100.

S403では、CPU201は、初期状態での表示部205の姿勢である基準方向302の情報を取得する。基準方向302の情報は、姿勢検出部213が初期状態で表示部205の姿勢を検出することにより取得することができる。 In S403, the CPU 201 acquires information on the reference direction 302, which is the posture of the display unit 205 in the initial state. The information of the reference direction 302 can be acquired by the posture detection unit 213 detecting the posture of the display unit 205 in the initial state.

S404では、CPU201は、表示部205にVR画像を表示する際の表示位置303を設定する。具体的には、CPU201は、基準方向302に対する方位角、仰角などの情報を、表示位置を示す情報として設定する。S404では、表示部205は基準方向302に向けられており、CPU201は、S402で取得したデフォルト基準位置301およびS403で取得した基準方向302に基づいて、表示位置を示す情報を設定する。 In S404, the CPU 201 sets the display position 303 when displaying the VR image on the display unit 205. Specifically, the CPU 201 sets information such as an azimuth angle and an elevation angle with respect to the reference direction 302 as information indicating a display position. In S404, the display unit 205 is directed to the reference direction 302, and the CPU 201 sets information indicating the display position based on the default reference position 301 acquired in S402 and the reference direction 302 acquired in S403.

S405では、CPU201は、タイマーを初期化する。S406では、CPU201は、S401で取得したVR画像の表示処理を行う。VR画像の元画像(画像データ)は、例えば、正距円筒図法を用いた歪んだ画像であり、各画素の位置が球体の表面の座標と対応づけることが可能な形式の画像である。CPU201は、このVR画像の元画像を球体にマッピングし、一部を切り出して表示する。S406で表示される画像は、元画像の一部を切り出して拡大した画像であり、元画像の歪みを除去(あるいは低減)した画像である。 In S405, the CPU 201 initializes the timer. In S406, the CPU 201 performs the display processing of the VR image acquired in S401. The original image (image data) of the VR image is, for example, a distorted image using equirectangular projection, and is an image in a format in which the position of each pixel can be associated with the coordinates of the surface of the sphere. The CPU 201 maps the original image of this VR image to a sphere, cuts out a part of the image, and displays it. The image displayed in S406 is an image obtained by cutting out a part of the original image and enlarging it, and is an image in which distortion of the original image is removed (or reduced).

S406において、CPU201は、S404で設定した表示位置を示す情報に基づいて、VR画像の表示位置303における表示画像304を表示部205の基準方向302に表示する。すなわち、デフォルト基準位置301の表示画像304が、表示制御装置200の基準方向302に表示される。 In S406, the CPU 201 displays the display image 304 at the display position 303 of the VR image in the reference direction 302 of the display unit 205 based on the information indicating the display position set in S404. That is, the display image 304 of the default reference position 301 is displayed in the reference direction 302 of the display control device 200.

また、S406において、姿勢検出部213が表示部205の姿勢変化を検出すると、CPU201は、表示部205の姿勢変化に応じて、現在向いている姿勢の視野範囲である表示画像305を表示する。 Further, in S406, when the posture detection unit 213 detects a change in the posture of the display unit 205, the CPU 201 displays the display image 305, which is the visual field range of the posture currently facing, in response to the change in the posture of the display unit 205.

S407では、CPU201は、姿勢検出部213により表示部205の姿勢を検出す
る。S408では、CPU201は、S405でタイマーが初期化されてから、姿勢検出部213が検出する表示部205の姿勢に変化があったか否かを判定する。表示部205の姿勢に変化があった場合、処理はS405へ戻り、変化がない場合、処理はS409へ進む。
In S407, the CPU 201 detects the posture of the display unit 205 by the posture detection unit 213. In S408, the CPU 201 determines whether or not the posture of the display unit 205 detected by the posture detection unit 213 has changed since the timer was initialized in S405. If there is a change in the posture of the display unit 205, the process returns to S405, and if there is no change, the process proceeds to S409.

S409では、CPU201は、S405でタイマーを初期化してから、所定時間(第1の所定時間)が経過したか否かを判定する。タイマーの初期化から所定時間が経過した場合、処理はS410へ進み、経過していない場合、処理はS413へ進む。所定時間は、ユーザが一定方向を注視することにより、表示部205の姿勢が一定方向に維持されていると想定される長さの時間、例えば5秒、8秒といった時間である。 In S409, the CPU 201 determines whether or not a predetermined time (first predetermined time) has elapsed since the timer was initialized in S405. If a predetermined time has elapsed from the initialization of the timer, the process proceeds to S410, and if not, the process proceeds to S413. The predetermined time is a time of a length that is assumed that the posture of the display unit 205 is maintained in a certain direction by the user watching in a certain direction, for example, 5 seconds or 8 seconds.

S410では、CPU201は、姿勢検出部213が検出した現在の表示部205の姿勢が、基準方向302に向けられているか否かを判定する。表示部205の姿勢が基準方向302に向けられているとは、表示部205の姿勢が、基準方向302と同一の方向である場合に限られず、基準方向302との角度の差分が所定の範囲以下である場合としてもよい。表示部205の姿勢が、基準方向302に向けられている場合、処理はS405へ戻り、基準方向302に向けられていない場合、処理はS411へ進む。 In S410, the CPU 201 determines whether or not the current posture of the display unit 205 detected by the posture detection unit 213 is directed to the reference direction 302. The posture of the display unit 205 directed to the reference direction 302 is not limited to the case where the posture of the display unit 205 is in the same direction as the reference direction 302, and the difference in angle from the reference direction 302 is within a predetermined range. It may be the following cases. If the posture of the display unit 205 is directed to the reference direction 302, the process returns to S405, and if it is not directed to the reference direction 302, the process proceeds to S411.

S411では、CPU201は、表示位置を示す情報を、現在の表示部205の姿勢の方位角、仰角などの情報に更新する。S412では、CPU201は、VR画像の基準位置を、現在の姿勢に対応する表示位置に更新する基準位置更新処理を行う。S412の処理の詳細は、図5および図6を用いて後述する。基準位置更新処理終了後、処理はS405へ戻る。 In S411, the CPU 201 updates the information indicating the display position with information such as the azimuth angle and the elevation angle of the current posture of the display unit 205. In S412, the CPU 201 performs a reference position update process for updating the reference position of the VR image to the display position corresponding to the current posture. Details of the processing of S412 will be described later with reference to FIGS. 5 and 6. After the reference position update process is completed, the process returns to S405.

S413では、CPU201は、タイマーの時間をS405でタイマーを初期化してからの経過時間に更新する。S414では、CPU201は、その他の操作があったか否かを判定する。その他の操作は、例えば、VR画像の表示モードの変更または各種設定の変更等である。その他の操作があった場合、処理はS415へ進み、その他の操作がない場合、処理はS416へ進む。S415では、CPU201は、その他の操作に応じた処理を実施する。 In S413, the CPU 201 updates the timer time to the elapsed time since the timer was initialized in S405. In S414, the CPU 201 determines whether or not there has been any other operation. Other operations include, for example, changing the display mode of the VR image or changing various settings. If there is another operation, the process proceeds to S415, and if there is no other operation, the process proceeds to S416. In S415, the CPU 201 performs processing according to other operations.

S416では、CPU201は、操作部206に対してVRビュー表示の終了操作があったか否かを判定する。VRビュー表示の終了操作があった場合、CPU201は、VRビュー表示アプリケーションを終了させ、VRビュー表示処理を終了する。操作部206に対するVRビュー表示の終了操作がない場合、処理はS407へ戻り、VRビュー表示処理は継続される。 In S416, the CPU 201 determines whether or not the operation unit 206 has been operated to end the VR view display. When there is an operation to end the VR view display, the CPU 201 terminates the VR view display application and ends the VR view display process. If there is no end operation of the VR view display for the operation unit 206, the process returns to S407, and the VR view display process is continued.

(基準位置更新処理の流れ)
図5は、基準位置更新処理を例示するフローチャートである。基準位置更新処理は、VR画像の基準位置を、S411で現在の姿勢に更新された表示位置303に更新(変更)する処理である。図5に示す基準位置更新処理は、図4のS412の処理の詳細である。この処理は、不揮発性メモリ203に記録されたプログラムをメモリ202に展開してCPU201が実行することで実現する。
(Flow of reference position update process)
FIG. 5 is a flowchart illustrating the reference position update process. The reference position update process is a process of updating (changing) the reference position of the VR image to the display position 303 updated to the current posture in S411. The reference position update process shown in FIG. 5 is a detail of the process of S412 in FIG. This process is realized by expanding the program recorded in the non-volatile memory 203 into the memory 202 and executing it by the CPU 201.

S501では、CPU201は、姿勢検出部213が検出した表示部205の姿勢変化に応じたVR画像の表示処理を制限する。すなわち表示部205の姿勢変化に応じたVR画像の表示処理のうち、基準位置の変更(更新)に伴う姿勢変化に対する表示処理は制限される。 In S501, the CPU 201 limits the display processing of the VR image according to the posture change of the display unit 205 detected by the posture detection unit 213. That is, among the VR image display processing corresponding to the posture change of the display unit 205, the display processing for the posture change accompanying the change (update) of the reference position is limited.

S502では、CPU201は、S411で更新した表示位置を示す情報に基づいて、
VR画像の基準位置を、表示部205に表示している表示画像305の表示位置303に変更する処理を開始する。基準位置の変更中は、表示部205の姿勢変化に応じたVR画像の表示処理が制限される。
In S502, the CPU 201 is based on the information indicating the display position updated in S411.
The process of changing the reference position of the VR image to the display position 303 of the display image 305 displayed on the display unit 205 is started. While the reference position is being changed, the VR image display processing according to the posture change of the display unit 205 is restricted.

S503では、CPU201は、姿勢検出部213が検出した表示部205の姿勢情報を取得する。S504では、CPU201は、表示部205の姿勢に変化があったか否かを判定する。ここでは、S502で基準位置の変更が開始された後、基準位置の変更に伴う姿勢変化以外に、表示部205の姿勢変化が検出されたか否かを判定する。表示部205の姿勢に、基準位置の変更に伴う姿勢変化以外の姿勢変化が検出された場合、処理はS505へ進み、基準位置の変更に伴う姿勢変化以外の姿勢変化が検出されない場合、処理はS510へ進む。 In S503, the CPU 201 acquires the posture information of the display unit 205 detected by the posture detection unit 213. In S504, the CPU 201 determines whether or not the posture of the display unit 205 has changed. Here, after the change of the reference position is started in S502, it is determined whether or not the posture change of the display unit 205 is detected in addition to the posture change accompanying the change of the reference position. If a posture change other than the posture change due to the change of the reference position is detected in the posture of the display unit 205, the process proceeds to S505, and if no posture change other than the posture change due to the change of the reference position is detected, the process proceeds to S505. Proceed to S510.

S505では、CPU201は、S502で開始した基準位置の変更を一時停止する。S506では、CPU201は、表示部205の姿勢変化に応じたVR画像の表示処理の制限を解除する。S507では、CPU201は、姿勢検出部213が検出した表示部205の姿勢変化に応じた表示画像の表示処理を実施する。 In S505, the CPU 201 suspends the change of the reference position started in S502. In S506, the CPU 201 releases the restriction on the display processing of the VR image according to the change in the posture of the display unit 205. In S507, the CPU 201 performs display processing of the display image according to the posture change of the display unit 205 detected by the posture detection unit 213.

S508では、CPU201は、姿勢検出部213が検出した表示部205の姿勢情報を取得する。S509では、CPU201は、S506で表示部205の姿勢変化に応じたVR画像の表示処理が制限されてから、表示部205の姿勢に変化があったか否かを判定する。表示部205の姿勢に変化があった場合、処理はS507へ戻り、表示部205の姿勢に変化がない場合、処理はS501へ戻る。このように、基準位置の変更の一時停止中、表示部205の姿勢が変化しなくなるまで、CPU201は、表示部205の姿勢変化に応じたVR画像の表示処理を実施する。表示部205の姿勢が静止すると、S502において、基準位置の変更は再開される。 In S508, the CPU 201 acquires the posture information of the display unit 205 detected by the posture detection unit 213. In S509, the CPU 201 determines whether or not the posture of the display unit 205 has changed after the display processing of the VR image corresponding to the change in the posture of the display unit 205 is restricted in S506. If there is a change in the posture of the display unit 205, the process returns to S507, and if there is no change in the posture of the display unit 205, the process returns to S501. In this way, the CPU 201 executes the VR image display process according to the change in the posture of the display unit 205 until the posture of the display unit 205 does not change while the change of the reference position is temporarily stopped. When the posture of the display unit 205 comes to rest, the change of the reference position is restarted in S502.

S510では、CPU201は、S502で開始した基準位置の変更が完了したか否かを判定する。基準位置の変更が完了していない場合、処理はS503へ戻り、基準位置の変更が完了した場合、処理はS511へ進む。S511では、CPU201は、表示部205の姿勢変化に応じたVR画像の表示処理の制限を解除し、図5に示す基準位置更新処理を終了する。 In S510, the CPU 201 determines whether or not the change of the reference position started in S502 is completed. If the change of the reference position is not completed, the process returns to S503, and if the change of the reference position is completed, the process proceeds to S511. In S511, the CPU 201 releases the restriction of the VR image display processing according to the posture change of the display unit 205, and ends the reference position update processing shown in FIG.

なお、本実施形態では、VR画像の基準位置を表示位置に変更中に姿勢変化を検知した場合、表示制御装置200は、基準位置の変更を一時停止して、表示部205の姿勢変化に応じたVR画像の表示処理の制限を解除する。表示制御装置200は、表示部205の姿勢変化がなくなってから再度、VR画像の基準位置の変更を再開するが、これに限られない。表示制御装置200は、姿勢変化の検知によって基準位置の変更を一時停止せず、基準位置の変更と表示部205の姿勢変化に応じたVR画像の表示処理とを並行して動作させてもよい。この場合、基準位置の変化量と姿勢の変化量とを相対的に更新することで、VR画像は違和感なく表示することができる。また、表示制御装置200は、VR画像の基準位置を、所定時間(第2の所定時間)かけてユーザが注視した一定方向の表示位置に変更するが、すぐに基準位置を表示位置に更新するようにしてもよい。 In the present embodiment, when a posture change is detected while changing the reference position of the VR image to the display position, the display control device 200 suspends the change of the reference position and responds to the posture change of the display unit 205. The restriction on the display processing of the VR image is released. The display control device 200 restarts the change of the reference position of the VR image again after the posture change of the display unit 205 disappears, but the present invention is not limited to this. The display control device 200 may operate the change of the reference position and the display processing of the VR image according to the change of the posture of the display unit 205 in parallel without pausing the change of the reference position by the detection of the posture change. .. In this case, the VR image can be displayed without discomfort by relatively updating the amount of change in the reference position and the amount of change in posture. Further, the display control device 200 changes the reference position of the VR image to the display position in a certain direction that the user gazes at over a predetermined time (second predetermined time), but immediately updates the reference position to the display position. You may do so.

(変形例)
図6は、変形例に係る基準位置更新処理を例示するフローチャートである。変形例に係る基準位置更新処理では、表示部205の姿勢が一定方向に所定時間向けられた場合、表示位置303は、当該一定方向の表示画像305にロックされる。表示部205の姿勢が基準方向302に戻るまでの間、表示部205は、姿勢の変更に関わらず、表示画像305を表示する。表示部205の姿勢が基準方向302に戻ることで、表示画像305へのロックは解除される。また、VR画像の基準位置は、表示画像305の表示位置303に
更新される。
(Modification example)
FIG. 6 is a flowchart illustrating the reference position update process according to the modified example. In the reference position update process according to the modification, when the posture of the display unit 205 is directed in a certain direction for a predetermined time, the display position 303 is locked to the display image 305 in the certain direction. Until the posture of the display unit 205 returns to the reference direction 302, the display unit 205 displays the display image 305 regardless of the change in the posture. When the posture of the display unit 205 returns to the reference direction 302, the lock on the display image 305 is released. Further, the reference position of the VR image is updated to the display position 303 of the display image 305.

図6に示す基準位置更新処理は、図4のS412の処理の詳細である。この処理は、不揮発性メモリ203に記録されたプログラムをメモリ202に展開してCPU201が実行することで実現する。 The reference position update process shown in FIG. 6 is a detail of the process of S412 in FIG. This process is realized by expanding the program recorded in the non-volatile memory 203 into the memory 202 and executing it by the CPU 201.

S601では、CPU201は、姿勢検出部213が検出した表示部205の姿勢変化に応じたVR画像の表示処理を停止する。また、S411で更新された表示位置303は表示画像305にロックされる。表示部205の姿勢が基準方向302に移動するまでの間、表示部205は表示画像305を表示する。 In S601, the CPU 201 stops the display processing of the VR image according to the posture change of the display unit 205 detected by the posture detection unit 213. Further, the display position 303 updated in S411 is locked to the display image 305. The display unit 205 displays the display image 305 until the posture of the display unit 205 moves in the reference direction 302.

S602では、CPU201は、現在の表示部205の姿勢が、基準方向302に向けられているか否かを判定する。表示部205の姿勢が基準方向302に向けられているとは、表示部205の姿勢が、基準方向302と同一の方向である場合に限られず、基準方向302との角度の差分が所定の範囲以下である場合としてもよい。表示位置303が、基準方向302に向けられている場合、処理はS603へ進み、基準方向302に向けられていない場合、S602の処理が繰り返される。 In S602, the CPU 201 determines whether or not the current posture of the display unit 205 is directed to the reference direction 302. The posture of the display unit 205 directed to the reference direction 302 is not limited to the case where the posture of the display unit 205 is in the same direction as the reference direction 302, and the difference in angle from the reference direction 302 is within a predetermined range. It may be the following cases. If the display position 303 is directed to the reference direction 302, the process proceeds to S603, and if it is not directed to the reference direction 302, the process of S602 is repeated.

S603では、CPU201は、表示部205の姿勢変化に応じたVR画像の表示処理を再開し、基準位置更新処理を終了する。変形例に係る基準位置更新処理では、ユーザが一定方向を所定時間注視することにより、表示位置303が表示画像305にロックされ、表示部205は、ユーザの姿勢が基準方向302に戻されるまでの間、姿勢の変化に関わらず表示画像305を表示する。このため、ユーザは、表示画像305を見失うことなく、基準方向302に姿勢を戻すことができる。 In S603, the CPU 201 restarts the VR image display process according to the posture change of the display unit 205, and ends the reference position update process. In the reference position update process according to the modified example, when the user gazes at a certain direction for a predetermined time, the display position 303 is locked to the display image 305, and the display unit 205 until the user's posture is returned to the reference direction 302. During that time, the display image 305 is displayed regardless of the change in posture. Therefore, the user can return the posture to the reference direction 302 without losing sight of the display image 305.

なお、上記の実施形態では、表示制御装置200にVR画像を表示させる例について説明したが、これに限られない。本発明は、全体画像の一部の画像を表示させる装置にも適用可能である。 In the above embodiment, an example of displaying a VR image on the display control device 200 has been described, but the present invention is not limited to this. The present invention is also applicable to a device for displaying a part of an entire image.

また、CPU201が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサーや回路)が処理を分担することで、装置全体の制御を行ってもよい。 Further, the above-mentioned various controls described as those performed by the CPU 201 may be performed by one hardware, or by sharing the processing by a plurality of hardware (for example, a plurality of processors and circuits), the entire device may be performed. Control may be performed.

また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。 Further, although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the scope of the gist of the present invention are also included in the present invention. included. Furthermore, each of the above-described embodiments is merely an embodiment of the present invention, and each embodiment can be combined as appropriate.

また、上述した実施形態においては、本発明を表示制御装置(電子機器)に適用した場合を例にして説明したが、これはこの例に限定されず、VR画像を表示できる機器であれば適用可能である。例えば、本発明は、パーソナルコンピュータやPDA、携帯電話端末や携帯型の画像ビューワ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダー、映像プレーヤーなどに適用可能である。また、本発明は、ヘッドマウントディスプレイ(HMD)などのウェアラブル機器、表示装置(投影装置を含む)、タブレット端末、スマートフォン、AIスピーカー、家電装置、車載装置、医療機器などに適用可能である。
<その他の実施形態>
Further, in the above-described embodiment, the case where the present invention is applied to a display control device (electronic device) has been described as an example, but this is not limited to this example, and any device capable of displaying a VR image can be applied. It is possible. For example, the present invention can be applied to personal computers, PDAs, mobile phone terminals, portable image viewers, digital photo frames, music players, game consoles, electronic book readers, video players, and the like. The present invention is also applicable to wearable devices such as head-mounted displays (HMDs), display devices (including projection devices), tablet terminals, smartphones, AI speakers, home appliances, in-vehicle devices, medical devices, and the like.
<Other Embodiments>

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにお
ける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or recording medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

200:表示制御装置(電子機器)、201:CPU
205:ディスプレイ(表示部)、213:姿勢検出部
200: Display control device (electronic device), 201: CPU
205: Display (display unit), 213: Posture detection unit

Claims (15)

表示部の姿勢を検出する検出手段と、
画像の一部の範囲であって、前記画像に設定された基準位置から前記表示部の姿勢と基準方向の差に応じて離れた位置を含む範囲を前記表示部に表示する表示手段と、
前記表示部の姿勢が前記基準方向と異なる一定方向に第1の所定時間向けられた状態が維持された場合に、前記基準位置を前記一定方向に対応する位置に更新する更新手段と、を有することを特徴とする電子機器。
A detection means for detecting the posture of the display unit and
A display means for displaying a range of a part of the image including a position separated from the reference position set in the image according to the difference between the posture of the display unit and the reference direction on the display unit.
It has an updating means for updating the reference position to a position corresponding to the certain direction when the state in which the posture of the display unit is directed to a certain direction different from the reference direction for a first predetermined time is maintained. An electronic device characterized by that.
前記更新手段は、第2の所定時間をかけて前記画像の基準位置を前記一定方向に対応する位置に徐々に変更する
ことを特徴とする請求項1に記載の電子機器。
The electronic device according to claim 1, wherein the updating means gradually changes the reference position of the image to a position corresponding to the fixed direction over a second predetermined time.
前記表示手段は、前記基準位置の変更中は、前記表示部の姿勢に応じた前記画像の表示処理を制限する
ことを特徴とする請求項2に記載の電子機器。
The electronic device according to claim 2, wherein the display means limits the display processing of the image according to the posture of the display unit while the reference position is changed.
前記更新手段は、前記基準位置の変更中に、前記基準位置の変更に伴う姿勢変化以外の前記表示部の姿勢変化を検出した場合には、前記基準位置の変更を一時停止する
ことを特徴とする請求項2または3に記載の電子機器。
The updating means is characterized in that, when a change in the posture of the display unit other than the change in the posture accompanying the change in the reference position is detected during the change in the reference position, the change in the reference position is temporarily stopped. The electronic device according to claim 2 or 3.
前記更新手段は、前記基準位置の変更の一時停止中に、前記表示部の姿勢が静止した場合は、前記基準位置の変更を再開する
ことを特徴とする請求項4に記載の電子機器。
The electronic device according to claim 4, wherein the updating means restarts the change of the reference position when the posture of the display unit is stationary during the suspension of the change of the reference position.
前記更新手段は、前記基準位置の変更が完了した場合、前記表示部の姿勢に応じた前記画像の表示処理の制限を解除する
ことを特徴とする請求項3から5のいずれか1項に記載の電子機器。
The update means according to any one of claims 3 to 5, wherein when the change of the reference position is completed, the restriction of the display processing of the image according to the posture of the display unit is released. Electronic equipment.
前記更新手段は、前記表示部の姿勢変化のうち、前記基準位置の変更に伴う姿勢変化以外の前記表示部の姿勢変化に基づいて表示処理を制御する
ことを特徴とする請求項2から6のいずれか1項に記載の電子機器。
The update means according to claims 2 to 6, wherein the updating means controls the display process based on the posture change of the display unit other than the posture change accompanying the change of the reference position among the posture changes of the display unit. The electronic device according to any one item.
前記更新手段は、前記基準位置の変更が完了したときの前記表示部の姿勢を基準方向とする
ことを特徴とする請求項2から7のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 2 to 7, wherein the updating means uses the posture of the display unit as a reference direction when the change of the reference position is completed.
前記更新手段は、前記表示部の姿勢が前記基準方向と同じ方向になった場合に、前記表示部の姿勢に応じた前記画像の表示処理を再開する
ことを特徴とする請求項1に記載の電子機器。
The update means according to claim 1, wherein when the posture of the display unit is in the same direction as the reference direction, the display process of the image according to the posture of the display unit is restarted. Electronics.
前記画像は、全方位画像である
ことを特徴とする請求項1から9のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 9, wherein the image is an omnidirectional image.
前記画像は、前記基準位置の情報を含む
ことを特徴とする請求項1から10のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 10, wherein the image includes information on the reference position.
前記画像の再生中は、前記画像の再生開始時の前記表示部の姿勢を、前記基準方向とする
ことを特徴とする請求項1から11のいずれか1項に記載の電子機器。
The electronic device according to any one of claims 1 to 11, wherein the posture of the display unit at the start of reproduction of the image is set to the reference direction during reproduction of the image.
表示部の姿勢を検出する検出ステップと、
画像の一部の範囲であって、前記画像に設定された基準位置から前記表示部の姿勢と基準方向の差に応じて離れた位置を含む範囲を前記表示部に表示する表示ステップと、
前記表示部の姿勢が前記基準方向と異なる一定方向に第1の所定時間向けられた状態が維持された場合に、前記基準位置を前記一定方向に対応する位置に更新する更新ステップと、
を有することを特徴とする電子機器の制御方法。
A detection step that detects the posture of the display unit,
A display step of displaying a range of a part of the image including a position separated from the reference position set in the image according to the difference between the posture and the reference direction of the display unit on the display unit.
An update step of updating the reference position to a position corresponding to the constant direction when the state in which the posture of the display unit is directed to a certain direction different from the reference direction for a first predetermined time is maintained.
A method for controlling an electronic device, which comprises.
コンピュータを、請求項1から12のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the electronic device according to any one of claims 1 to 12. コンピュータを、請求項1から12のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記録媒体。 A computer-readable recording medium containing a program for causing the computer to function as each means of the electronic device according to any one of claims 1 to 12.
JP2020078548A 2020-04-27 2020-04-27 Electronic apparatus and control method therefor Pending JP2021174317A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020078548A JP2021174317A (en) 2020-04-27 2020-04-27 Electronic apparatus and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020078548A JP2021174317A (en) 2020-04-27 2020-04-27 Electronic apparatus and control method therefor

Publications (1)

Publication Number Publication Date
JP2021174317A true JP2021174317A (en) 2021-11-01

Family

ID=78279836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020078548A Pending JP2021174317A (en) 2020-04-27 2020-04-27 Electronic apparatus and control method therefor

Country Status (1)

Country Link
JP (1) JP2021174317A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115297351A (en) * 2022-08-03 2022-11-04 抖音视界有限公司 Panoramic video playing method and device, storage medium and electronic equipment
CN117111751A (en) * 2023-10-25 2023-11-24 北京大学 Gesture change detection method, device, equipment and medium based on pulse array

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115297351A (en) * 2022-08-03 2022-11-04 抖音视界有限公司 Panoramic video playing method and device, storage medium and electronic equipment
CN115297351B (en) * 2022-08-03 2023-11-17 抖音视界有限公司 Panoramic video playing method and device, storage medium and electronic equipment
CN117111751A (en) * 2023-10-25 2023-11-24 北京大学 Gesture change detection method, device, equipment and medium based on pulse array
CN117111751B (en) * 2023-10-25 2024-04-02 北京大学 Gesture change detection method, device, equipment and medium based on pulse array

Similar Documents

Publication Publication Date Title
CN110691187B (en) Electronic device, control method of electronic device, and computer-readable medium
US10924789B2 (en) Display control apparatus, control method for display control apparatus, and non-transitory computer readable medium
CN111385470B (en) Electronic device, control method of electronic device, and computer-readable medium
US11295530B2 (en) Electronic apparatus for playing back a virtual reality video image and control method therefor
KR102477993B1 (en) Display control apparatus, imaging apparatus, control method, and computer readable medium
JP2021174317A (en) Electronic apparatus and control method therefor
US11079898B2 (en) Electronic device for controlling display of VR image, control method of electronic device, and non-transitory computer readable medium
JP7267764B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US11380075B2 (en) Electronic apparatus for playing back a virtual reality video image and control method therefor
JP7204511B2 (en) Electronic device, electronic device control method, program
JP2021069045A (en) Display control device, display control method, program, and storage media
JP2020095436A (en) Electronic apparatus and control method thereof
JP7086762B2 (en) Display control device
JP7336200B2 (en) Electronic device and its control method
JP7512055B2 (en) Electronic device and control method thereof
CN110881102B (en) Image capturing apparatus, control method of image capturing apparatus, and computer readable medium
JP2021144297A (en) Electronic device, control method thereof, program, and storage medium
JP2024075939A (en) Electronic device and method for controlling electronic device
JP2020205554A (en) Display control device, control method of the same, program, and storage medium