JP7271296B2 - IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM - Google Patents

IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM Download PDF

Info

Publication number
JP7271296B2
JP7271296B2 JP2019086091A JP2019086091A JP7271296B2 JP 7271296 B2 JP7271296 B2 JP 7271296B2 JP 2019086091 A JP2019086091 A JP 2019086091A JP 2019086091 A JP2019086091 A JP 2019086091A JP 7271296 B2 JP7271296 B2 JP 7271296B2
Authority
JP
Japan
Prior art keywords
image
display
imaging
display range
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019086091A
Other languages
Japanese (ja)
Other versions
JP2019205161A (en
Inventor
康弘 桑原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US16/410,210 priority Critical patent/US11128764B2/en
Priority to CN201910409846.3A priority patent/CN110505375B/en
Publication of JP2019205161A publication Critical patent/JP2019205161A/en
Application granted granted Critical
Publication of JP7271296B2 publication Critical patent/JP7271296B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置、撮像装置の制御方法およびプログラムに関する。 The present invention relates to an imaging device, an imaging device control method, and a program.

近年、全天球画像(全方位画像)といった、人間の視野角より広い範囲の画像を撮影することが可能な撮像装置が普及している。このような撮像装置は、複数のカメラ部を同時に駆動し被写体画像を撮像している。 2. Description of the Related Art In recent years, imaging apparatuses capable of capturing an image in a wider range than the human viewing angle, such as an omnidirectional image (omnidirectional image), have become widespread. Such an imaging apparatus simultaneously drives a plurality of camera units to capture subject images.

特許文献1では、操作指示の有無に応じて、複数のカメラ部のうち一部における駆動パルスの周波数を低下させることにより、全方位360度の画像を同時に撮影するという機能を損なうことなく省電力化を図っている。 In Japanese Patent Application Laid-Open No. 2004-100001, power saving is achieved without impairing the function of simultaneously capturing 360-degree images in all directions by lowering the frequency of drive pulses in some of a plurality of camera units according to the presence or absence of an operation instruction. We are trying to

特許文献2では、撮像装置と撮像装置の操作を行うリモコンとの状態(加速度センサによって取得される動作状態または静止状態)において、所定時間変化がない場合に撮像装置の電源をOFFにすることで省電力化を図っている。 In Japanese Patent Application Laid-Open No. 2002-200001, when there is no change in the state of an imaging device and a remote controller that operates the imaging device (operating state or stationary state acquired by an acceleration sensor) for a predetermined period of time, the power of the imaging device is turned off. Efforts are being made to save power.

特開2010-232908号公報Japanese Unexamined Patent Application Publication No. 2010-232908 特開2017-139812号公報JP 2017-139812 A

しかしながら、特許文献1では、ライブビュー画像(カメラからほぼリアルタイムで取得した画像)の全天球画像の一部を表示する場合、表示装置に表示される画像を撮影するカメラ部(以下、有効カメラ部と称する。)以外のカメラ部の出力が無駄になってしまう。また、特許文献2では、撮像装置または表示装置を移動している間はカメラ部の出力が維持されるため、上記と同様に有効カメラ部以外のカメラ部の出力が無駄になってしまう。 However, in Patent Document 1, when displaying a part of an omnidirectional image of a live view image (an image obtained from a camera in substantially real time), a camera unit (hereinafter referred to as an effective camera) for capturing an image displayed on a display device The output of the camera section other than the camera section is wasted. In addition, in Patent Document 2, since the output of the camera section is maintained while the imaging device or the display device is being moved, similarly to the above, the output of the camera sections other than the effective camera section is wasted.

そこで、本発明では、複数の撮像装置から出力される画像を合成して表示装置に表示する場合に、各撮像装置の電力消費を適切に抑える技術を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a technique for appropriately suppressing power consumption of each imaging device when combining images output from a plurality of imaging devices and displaying the synthesized images on a display device.

本発明の第一の態様は、
それぞれ異なる方向の被写体を撮像することにより得られた画像を出力する複数の撮像処理手段と、
前記複数の撮像処理手段により出力された画像を合成することにより合成画像を生成する生成手段と、
前記合成画像を記録媒体に記録する記録手段と、
前記合成画像のうち画面に表示される表示範囲を示す表示範囲情報を取得する取得手段と、
前記合成画像が前記記録媒体に記録されている間、前記表示範囲情報に関わらず、前記複数の撮像処理手段を前記第1のモードで駆動するように制御し、
前記合成画像が前記記録媒体に記録されていない間、前記表示範囲情報に基づいて、前記合成画像のうち表示される範囲と対応する画像を出力する前記撮像処理手段を第1のモードで駆動し、前記合成画像のうち表示されない範囲と対応する画像を出力する前記撮像
処理手段を前記第1のモードに比べて省電力な第2のモードで駆動するよう制御する制御手段と、
を有することを特徴とする撮像装置である。
A first aspect of the present invention is
a plurality of imaging processing means for outputting images obtained by imaging subjects in different directions;
generating means for generating a synthesized image by synthesizing the images output by the plurality of imaging processing means;
a recording means for recording the composite image on a recording medium;
Acquisition means for acquiring display range information indicating a display range of the composite image to be displayed on a screen;
while the composite image is being recorded on the recording medium, controlling the plurality of imaging processing means to be driven in the first mode regardless of the display range information;
while the composite image is not being recorded on the recording medium, the imaging processing means for outputting an image corresponding to the display range of the composite image is driven in a first mode based on the display range information. a control means for controlling the imaging processing means for outputting an image corresponding to a range not displayed in the synthesized image so as to be driven in a second mode which is more power-saving than the first mode;
An imaging device characterized by having

本発明の第二の態様は、
それぞれ異なる方向の被写体を撮像することにより得られた画像を出力する複数の撮像処理手段を備える撮像装置の制御方法であって、
前記複数の撮像処理手段により出力された画像を合成することにより合成画像を生成する生成ステップと、
前記合成画像を記録媒体に記録する記録ステップと、
前記合成画像のうち画面に表示される表示範囲を示す表示範囲情報を取得する取得ステップと、
前記合成画像が前記記録媒体に記録されている間、前記表示範囲情報に関わらず、前記複数の撮像処理手段を前記第1のモードで駆動するように制御し、
前記合成画像が前記記録媒体に記録されていない間、前記表示範囲情報に基づいて、前記合成画像のうち表示される範囲と対応する画像を出力する前記撮像処理手段を第1のモードで駆動し、前記合成画像のうち表示されない範囲と対応する画像を出力する前記撮像処理手段を前記第1のモードに比べて省電力な第2のモードで駆動するよう制御する制御ステップと、
を有することを特徴とする撮像装置の制御方法である。
A second aspect of the present invention is
A control method for an imaging device having a plurality of imaging processing means for outputting images obtained by imaging subjects in different directions,
a generating step of generating a synthesized image by synthesizing the images output by the plurality of imaging processing means;
a recording step of recording the composite image on a recording medium;
an obtaining step of obtaining display range information indicating a display range of the composite image displayed on a screen;
while the composite image is being recorded on the recording medium, controlling the plurality of imaging processing means to be driven in the first mode regardless of the display range information;
while the composite image is not being recorded on the recording medium, the imaging processing means for outputting an image corresponding to the display range of the composite image is driven in a first mode based on the display range information. a control step of controlling the imaging processing means for outputting an image corresponding to an area not displayed in the synthesized image so as to be driven in a second mode that saves power compared to the first mode;
A control method for an imaging device characterized by comprising:

本発明の第三の態様は、上記の制御方法の各ステップをコンピュータに実行させるためのコンピュータプログラムである。 A third aspect of the present invention is a computer program for causing a computer to execute each step of the above control method.

本発明によれば、複数の撮像装置から出力される画像を合成して表示装置に表示する場合に、各撮像装置の電力消費を適切に抑える技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, when combining the image output from several imaging devices and displaying on a display apparatus, the technique which suppresses the power consumption of each imaging device appropriately can be provided.

実施形態に係る撮像装置の一例を示す正面外観図1 is a front external view showing an example of an imaging device according to an embodiment; FIG. 実施形態に係る撮像装置の一例を示す背面外観図1 is a rear external view showing an example of an imaging device according to an embodiment; FIG. 実施形態に係る撮像装置の一例を示す機能ブロック図1 is a functional block diagram showing an example of an imaging device according to an embodiment; FIG. 実施形態に係る表示制御装置の一例を示す外観図1 is an external view showing an example of a display control device according to an embodiment; FIG. 実施形態に係る表示制御装置の一例を示す機能ブロック図1 is a functional block diagram showing an example of a display control device according to an embodiment; FIG. 実施形態に係る合成画像の一例を示す図FIG. 4 is a diagram showing an example of a synthesized image according to the embodiment; 実施形態に係る合成画像の一部の一例を示す図FIG. 4 is a diagram showing an example of part of a synthesized image according to the embodiment;

実施形態に係る撮像装置の処理の一例を示すフローチャート4 is a flowchart showing an example of processing of an imaging device according to an embodiment; 実施形態に係る撮像装置の命令に応じた処理の一例を示すフローチャート4 is a flow chart showing an example of processing according to a command of the imaging device according to the embodiment; 実施形態に係る撮像装置の撮影処理の一例を示すフローチャート4 is a flowchart showing an example of shooting processing of the imaging device according to the embodiment; 実施形態に係る表示制御装置の処理の一例を示すフローチャート4 is a flowchart showing an example of processing of the display control device according to the embodiment; 実施形態に係る表示制御装置の表示終了処理の一例を示すフローチャート4 is a flowchart showing an example of display end processing of the display control device according to the embodiment; 実施形態に係る表示制御装置の撮影処理の一例を示すフローチャート4 is a flowchart showing an example of imaging processing of the display control device according to the embodiment; 実施形態に係る表示制御装置の表示変更処理の一例を示すフローチャート4 is a flowchart showing an example of display change processing of the display control device according to the embodiment; 実施形態に係る表示制御装置の省電力化処理の一例を示すフローチャート4 is a flowchart showing an example of power saving processing of the display control device according to the embodiment; 実施形態に係る表示制御装置の境界処理の一例を示すフローチャート4 is a flowchart showing an example of boundary processing of the display control device according to the embodiment; 実施形態に係る表示制御装置の境界処理の一例を示すフローチャート4 is a flowchart showing an example of boundary processing of the display control device according to the embodiment;

実施形態に係る起動時間短縮処理の対象範囲の一例を示すフローチャートFlowchart showing an example of a target range of startup time reduction processing according to the embodiment 実施形態に係る起動時間短縮処理の一例を示すフローチャートFlowchart showing an example of startup time reduction processing according to the embodiment 実施形態に係る無操作時間の設定画面の一例を示す図A diagram showing an example of a no-operation time setting screen according to the embodiment. 実施形態に係る無操作時間の設定処理の一例を示すフローチャート3 is a flow chart showing an example of a no-operation time setting process according to an embodiment;

実施形態に係る撮像装置の処理の一例を示すフローチャート4 is a flowchart showing an example of processing of an imaging device according to an embodiment; 実施形態に係る表示制御装置の処理の一例を示すフローチャート4 is a flowchart showing an example of processing of the display control device according to the embodiment; 実施形態に係る撮像装置の処理の一例を示すフローチャート4 is a flowchart showing an example of processing of an imaging device according to an embodiment; 実施形態に係る表示制御装置の処理の一例を示すフローチャート4 is a flowchart showing an example of processing of the display control device according to the embodiment;

(第1の実施形態)
以下、本発明の実施形態について説明する。
(First embodiment)
Embodiments of the present invention will be described below.

<概要>
本実施形態では、複数のカメラ部を有する撮像装置を用いて全天球画像を撮像し、表示制御装置を用いて全天球画像の一部を表示する例について説明する。本実施形態における全天球画像とは、撮像装置の複数のカメラ部によって撮像された画像データ(撮像データ)を繋ぎ合せることによって得られる、360度の視野分を有する画像である。以下、本実施形態に係る撮像装置100および表示制御装置200の構成と処理内容について順に説明する。
<Overview>
In this embodiment, an example will be described in which an imaging device having a plurality of camera units is used to capture an omnidirectional image, and a display control device is used to display a portion of the omnidirectional image. The omnidirectional image in this embodiment is an image having a field of view of 360 degrees obtained by combining image data (captured data) captured by a plurality of camera units of an imaging device. The configurations and processing contents of the imaging device 100 and the display control device 200 according to this embodiment will be described in order below.

<撮像装置100の構成>
図1Aは、本実施形態に係る撮像装置100の一例を示す前面外観図(斜視図)である。図1Bは、撮像装置100の背面外観図(斜視図)である。撮像装置100は、演算装置(プロセッサ)、メモリ、記憶装置、入出力装置等を含む情報処理装置(コンピュータ)である。記憶装置に格納されたプログラムを撮像装置100が実行することで、撮像装置100の後述する機能が提供される。それらの機能の一部または全部は、ASICやFPGAなどの専用の論理回路により実装されてもよい。本実施形態では、2つのカメラ部を有する撮像装置を例に説明するが、カメラ部は3つ以上でもよい。
<Configuration of Imaging Device 100>
FIG. 1A is a front external view (perspective view) showing an example of an imaging device 100 according to this embodiment. FIG. 1B is a rear external view (perspective view) of the imaging device 100. FIG. The imaging device 100 is an information processing device (computer) including an arithmetic device (processor), a memory, a storage device, an input/output device, and the like. The imaging device 100 executes a program stored in the storage device, thereby providing functions of the imaging device 100, which will be described later. Some or all of those functions may be implemented by dedicated logic circuits such as ASICs and FPGAs. In this embodiment, an imaging apparatus having two camera units will be described as an example, but the number of camera units may be three or more.

また、本実施形態に係る撮像装置100は、2つのカメラ部a,bを有する全天球カメラ(全方位カメラ)とも捉えられる。カメラ部aは、撮像装置100の前側の上下左右180度以上の広範囲を撮影範囲とする広角カメラである。カメラ部bは、撮像装置100の後ろ側の上下左右180度以上の広範囲を撮影範囲とする広角カメラである。バリア102a,102bは、カメラ部a,bのための撮影レンズ103a,103bの保護窓である。なお、バリア102a,102bは、撮影レンズ103a,103b自体の外側の面であってもよい。 The imaging device 100 according to the present embodiment can also be regarded as an omnidirectional camera (omnidirectional camera) having two camera units a and b. The camera unit a is a wide-angle camera that covers a wide range of 180 degrees or more up, down, left, and right on the front side of the imaging device 100 . The camera unit b is a wide-angle camera with a wide range of 180 degrees or more on the back side of the image pickup device 100 for photographing. Barriers 102a and 102b are protective windows of taking lenses 103a and 103b for camera parts a and b. The barriers 102a and 102b may be the outer surfaces of the imaging lenses 103a and 103b themselves.

表示部28は、各種情報を表示する表示部である。シャッターボタン61は、撮影指示を行うための操作部である。モード切替スイッチ60は、各種モードを切り替えるための操作部である。接続I/F25は、スマートフォン、パーソナルコンピュータ、テレビ等の外部機器と接続するための接続ケーブルと撮像装置100とのコネクタである。操作部70は、ユーザからの各種操作を受け付ける各種スイッチ、ボタン、ダイヤル、タッチセンサ等の操作部材より成る操作部である。電源スイッチ72は、電源のON/OFFを切り替えるための押しボタンである。 The display unit 28 is a display unit that displays various information. The shutter button 61 is an operation unit for instructing shooting. The mode changeover switch 60 is an operation unit for switching between various modes. The connection I/F 25 is a connector between the imaging device 100 and a connection cable for connecting to external devices such as smartphones, personal computers, and televisions. The operation unit 70 is an operation unit including operation members such as various switches, buttons, dials, and touch sensors for receiving various operations from the user. The power switch 72 is a push button for switching ON/OFF of the power.

発光部21は、発光ダイオード(LED)等の発光部材であり、撮像装置100の各種状態を発光パターンや発光色によってユーザに通知する。固定部40は、例えば、三脚ネジ穴であり、三脚などの固定器具に固定して設置するための部材である。 The light-emitting unit 21 is a light-emitting member such as a light-emitting diode (LED), and notifies the user of various states of the imaging device 100 using light-emitting patterns and light-emitting colors. The fixing part 40 is, for example, a tripod screw hole, and is a member for fixing to a fixing device such as a tripod.

図1Cは、撮像装置100の一例を示す機能ブロック図である。 FIG. 1C is a functional block diagram showing an example of the imaging device 100. As shown in FIG.

バリア102a,102bは、撮像装置100の撮影レンズ103a,103bを含むカメラ部a,bの撮像系を覆うことにより、撮影レンズ103a,103b、シャッター101a,101b、撮像部22a,22bを含む撮像系の汚れや破損を防止する。撮影レンズ103a,103bは、ズームレンズ、フォーカスレンズを含むレンズ群であり、例えば、広角レンズである。シャッター101a,101bは、撮像部22a,22bへの被写体光の入射量を調整する絞り機能を備えるシャッターである。撮像部22a,22bは、光学像を電気信号に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器23a,23bは、撮像部22a,22bから出力されるアナログ信号をデジタル信号に変換する機能部である。 The barriers 102a and 102b cover the imaging systems of the camera units a and b including the imaging lenses 103a and 103b of the imaging apparatus 100, thereby allowing the imaging systems including the imaging lenses 103a and 103b, the shutters 101a and 101b, and the imaging units 22a and 22b. to prevent dirt and damage. The imaging lenses 103a and 103b are a lens group including a zoom lens and a focus lens, and are, for example, wide-angle lenses. The shutters 101a and 101b are shutters having a diaphragm function for adjusting the amount of subject light incident on the imaging units 22a and 22b. The image pickup units 22a and 22b are image pickup devices configured by CCDs, CMOS devices, or the like that convert optical images into electrical signals. The A/D converters 23a and 23b are functional units that convert analog signals output from the imaging units 22a and 22b into digital signals.

本実施形態では、撮像部22a,22bにより、VR(Virtual Reality)画像が撮像される。VR画像には、全天球カメラ(全方位カメラ)で撮像した全天球画像(全方位画像)や、表示装置に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像(パノラマ画像データ)などが含まれる。VR画像には、静止画だけでなく、動画やライブビュー(LV:Live View)画像(カメラからほぼリアルタイムで取得した画像)も含まれる。 In this embodiment, VR (Virtual Reality) images are captured by the imaging units 22a and 22b. VR images include omnidirectional images (omnidirectional images) captured by an omnidirectional camera, and panoramic images with an image range (effective image range) that is wider than the display range that can be displayed on the display device at once. (panorama image data), etc. VR images include not only still images but also moving images and live view (LV: Live View) images (images obtained from a camera in almost real time).

ここで、VR画像は、最大で上下方向(垂直角度、天頂からの角度、仰角、俯角、高度角)360度、左右方向(水平角度、方位角度)360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像は、上下360度未満、左右360度未満であっても、通常のカメラで撮影可能な画角よりも広い広範な画角(視野範囲)、あるいは、表示装置に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つ画像も含む。例えば、左右方向(水平角度、方位角度)360度、天頂(zenith)を中心とした垂直角度210度の視野分(画角分)の被写体を撮影可能な全天球カメラで撮影された画像はVR画像の一種である。 Here, the VR image is a video range (effective video range). In addition, even if the VR image is less than 360 degrees vertically and less than 360 degrees horizontally, it can be displayed at a wide angle of view (viewing range) that is wider than the angle of view that can be taken with a normal camera, or on a display device at once. Images with a video range (effective video range) wider than the display range are also included. For example, an image captured by an omnidirectional camera capable of capturing a subject with a field of view (angle of view) of 360 degrees in the horizontal direction (horizontal angle, azimuth angle) and a vertical angle of 210 degrees centered on the zenith is It is a kind of VR image.

また、例えば、左右方向(水平角度、方位角度)180度、水平方向を中心とした垂直角度180度の視野分(画角分)の被写体を撮影可能なカメラで撮影された画像はVR画像の一種である。すなわち、上下方向と左右方向にそれぞれ160度(±80度)以上の視野分の映像範囲を有しており、人間が一度に視認可能な範囲よりも広い映像範囲を有している画像はVR画像の一種である。このVR画像を後述するVR表示すると、左右回転方向に表示装置の姿勢を変化させることで、左右方向(水平回転方向)には継ぎ目のない全方位の映像を視聴することが可能である。上下方向(垂直回転方向)には、真上(天頂)から見て±105度の範囲では継ぎ目のない全方位の映像を視聴することが可能であるが、真上から105度を超える範囲は映像が存在しないブランク領域となる。VR画像は、「映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。 Also, for example, an image captured by a camera capable of capturing a subject with a field of view (angle of view) of 180 degrees in the horizontal direction (horizontal angle, azimuth angle) and 180 degrees in the vertical angle centered on the horizontal direction is a VR image. It is one kind. That is, an image that has a visual range of 160 degrees (±80 degrees) or more in the vertical direction and the horizontal direction and has a video range that is wider than the range that can be visually recognized by humans at once is a VR image. A type of image. When this VR image is displayed in VR, which will be described later, by changing the orientation of the display device in the left-right rotation direction, seamless omnidirectional video can be viewed in the left-right direction (horizontal rotation direction). In the vertical direction (vertical rotation direction), it is possible to view seamless omnidirectional images within a range of ±105 degrees when viewed from directly above (zenith). It becomes a blank area where no image exists. A VR image can also be said to be "an image whose video range is at least part of a virtual space (VR space)".

VR表示とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法である。表示装置として、例えば、ヘッドマウントディスプレイ(HMD:Head Mounted Display)を装着して視聴する場合には、ユーザの顔の向きに応じた視野範囲の映像を表示することになる。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野角(画角)の映像を表示することが可能である。この状態から、表示装置の姿勢を表裏反転(表示面を南向きから北向きに変更等)させると、同じVR画像のうち、左右方向に180度(逆の方位、例えば南)、上下方向に90度(水平)を中心とした視野角の映像に、表示範囲が変更される。 The VR display is a display method capable of changing the display range, which displays an image within the viewing range corresponding to the posture of the display device among the VR images. For example, when a head-mounted display (HMD) is worn as a display device for viewing, an image within a visual field corresponding to the orientation of the user's face is displayed. For example, in the VR image, at a certain point in time, the viewing angle (angle of view) is centered at 0 degrees in the horizontal direction (a specific direction, such as north) and 90 degrees in the vertical direction (90 degrees from the zenith, that is, horizontal). can be displayed. From this state, if the posture of the display device is reversed (changed from south to north, etc.), the same VR image will be 180 degrees in the left and right direction (reverse orientation, for example, south) and up and down. The display range is changed to an image with a viewing angle centered at 90 degrees (horizontal).

ユーザがHMDを視聴している場合で言えば、ユーザが顔を北から南に向ければ(すなわち後ろを向けば)、HMDに表示される映像も北の映像から南の映像に変わる。このよ
うなVR表示によって、ユーザに、視覚的にあたかもVR画像内(VR空間内)のその場にいるような感覚を提供することができる。また、VRゴーグル(ヘッドマウントアダプタ)にスマートフォン等の表示装置を装着することで、上述のVR表示を行ってもよい。この場合、装着されたスマートフォンは、HMDの一種と言える。なお、VR画像の表示方法は上記に限るものではなく、例えば、姿勢の変化ではなくタッチパネルや方向ボタンなどに対するユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。
Assuming that the user is viewing the HMD, if the user turns his/her face from north to south (that is, turns his/her back), the image displayed on the HMD also changes from the north image to the south image. With such VR display, it is possible to provide the user with the sensation of being visually present in the VR image (inside the VR space). Also, the above-described VR display may be performed by attaching a display device such as a smartphone to VR goggles (head mount adapter). In this case, the attached smart phone can be said to be a kind of HMD. Note that the display method of the VR image is not limited to the above, and for example, the display range may be moved (scrolled) according to the user's operation on the touch panel or direction buttons instead of the change in posture.

画像処理部24は、A/D変換器23a,23bからのデータ、または、メモリ制御部15からのデータに対し所定の画素補間、縮小といったリサイズ処理や色変換処理を行う機能部である。また、画像処理部24は、撮像した画像データを用いて所定の演算処理を行う。画像処理部24により得られた演算結果に基づいて、システム制御部50が露光制御、測距制御を行う。これにより、TTL(Through The Lens)方式のAF(Auto Focus)処理、AE(Auto Exposure、自動露出)処理、EF(Electronic Flash、フラッシュプリ発光)処理が行われる。さらに、画像処理部24は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてTTL方式のAWB(Auto White Balance)処理を行う。 The image processing unit 24 is a functional unit that performs resizing processing such as predetermined pixel interpolation and reduction, and color conversion processing on data from the A/D converters 23 a and 23 b or data from the memory control unit 15 . Further, the image processing unit 24 performs predetermined arithmetic processing using the captured image data. Based on the calculation result obtained by the image processing section 24, the system control section 50 performs exposure control and distance measurement control. As a result, TTL (Through The Lens) AF (Auto Focus) processing, AE (Auto Exposure) processing, and EF (Electronic Flash) processing are performed. Further, the image processing unit 24 performs predetermined arithmetic processing using the captured image data, and performs TTL AWB (Auto White Balance) processing based on the obtained arithmetic result.

また、画像処理部24は、A/D変換器23a,23bから得られた2つの画像(魚眼画像)に基本の画像処理を施した後、合成(繋ぎ画像処理)して単一のVR画像(合成画像)を生成する。図2Cは、カメラ部aのA/D変換器23aから得られた画像221(破線の矩形)とカメラ部bのA/D変換器23bから得られた画像222(破線の矩形)の画像処理結果を合成してVR画像223(実線の矩形)を生成する概念図を示す。2つの画像の繋ぎ画像処理では、画像処理部24は、2つの画像それぞれにおいて、パターンマッチング処理によりエリアごとに基準画像と比較画像のずれ量を算出し、繋ぎ位置を検出する。そして、画像処理部24は、検出した繋ぎ位置と各光学系レンズ特性を考慮して、2つの画像をそれぞれ幾何学変換により歪み補正処理し、全天球イメージ形式に変換する。画像処理部24は、この2つの全天球イメージ形式の画像をブレンドすることで、最終的に1つの全天球画像データ(VR画像)を生成する。生成された全天球画像データは、正距円筒図法を用いた画像となり、各画素の位置が球体の表面の座標と対応付けることが可能となる。 The image processing unit 24 performs basic image processing on the two images (fisheye images) obtained from the A/D converters 23a and 23b, and then synthesizes them (connecting image processing) to create a single VR image. Generate an image (composite image). FIG. 2C shows image processing of an image 221 (broken line rectangle) obtained from the A/D converter 23a of the camera section a and an image 222 (broken line rectangle) obtained from the A/D converter 23b of the camera section b. FIG. 10 shows a conceptual diagram of synthesizing the results to generate a VR image 223 (solid-line rectangle). In the stitching image processing of two images, the image processing unit 24 calculates the shift amount between the reference image and the comparison image for each area by pattern matching processing in each of the two images, and detects the stitching position. Then, the image processing unit 24 performs distortion correction processing on each of the two images by geometric transformation in consideration of the detected joint position and the characteristics of each optical system lens, and converts them into an omnidirectional image format. The image processing unit 24 blends the two omnidirectional image format images to finally generate one omnidirectional image data (VR image). The generated omnidirectional image data becomes an image using equirectangular projection, and the position of each pixel can be associated with the coordinates of the surface of the sphere.

A/D変換器23a,23bからの出力データは、画像処理部24およびメモリ制御部15を介して、あるいは、メモリ制御部15を介してメモリ32に書き込まれる。メモリ32は、撮像部22によって得られA/D変換器23によりデジタルデータに変換された画像データや、接続I/F25から外部のディスプレイに出力するための画像を格納する。メモリ32は、所定枚数の静止画像や所定時間の動画像および音声を格納するのに十分な記憶容量を備えている。 Output data from the A/D converters 23a and 23b are written to the memory 32 via the image processing section 24 and the memory control section 15, or via the memory control section 15. FIG. The memory 32 stores image data obtained by the imaging unit 22 and converted into digital data by the A/D converter 23 and images to be output from the connection I/F 25 to an external display. The memory 32 has a storage capacity sufficient to store a predetermined number of still images, moving images for a predetermined period of time, and audio.

また、メモリ32は、画像表示用のメモリ(ビデオメモリ)を兼ねている。メモリ32に格納されている画像表示用のデータは、接続I/F25から外部のディスプレイに出力することが可能である。撮像部22aおよび22bのうち少なくとも1つで撮像された画像を用いて、画像処理部24で生成され、メモリ32に蓄積されたVR画像は、外部ディスプレイに逐次転送され表示される。これにより、外部ディスプレイは、電子ビューファインダとして機能し、ライブビュー表示(LV表示)を行うことができる。以下、ライブビュー表示される画像をLV画像と称する。なお、メモリ32に蓄積されたVR画像は、通信部54を介して無線接続された外部機器(スマートフォンなど)に転送され、外部機器側で表示されることによりライブビュー表示(リモートLV表示)されてもよい。 The memory 32 also serves as an image display memory (video memory). Image display data stored in the memory 32 can be output from the connection I/F 25 to an external display. VR images generated by the image processing unit 24 using images captured by at least one of the imaging units 22a and 22b and stored in the memory 32 are sequentially transferred to and displayed on an external display. This allows the external display to function as an electronic viewfinder and perform live view display (LV display). An image displayed in live view is hereinafter referred to as an LV image. Note that the VR images accumulated in the memory 32 are transferred to an external device (smartphone, etc.) wirelessly connected via the communication unit 54, and displayed on the external device side for live view display (remote LV display). may

不揮発性メモリ56は、電気的に消去・記録可能な記録媒体としてのメモリであり、例
えばEEPROM(Electrically Erasable Programmable Read-Only Memory)等が用いられる。不揮発性メモリ56には、システム制御部50の動作用の定数、プログラム等が記憶される。ここでいう、プログラムとは、本実施形態にて後述する各種フローチャートを実行するためのコンピュータプログラムのことである。
The nonvolatile memory 56 is a memory as an electrically erasable/recordable recording medium, and for example, EEPROM (Electrically Erasable Programmable Read-Only Memory) or the like is used. The nonvolatile memory 56 stores constants, programs, etc. for the operation of the system control unit 50 . The program here is a computer program for executing various flowcharts described later in this embodiment.

システム制御部50は、少なくとも1つのプロセッサまたは回路を有する制御部であり、撮像装置100全体を制御する機能部である。システム制御部50は、前述した不揮発性メモリ56に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。システムメモリ52には、例えばRAMが用いられる。システムメモリ52には、システム制御部50の動作用の定数、変数、不揮発性メモリ56から読み出したプログラム等が展開される。また、システム制御部50は、メモリ32、画像処理部24、メモリ制御部15を制御することにより表示制御も行う。システムタイマ53は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The system control unit 50 is a control unit having at least one processor or circuit, and is a functional unit that controls the imaging device 100 as a whole. The system control unit 50 executes the program recorded in the non-volatile memory 56 described above, thereby realizing each process of this embodiment described later. A RAM, for example, is used for the system memory 52 . In the system memory 52, constants and variables for operation of the system control unit 50, programs read from the nonvolatile memory 56, and the like are expanded. The system control unit 50 also performs display control by controlling the memory 32 , the image processing unit 24 and the memory control unit 15 . The system timer 53 is a timer that measures the time used for various controls and the time of the built-in clock.

モード切替スイッチ60、シャッターボタン61、操作部70は、システム制御部50に各種の動作指示を入力するための操作部である。モード切替スイッチ60は、システム制御部50の動作モードを静止画記録モード、動画撮影モード、再生モード、通信接続モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)、プログラムAEモードがある。また、撮影シーン別の撮影設定となる各種シーンモード、カスタムモード等がある。ユーザは、モード切替スイッチ60を用いて、上記モードのいずれかに直接切り替える。あるいは、ユーザが、モード切替スイッチ60で撮影モードの一覧画面に一旦切り換えた後に、表示部28に表示された複数のモードのいずれかを選択し、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。 A mode switch 60 , a shutter button 61 , and an operation unit 70 are operation units for inputting various operation instructions to the system control unit 50 . The mode changeover switch 60 switches the operation mode of the system control unit 50 between a still image recording mode, a moving image shooting mode, a reproduction mode, a communication connection mode, and the like. Modes included in the still image recording mode include an auto shooting mode, an auto scene determination mode, a manual mode, an aperture priority mode (Av mode), a shutter speed priority mode (Tv mode), and a program AE mode. In addition, there are various scene modes, custom modes, and the like, which are shooting settings for each shooting scene. The user switches directly to one of the above modes using the mode selector switch 60 . Alternatively, the user may select one of the plurality of modes displayed on the display unit 28 after temporarily switching to the shooting mode list screen with the mode switching switch 60, and switch using another operation member. good. Similarly, the movie shooting mode may also include multiple modes.

電源スイッチ72は、電源ON/OFFを切り替えるための押しボタンである。発光部21は発光ダイオード(LED)などの発光部材であり、撮像装置100の各種状態を発光パターンや発光色によってユーザに通知する機能部である。記録媒体150は、メモリカードやハードディスク等の記録媒体である。 The power switch 72 is a push button for switching power ON/OFF. The light-emitting unit 21 is a light-emitting member such as a light-emitting diode (LED), and is a functional unit that notifies the user of various states of the imaging device 100 using light-emitting patterns and light-emitting colors. A recording medium 150 is a recording medium such as a memory card or a hard disk.

第1シャッタースイッチ62は、撮像装置100に設けられたシャッターボタン61の操作途中、いわゆる半押し(撮影準備指示)でONとなり第1シャッタースイッチ信号SW1を発生する。第1シャッタースイッチ信号SW1により、システム制御部50は、上述の、AF処理、AE処理、AWB処理、EF処理等の撮影準備動作を開始する。 The first shutter switch 62 is turned on when the shutter button 61 provided in the imaging device 100 is pressed halfway (imaging preparation instruction), and generates a first shutter switch signal SW1. In response to the first shutter switch signal SW1, the system control unit 50 starts photographing preparation operations such as AF processing, AE processing, AWB processing, and EF processing described above.

第2シャッタースイッチ64は、シャッターボタン61の操作完了、いわゆる全押し(撮影指示)でONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御部50は、第2シャッタースイッチ信号SW2により、撮像部22からの信号読み出しから記録媒体150に画像データを書き込むまでの一連の撮影処理の動作を開始する。 The second shutter switch 64 is turned ON when the operation of the shutter button 61 is completed, that is, when the shutter button 61 is fully pressed (imaging instruction), and generates a second shutter switch signal SW2. The system control unit 50 starts a series of photographing processing operations from signal reading from the imaging unit 22 to writing of image data in the recording medium 150 in response to the second shutter switch signal SW2.

なお、シャッターボタン61は全押しと半押しの2段階の操作が可能なものに限るものではなく、1段階の押下だけが可能な操作部材であってもよい。その場合、1段階の押下に応じて撮影準備動作と撮影処理が連続して行われる。これは、半押しと全押しが可能なシャッターボタンをいわゆる全押しした場合と同じ動作(SW1とSW2がほぼ同時に発生した場合の動作)である。 It should be noted that the shutter button 61 is not limited to one that can be operated in two stages of full-press and half-press, and may be an operation member that can be pressed only in one stage. In that case, the photographing preparation operation and the photographing process are continuously performed in response to one step of pressing. This is the same operation as when the shutter button, which can be half-pressed and fully-pressed, is fully pressed (operation when SW1 and SW2 occur almost simultaneously).

操作部70の各操作部材は、表示部28に表示される種々の機能アイコンや選択肢を選択操作することなどにより、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして
作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部28に表示される。利用者は、表示部28に表示されたメニュー画面を見ながら操作部70を操作することで、直感的に各種設定を行うことができる。
Each operation member of the operation unit 70 is appropriately assigned a function for each scene by selecting and operating various function icons and options displayed on the display unit 28, and acts as various function buttons. The function buttons include, for example, an end button, a return button, an image forward button, a jump button, a refinement button, an attribute change button, and the like. For example, when the menu button is pressed, a menu screen on which various settings can be made is displayed on the display unit 28 . The user can intuitively perform various settings by operating the operation unit 70 while viewing the menu screen displayed on the display unit 28 .

電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無、電池の種類、電池残量の検出を行う。また、電源制御部80は、その検出結果およびシステム制御部50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体150を含む各部へ供給する。電源部30は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプタ等から構成される電源である。 The power control unit 80 is composed of a battery detection circuit, a DC-DC converter, a switch circuit for switching blocks to be energized, and the like, and detects whether or not a battery is installed, the type of battery, and the remaining amount of the battery. Also, the power control unit 80 controls the DC-DC converter based on the detection result and the instruction from the system control unit 50, and supplies necessary voltage to each unit including the recording medium 150 for a necessary period. The power source unit 30 is a power source including a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like.

記録媒体I/F18は、メモリーカードやハードディスク等の記録媒体150とのインターフェースである。記録媒体150は、撮影された画像を記録するためのメモリーカード等の記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。記録媒体150は、撮像装置100に着脱可能な交換記録媒体でもよいし、内蔵の記録媒体であってもよい。 A recording medium I/F 18 is an interface with a recording medium 150 such as a memory card or hard disk. A recording medium 150 is a recording medium such as a memory card for recording captured images, and is composed of a semiconductor memory, an optical disk, a magnetic disk, or the like. The recording medium 150 may be an exchangeable recording medium detachable from the imaging device 100, or may be a built-in recording medium.

通信部54は、無線または有線ケーブルによって接続し、映像信号や音声信号等の送受信を行う。通信部54は、無線LAN(Local Area Network)やインターネットとも接続可能である。また、通信部54は、Bluetooth(登録商標)やBluetooth Low Energy(登録商標)でも外部機器と通信可能である。通信部54は、撮像部22a,22bで撮像した画像(LV画像を含む)や、記録媒体150に記録された画像を送信可能であり、また、外部機器から画像やその他の各種情報を受信してもよい。 The communication unit 54 is connected wirelessly or by a wired cable, and transmits and receives video signals, audio signals, and the like. The communication unit 54 can be connected to a wireless LAN (Local Area Network) or the Internet. The communication unit 54 can also communicate with an external device via Bluetooth (registered trademark) or Bluetooth Low Energy (registered trademark). The communication unit 54 can transmit images (including LV images) captured by the imaging units 22a and 22b and images recorded in the recording medium 150, and receives images and other various information from external devices. may

姿勢検知部55は、重力方向に対する撮像装置100の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、システム制御部50は、撮像部22で撮影された画像が、撮像装置100を横に構えて撮影された画像であるか、縦に構えて撮影された画像であるかを判別可能である。また、システム制御部50は、ヨー、ピッチ、ロールの3軸方向にどの程度傾けた姿勢で撮影された画像であるか判別可能である。システム制御部50は、姿勢検知部55で検知された姿勢に応じた向き情報を撮像部22a,22bで撮像されたVR画像の画像ファイルに付加したり、画像を回転(傾き補正するように画像の向きを調整)して記録したりすることが可能である。姿勢検知部55として、加速度センサ、ジャイロセンサ、地磁気センサ、方位(角)センサ、高度センサなどを単独で、または2つ以上組み合わせて用いてもよい。姿勢検知部55は、上記センサを用いて、撮像装置100の動き(パン、チルト、持ち上げ、静止しているか否か等)を検知することも可能である。 The orientation detection unit 55 detects the orientation of the imaging device 100 with respect to the direction of gravity. Based on the posture detected by the posture detection unit 55, the system control unit 50 determines whether the image captured by the image capturing unit 22 is an image captured with the image capturing device 100 held horizontally or captured with the image capturing device 100 held vertically. It is possible to determine whether it is an image that has been processed. Also, the system control unit 50 can determine how much the image is tilted in the directions of the three axes of yaw, pitch, and roll. The system control unit 50 adds orientation information corresponding to the posture detected by the posture detection unit 55 to the image file of the VR image captured by the imaging units 22a and 22b, rotates the image (corrects the tilt of the image, and so on). It is possible to adjust the orientation of the image and record it. As the posture detection unit 55, an acceleration sensor, a gyro sensor, a geomagnetic sensor, an azimuth (angle) sensor, an altitude sensor, or the like may be used singly or in combination of two or more. The orientation detection unit 55 can also detect the movement of the imaging device 100 (pan, tilt, lift, whether it is stationary, etc.) using the above sensor.

マイク20は、VR画像の動画の音声として記録される撮像装置100の周囲の音声を集音するマイクロフォンである。接続I/F25は、外部機器と接続して映像の送受信を行うための、HDMI(登録商標)ケーブルやUSBケーブルなどとの接続プラグである。 The microphone 20 is a microphone that collects sounds around the imaging device 100 that are recorded as sounds of moving images of VR images. The connection I/F 25 is a connection plug with an HDMI (registered trademark) cable, a USB cable, or the like, for connecting to an external device and transmitting/receiving video.

<表示制御装置200の構成>
図2Aは、電子機器の一種である表示制御装置200の一例を示す外観図である。表示制御装置200は、演算装置(プロセッサ)、メモリ、記憶装置、入出力装置等を含む情報処理装置(コンピュータ)である。記憶装置に格納されたプログラムを表示制御装置200が実行することで、表示制御装置200の後述する機能が提供される。これらの機能
の一部または全部は、ASICやFPGAなどの専用の論理回路により実装されてもよい。
<Configuration of Display Control Device 200>
FIG. 2A is an external view showing an example of a display control device 200, which is a type of electronic device. The display control device 200 is an information processing device (computer) including an arithmetic device (processor), a memory, a storage device, an input/output device, and the like. The functions of the display control device 200, which will be described later, are provided by the display control device 200 executing the programs stored in the storage device. Some or all of these functions may be implemented by dedicated logic circuits such as ASICs and FPGAs.

ディスプレイ205は、画像や各種情報を表示する表示部である。本実施形態では、ディスプレイ205は、後述するようにタッチパネル206aと一体的に構成されており、ディスプレイ205の表示面へのタッチ操作を検出する。また、表示制御装置200は、VR画像(VRコンテンツ)をディスプレイ205にVR表示することが可能である。操作部206(操作受付手段)には、タッチパネル206a、操作部206b,206c,206d,206eが含まれる。操作部206bは、表示制御装置200の電源のON/OFFを切り替える操作を受け付ける電源ボタンである。操作部206c,206dは、音声出力部(例えば、後述するスピーカー212b)から出力される音声のボリュームを増減するボタンである。操作部206eは、ディスプレイ205にホーム画面を表示させるためのボタンである。音声出力端子212aは、イヤホンジャックであり、イヤホンや外部スピーカーなどに音声を出力する。スピーカー212bは、音声を発音する本体内蔵スピーカーである。 A display 205 is a display unit that displays images and various types of information. In this embodiment, the display 205 is configured integrally with a touch panel 206a as described later, and detects a touch operation on the display surface of the display 205. FIG. Also, the display control device 200 can perform VR display of a VR image (VR content) on the display 205 . The operation unit 206 (operation receiving unit) includes a touch panel 206a and operation units 206b, 206c, 206d, and 206e. The operation unit 206 b is a power button that receives an operation for switching ON/OFF of the power of the display control device 200 . The operation units 206c and 206d are buttons for increasing or decreasing the volume of audio output from an audio output unit (for example, a speaker 212b to be described later). The operation unit 206e is a button for displaying the home screen on the display 205. FIG. The audio output terminal 212a is an earphone jack, and outputs audio to an earphone, an external speaker, or the like. The speaker 212b is a built-in speaker that produces sound.

図2Bは、表示制御装置200の一例を示す機能ブロック図である。表示制御装置200は、スマートフォンなどの表示装置を用いて構成可能である。 FIG. 2B is a functional block diagram showing an example of the display control device 200. As shown in FIG. The display control device 200 can be configured using a display device such as a smartphone.

図2Bにおいて、内部バス250に対してCPU201、メモリ202、不揮発性メモリ203、画像処理部204、ディスプレイ205、操作部206、記憶媒体I/F207、外部I/F209、および通信I/F210が接続されている。また、内部バス250に対して音声出力部212、姿勢検出部213およびシステムタイマ214も接続されている。内部バス250に接続される各部は、内部バス250を介して互いにデータのやりとりを行う。 2B, CPU 201, memory 202, nonvolatile memory 203, image processing unit 204, display 205, operation unit 206, storage medium I/F 207, external I/F 209, and communication I/F 210 are connected to internal bus 250. It is Also connected to the internal bus 250 are an audio output unit 212 , an attitude detection unit 213 and a system timer 214 . Each unit connected to the internal bus 250 exchanges data with each other via the internal bus 250 .

CPU201は、表示制御装置200の全体を制御する制御部であり、少なくとも1つのプロセッサまたは回路を用いて構成される。メモリ202は、例えばRAM(半導体素子を利用した揮発性のメモリなど)である。CPU201は、例えば不揮発性メモリ203に格納されるプログラムに従い、メモリ202をワークメモリとして用いて、表示制御装置200の各部を制御する。不揮発性メモリ203には、画像データや音声データ、その他のデータ、CPU201が動作するための各種プログラムなどが格納される。不揮発性メモリ203は、例えばフラッシュメモリやROM等である。 The CPU 201 is a control unit that controls the entire display control device 200, and is configured using at least one processor or circuit. The memory 202 is, for example, a RAM (such as a volatile memory using a semiconductor element). The CPU 201 uses the memory 202 as a work memory to control each part of the display control device 200 according to a program stored in the nonvolatile memory 203, for example. The nonvolatile memory 203 stores image data, audio data, other data, various programs for the CPU 201 to operate, and the like. The nonvolatile memory 203 is, for example, flash memory or ROM.

画像処理部204は、CPU201の制御に基づいて、不揮発性メモリ203や記憶媒体208に格納された画像や、外部I/F209を介して取得した映像信号、通信I/F210を介して取得した画像などに対して各種画像処理を施す機能部である。画像は、静止画でも動画でもよい。画像処理部204が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大処理/縮小処理(リサイズ)、ノイズ低減処理、色変換処理等が含まれる。また、全方位画像または全方位ではない画像について、広範囲のデータを有する広範囲画像であるVR画像のパノラマ展開やマッピング処理、変換などの各種画像処理も行う。画像処理部204は、特定の画像処理を施すための専用の回路ブロックで構成されていてもよい。また、画像処理の種別によっては画像処理部204を用いずにCPU201がプログラムに従って画像処理を施すことも可能である。 Under the control of the CPU 201, the image processing unit 204 processes images stored in the nonvolatile memory 203 and the storage medium 208, video signals obtained via the external I/F 209, and images obtained via the communication I/F 210. It is a functional unit that performs various image processing on such as. The image may be a still image or a moving image. The image processing performed by the image processing unit 204 includes A/D conversion processing, D/A conversion processing, image data encoding processing, compression processing, decoding processing, enlargement processing/reduction processing (resize), noise reduction processing, and color processing. Conversion processing etc. are included. Various image processing such as panorama expansion, mapping processing, and conversion of a VR image, which is a wide-range image having wide-range data, is also performed on an omnidirectional image or an image that is not omnidirectional. The image processing unit 204 may be composed of a dedicated circuit block for performing specific image processing. Further, depending on the type of image processing, the CPU 201 can perform image processing according to a program without using the image processing unit 204 .

なお、ここでは、撮像装置100の画像処理部24が2つの画像(魚眼画像)を合成(繋ぎ画像処理)して単一のVR画像(合成画像)を生成する場合について説明したが、表示制御装置200が単一のVR画像(合成画像)を生成するようにしてもよい。この場合、撮像装置100から表示制御装置200へ2つの画像(魚眼画像)が合成されずに送信
される。そして、表示制御装置200は、撮像装置100から受信した2つの画像(魚眼画像)を合成(繋ぎ画像処理)して単一のVR画像(合成画像)を生成する。そして、録画開始指示から録画終了指示までの間、生成されたVR画像が記録媒体208に記録される。
Here, the case where the image processing unit 24 of the imaging device 100 synthesizes (splice image processing) two images (fisheye images) to generate a single VR image (composite image) has been described. The control device 200 may generate a single VR image (composite image). In this case, two images (fisheye images) are transmitted from the imaging device 100 to the display control device 200 without being synthesized. Then, the display control device 200 combines (splice image processing) the two images (fisheye images) received from the imaging device 100 to generate a single VR image (composite image). The generated VR image is recorded on the recording medium 208 from the recording start instruction to the recording end instruction.

ディスプレイ205は、CPU201の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面などを表示する。CPU201は、プログラムに従い表示制御信号を生成し、ディスプレイ205に表示するための映像信号を生成してディスプレイ205に出力するように表示制御装置200の各部を制御する。ディスプレイ205は、出力された映像信号に基づいて映像を表示する。なお、表示制御装置200自体が備える構成としてはディスプレイ205に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ205は外付けのモニタ(テレビなど)でもよい。 The display 205 displays images, GUI screens that form a GUI (Graphical User Interface), and the like, under the control of the CPU 201 . The CPU 201 controls each part of the display control device 200 to generate a display control signal according to a program, generate a video signal to be displayed on the display 205 , and output the video signal to the display 205 . A display 205 displays an image based on the output image signal. The display control device 200 itself includes an interface for outputting a video signal to be displayed on the display 205, and the display 205 may be an external monitor (such as a television).

操作部206(受付部)は、ユーザ操作を受け付けるための入力デバイスである。操作部206は、例えば、キーボードなどの文字情報入力デバイスや、マウスやタッチパネルといったポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッド等である。なお、タッチパネルは、ディスプレイ205に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。なお、操作部206は、入力デバイスではなく、リモートコントローラなどのような外部の入力デバイスからの信号を受信するための受信デバイスであってもよい。 An operation unit 206 (accepting unit) is an input device for accepting user operations. The operation unit 206 includes, for example, a character information input device such as a keyboard, a pointing device such as a mouse and a touch panel, buttons, dials, joysticks, touch sensors, and touch pads. It should be noted that the touch panel is an input device that is superimposed on the display 205 and configured in a two-dimensional manner so as to output coordinate information according to the touched position. Note that the operation unit 206 may be a receiving device for receiving signals from an external input device such as a remote controller instead of an input device.

記憶媒体I/F207は、メモリーカードやCD、DVDといった記憶媒体208が装着可能とされ、CPU201の制御に基づき、装着された記憶媒体208からのデータの読み出しや、当該記憶媒体208に対するデータの書き込みを行う。外部I/F209は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F210は、外部機器やインターネット(NET)211などと通信して、ファイルやコマンドなどの各種データの送受信を行うためのインターフェースである。 A storage medium I/F 207 can be loaded with a storage medium 208 such as a memory card, a CD, or a DVD. I do. The external I/F 209 is an interface for connecting with an external device by a wired cable or wirelessly and inputting/outputting a video signal and an audio signal. The communication I/F 210 is an interface for communicating with an external device, the Internet (NET) 211, etc., and transmitting and receiving various data such as files and commands.

音声出力部212は、動画や音楽データの音声や、操作音、着信音、各種通知音などを出力する機能部である。音声出力部212には、イヤホンなどを接続する音声出力端子212a、スピーカー212bが含まれるものとするが、無線通信などで音声出力を行ってもよい。 The audio output unit 212 is a functional unit that outputs audio of video and music data, operation sounds, ringtones, various notification sounds, and the like. The audio output unit 212 includes an audio output terminal 212a for connecting an earphone or the like and a speaker 212b, but audio output may be performed by wireless communication or the like.

姿勢検出部213は、重力方向に対する表示制御装置200の姿勢や、ヨー、ロール、ピッチの各軸に対する姿勢の傾きを検知する機能部である。姿勢検出部213で検知された姿勢に基づいて、表示制御装置200が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、斜めの姿勢になったかなどを判別可能である。姿勢検出部213としては、加速度センサ、ジャイロセンサ、地磁気センサ、方位センサ、高度センサなどのうち少なくとも1つを用いることができ、複数を組み合わせて用いることも可能である。システムタイマ214は、各種制御に用いる時間や、内蔵された時計の時間を計測する計時部である。 The posture detection unit 213 is a functional unit that detects the posture of the display control device 200 with respect to the direction of gravity and the tilt of the posture with respect to each of the yaw, roll, and pitch axes. Based on the orientation detected by the orientation detection unit 213, whether the display control device 200 is held horizontally, held vertically, directed upward, downward, or oblique. etc. can be determined. At least one of an acceleration sensor, a gyro sensor, a geomagnetic sensor, a direction sensor, an altitude sensor, and the like can be used as the posture detection unit 213, and a plurality of sensors can be used in combination. A system timer 214 is a timer that measures the time used for various controls and the time of a built-in clock.

本実施形態では、操作部206にはタッチパネル206aが含まれる。CPU201はタッチパネル206aへの以下の操作または状態を検出する。
・タッチパネル206aにタッチしていなかった指やペンが新たにタッチパネル206aにタッチしたこと、すなわち、タッチの開始(以下、タッチダウン(Touch-Down)と称する。)
・指やペンがタッチパネル206aをタッチしている状態であること(以下、タッチオ
ン(Touch-On)と称する。)
・指やペンがタッチパネル206aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する。)
・タッチパネル206aへタッチしていた指やペンがタッチパネル206aから離れたこと、すなわち、タッチの終了(以下、タッチアップ(Touch-Up)と称する。)
・タッチパネル206aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する。)
In this embodiment, the operation unit 206 includes a touch panel 206a. The CPU 201 detects the following operations or states on the touch panel 206a.
- The touch panel 206a is newly touched by a finger or pen that has not touched the touch panel 206a, that is, the start of touch (hereinafter referred to as Touch-Down).
A state in which a finger or pen is touching the touch panel 206a (hereinafter referred to as Touch-On).
- The finger or pen is moving while touching the touch panel 206a (hereinafter referred to as Touch-Move).
- The finger or pen touching the touch panel 206a is separated from the touch panel 206a, that is, the end of the touch (hereinafter referred to as Touch-Up).
A state in which nothing is touched on the touch panel 206a (hereinafter referred to as Touch-Off).

タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていたすべての指やペンがタッチアップしたことが検出されると、タッチオフが検出される。 When touchdown is detected, touchon is also detected at the same time. After touchdown, touchon continues to be detected unless touchup is detected. Touch-on is detected at the same time when touch-move is detected. Even if touch-on is detected, touch-move is not detected if the touch position does not move. Touch-off is detected when it is detected that all the fingers or pens that were in touch have touched up.

これらの操作・状態や、タッチパネル206a上に指やペンがタッチしている位置座標は内部バスを通じてCPU201に通知される。そして、CPU201は、通知された情報に基づいてタッチパネル206a上にどのような操作(タッチ操作)が行われたかを判断する。タッチムーブについては、タッチパネル206a上で移動する指やペンの移動方向についても、位置座標の変化に基づいて、タッチパネル206a上の垂直成分・水平成分ごとに判断される。所定距離以上をタッチムーブしたことが検出された場合、CPU201は、スライド操作が行われたと判断する。タッチパネル206a上に指をタッチしたまま、ある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル206a上を指ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判断する(スライド操作に続いてフリックがあったものと判断する)。さらに、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン(Pinch-In)、互いのタッチ位置を遠ざけるタッチ操作をピンチアウト(Pinch-Out)と称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル206aは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する指やペンの接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。 The CPU 201 is notified of these operations/states and the coordinates of the position where the finger or pen touches the touch panel 206a through the internal bus. Then, the CPU 201 determines what kind of operation (touch operation) has been performed on the touch panel 206a based on the notified information. As for the touch move, the moving direction of the finger or pen moving on the touch panel 206a is also determined for each vertical component/horizontal component on the touch panel 206a based on the change in the position coordinates. When it is detected that the touch-move has been performed for a predetermined distance or more, the CPU 201 determines that a slide operation has been performed. An operation of touching the touch panel 206a with a finger and quickly moving it by a certain distance and then releasing it is called a flick. A flick is, in other words, an operation of quickly tracing the touch panel 206a as if flicking it with a finger. It is determined that a touch-move has been performed over a predetermined distance at a predetermined speed or more, and if a touch-up is detected as it is, it is determined that a flick has been performed (determined that a flick has occurred following a slide operation). Furthermore, a touch operation of simultaneously touching a plurality of points (for example, two points) to bring the touch positions closer together is called pinch-in, and a touch operation of moving the touch positions away from each other is called pinch-out. Pinch-out and pinch-in are collectively called pinch operation (or simply pinch). The touch panel 206a may be any one of various types of touch panels such as a resistive film type, an electrostatic capacitance type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, an optical sensor type, and the like. good. There is a method of detecting that there is a touch when there is contact with the touch panel, and a method of detecting that there is a touch when there is an approach of a finger or pen to the touch panel.

<撮像装置100の処理内容>
図3A~図3Cは、撮像装置100で行われる各種処理の一例を示すフローチャートである。各種処理には、撮像装置100自体の操作による撮影処理(撮像処理)や、表示制御装置200から受け付けた命令による機器制御処理等が含まれる。上記の処理は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52に展開してシステム制御部50が実行することで実現される。また、図3Aに記載の制御はシステム制御部50により実行される。撮像装置100の電源がONされ、通信部54または接続I/F25が有効になると図3Aに示す処理が開始される。
<Contents of Processing of Imaging Apparatus 100>
3A to 3C are flowcharts showing an example of various processes performed by the imaging device 100. FIG. The various types of processing include shooting processing (imaging processing) by operating the imaging device 100 itself, device control processing by commands received from the display control device 200, and the like. The above processing is realized by loading the program recorded in the nonvolatile memory 56 into the system memory 52 and executing it by the system control unit 50 . Also, the control described in FIG. 3A is executed by the system control unit 50 . When the imaging device 100 is powered on and the communication unit 54 or the connection I/F 25 is enabled, the processing shown in FIG. 3A is started.

まず、システム制御部50は、カメラ部a,bにて撮像した画像を画像処理部24にて処理し、その画像のメモリ32への出力を開始する(S301)。そして、システム制御部50は、撮像装置100が通信部54を介し表示制御装置200との通信中の状態か否かの判断を行う(S302)。通信中でない場合(S302-NO)は、システム制御部50は、ステップS312の処理を実行する。 First, the system control unit 50 processes images captured by the camera units a and b in the image processing unit 24, and starts outputting the images to the memory 32 (S301). Then, the system control unit 50 determines whether or not the imaging device 100 is communicating with the display control device 200 via the communication unit 54 (S302). If communication is not in progress (S302-NO), the system control unit 50 executes the process of step S312.

通信中の状態の場合(S302-YES)は、システム制御部50は、メモリ32に蓄積されたリアルタイムのVR画像をライブ映像として通信部54から送信を開始する(S303)。次に、システム制御部50は、撮像装置ステータス(状態)を表示制御装置200に送信する(S304)。ここで、撮像装置ステータスには、カメラ部のON/OFF、撮影のON/OFF、録画のON/OFF、表示制御装置200への画像送信(映像送信)のON/OFF等が含まれる。また、撮像装置ステータスには、撮像部22への給
電の有無、A/D変換器23への給電の有無、画像処理のON/OFF等の情報が含まれる。カメラ部のONとは、少なくとも撮像部22への給電が有り、かつ撮影がONである状態であり、画像送信はONでもOFFでもよい。カメラ部のOFFとは、少なくとも撮影がOFF(画像送信もOFF)の状態であり、撮像部22への給電は有りでもなしでもよい。次に、システム制御部50は、表示制御装置200にライブ映像表示中か否かの判断を行う(S305)。表示中ではない場合(S305-NO)は、システム制御部50は、ステップS308の処理を実行する。なお、システム制御部50は、表示制御装置200から無線通信等を用いて情報を取得することで、上記ライブ映像を表示中か否かを判断してもよい。また、システム制御部50は、表示制御装置200へライブ映像を送信中か否かに応じて、ステップ305における判断を行ってもよい。
If the communication is in progress (S302-YES), the system control unit 50 starts transmitting the real-time VR image stored in the memory 32 as a live image from the communication unit 54 (S303). Next, the system control unit 50 transmits the imaging device status (state) to the display control device 200 (S304). Here, the imaging device status includes ON/OFF of the camera section, ON/OFF of shooting, ON/OFF of recording, ON/OFF of image transmission (video transmission) to the display control device 200, and the like. The imaging device status includes information such as whether power is supplied to the imaging unit 22, whether power is supplied to the A/D converter 23, ON/OFF of image processing, and the like. The ON state of the camera section means that at least the imaging section 22 is supplied with power and the photographing is ON, and the image transmission may be ON or OFF. The OFF state of the camera section means that at least photographing is OFF (image transmission is also OFF), and power supply to the imaging section 22 may or may not be provided. Next, the system control unit 50 determines whether or not live video is being displayed on the display control device 200 (S305). If it is not being displayed (S305-NO), the system control unit 50 executes the process of step S308. Note that the system control unit 50 may determine whether or not the live video is being displayed by acquiring information from the display control device 200 using wireless communication or the like. Further, the system control unit 50 may make the determination in step 305 according to whether live video is being transmitted to the display control device 200 or not.

ライブ映像を表示中の場合(S305-YES)は、システム制御部50は、表示制御装置200から命令を受信しているか否かの判断を行い(S306)、命令を受信していない場合(S306-NO)は、ステップS304の処理を実行する。命令を受信している場合(S306-YES)は、システム制御部50は、表示制御装置200の命令に応じた処理を実行する(S307)。ステップS307の処理の詳細は後述する。 If live video is being displayed (S305-YES), the system control unit 50 determines whether or not a command has been received from the display control device 200 (S306), and if no command has been received (S306 -NO) executes the process of step S304. If the command has been received (S306-YES), the system control unit 50 executes processing according to the command from the display control device 200 (S307). The details of the processing in step S307 will be described later.

次に、ステップS308では、システム制御部50は、「ライブ映像を外部に送信中かつ表示制御装置200と通信中でない」か否かを判断する。「ライブ映像を外部に送信中かつ表示制御装置200と通信中でない」場合(S308-YES)は、システム制御部50は、ライブ映像の送信を停止する(S309)。 Next, in step S308, the system control unit 50 determines whether or not "the live video is being transmitted to the outside and the communication with the display control device 200 is not being performed". If "live video is being sent to the outside and communication with the display control device 200 is not in progress" (S308-YES), the system control unit 50 stops sending the live video (S309).

次に、ステップS310では、システム制御部50は、撮像装置100の操作に基づいて撮影指示がなされたか否かを判断する。撮像装置100の操作は、例えば、シャッターボタン61の押下による操作である。撮影指示を受信した場合(S310-YES)は、システム制御部50は、図3Bに示す撮影処理(S311)を実行する。ステップS311の撮影処理の詳細については後述する。 Next, in step S<b>310 , the system control unit 50 determines whether or not a shooting instruction has been issued based on the operation of the imaging device 100 . The operation of the imaging device 100 is, for example, an operation by pressing the shutter button 61 . If a shooting instruction has been received (S310-YES), the system control unit 50 executes the shooting process (S311) shown in FIG. 3B. The details of the photographing process in step S311 will be described later.

次に、ステップS312では、システム制御部50は、カメラ停止操作が行われたか否かを判断する。停止操作が行われた場合(S312-YES)は、システム制御部50は、録画中であれば(S313-YES)録画を停止し(S314)、その後、各カメラ部をOFFにする(S315)。 Next, in step S312, the system control unit 50 determines whether or not a camera stop operation has been performed. If a stop operation has been performed (S312-YES), the system control unit 50 stops recording if recording is in progress (S313-YES) (S314), and then turns off each camera unit (S315). .

≪命令に応じた処理(S307)≫
図3Bは、ステップS307における処理の詳細を示すフローチャートである。本実施形態では、撮影処理、カメラ部のON/OFFの切替処理、表示制御装置200への画像送信のON/OFFの切替処理に関する命令を撮像装置100が受信する例について説明する。なお、撮像装置100が受信する命令は上記に限定されず、例えば、カメラ部の向きを変更する命令や上述の撮像装置ステータスの状態を変更する命令であってもよい。
<<Process according to the command (S307)>>
FIG. 3B is a flowchart showing details of the processing in step S307. In the present embodiment, an example will be described in which the imaging device 100 receives commands related to image capturing processing, ON/OFF switching processing of the camera unit, and ON/OFF switching processing of image transmission to the display control device 200 . Note that the command received by the imaging device 100 is not limited to the above, and may be, for example, a command to change the orientation of the camera unit or a command to change the state of the imaging device status described above.

ここで、撮影処理に関する命令は、後述する表示制御装置200の撮影指示処理(S408)において行われる命令(撮影指示)である。また、カメラ部のONおよび画像送信のONに関する命令は、後述する表示制御装置200の表示範囲の変更処理(S410)において行われる命令である。さらに、カメラ部のOFFおよび画像送信のOFFに関す
る命令は、後述する表示制御装置200の省電力化処理(S413)において行われる命令である。
Here, the command regarding the shooting process is a command (shooting instruction) performed in the shooting instruction process (S408) of the display control device 200, which will be described later. Also, the commands for turning on the camera unit and turning on the image transmission are commands that are executed in the process of changing the display range of the display control device 200 (S410), which will be described later. Further, the commands for turning off the camera unit and turning off image transmission are commands performed in power saving processing (S413) of the display control device 200, which will be described later.

また、表示制御装置200では、撮像装置100が録画中か否かに応じて、カメラ部のON/OFFまたは画像送信のON/OFFを切り替えるよう命令する。これは、カメラ部をONにする場合、録画中であれば撮像装置100の電源(カメラ部への給電)は既にONであることから、画像送信のみをONにすればよいためである。また、カメラ部をOFFにする場合(省電力化処理)、録画中であれば、録画状態を維持したまま、画像送信のみOFFにすることでカメラ部の省電力化を図るためである。同様に、撮像装置100の処理においても撮像装置100が録画中か否かに応じて処理を分けているが、撮像装置100は、録画中か否かにかかわらず上記の命令に従って処理を行ってもよい。以下、撮像装置100における上記の命令に応じた処理(S307)について説明する。 In addition, the display control device 200 instructs switching between ON/OFF of the camera unit or ON/OFF of image transmission depending on whether the imaging device 100 is recording. This is because when the camera unit is turned on, only image transmission needs to be turned on because the power of the imaging device 100 (power supply to the camera unit) is already on during recording. Also, when the camera unit is turned off (power saving processing), if recording is in progress, only image transmission is turned off while maintaining the recording state, thereby saving the power of the camera unit. Similarly, in the processing of the imaging device 100, the processing is divided depending on whether the imaging device 100 is recording or not. good too. Processing (S307) according to the above command in the imaging apparatus 100 will be described below.

システム制御部50は、受信した命令が撮影指示であるか否かを判断する(S3071)。撮影指示でなければ(S3071-NO)、システム制御部50は、録画中か否かに応じて以下の処理を行う。録画中ではない場合(S3072-NO)は、システム制御部50は、表示制御装置200の命令に応じて一部のカメラ部のON/OFFの切り替えを行う(S3073)。録画中の場合(S3072-YES)は、システム制御部50は、表示制御装置200からの命令に応じて複数のカメラ部のうち一部のカメラ部から出力される画像を合成したVR画像の送信(ライブ映像の送信)のON/OFFの切り替えを行う(S3074)。また、受信した命令が撮影指示の場合(S3071-YES)は、システム制御部50は、表示制御装置200の命令に応じて撮影処理を実行する(S3075)。ここで、本実施形態における撮影指示には、静止画撮影指示または動画の録画開始指示/録画停止指示が含まれる。なお、ステップS3075の撮影処理は、ステップS311の撮影処理と同一であってもよい。ステップS3073~S3075の処理の後は、システム制御部50は、図3Aに示すステップS304の処理を実行する。 The system control unit 50 determines whether or not the received command is a photographing instruction (S3071). If it is not a shooting instruction (S3071-NO), the system control unit 50 performs the following processing depending on whether recording is in progress. If recording is not in progress (S3072-NO), the system control unit 50 switches ON/OFF of some camera units in accordance with the command from the display control device 200 (S3073). If recording is in progress (S3072-YES), the system control unit 50 transmits a VR image obtained by synthesizing images output from some of the plurality of camera units according to a command from the display control device 200. (Transmission of live video) is switched ON/OFF (S3074). If the received command is a shooting instruction (S3071-YES), the system control unit 50 executes shooting processing according to the command from the display control device 200 (S3075). Here, the shooting instruction in the present embodiment includes a still image shooting instruction or a moving image recording start instruction/recording stop instruction. Note that the imaging process in step S3075 may be the same as the imaging process in step S311. After the processing of steps S3073 to S3075, the system control unit 50 executes the processing of step S304 shown in FIG. 3A.

≪撮影処理(S311)≫
図3Cは、上述の撮影処理(S311)の一例を示すフローチャートである。本処理では、撮像装置100自体の操作による静止画撮影指示または動画撮影指示に応じて静止画撮影、動画撮影(録画開始または録画停止)が行われる。静止画撮影指示を受け付ける場合は、システム制御部50は静止画撮影処理を行う。また、動画撮影指示を受け付ける場合は、システム制御部50は録画中か否かに応じて録画開始処理/録画停止処理を行う。具体的には、すでに撮像装置100が録画中であれば録画停止処理を行い、録画中でなければ録画開始処理を行う。なお、撮像装置100は、録画中に静止画撮影指示を受け付ける場合も、上記と同様に静止画撮影処理を行う。以下、撮影処理(S311)における処理の詳細を説明する。
<<Shooting process (S311)>>
FIG. 3C is a flow chart showing an example of the photographing process (S311) described above. In this process, still image shooting or moving image shooting (recording start or recording stop) is performed in accordance with a still image shooting instruction or a moving image shooting instruction by operating the imaging device 100 itself. When accepting a still image shooting instruction, the system control unit 50 performs still image shooting processing. Further, when receiving a moving image shooting instruction, the system control unit 50 performs recording start processing/recording stop processing depending on whether recording is being performed or not. Specifically, if the imaging apparatus 100 is already recording, recording stop processing is performed, and if recording is not being performed, recording start processing is performed. It should be noted that the imaging apparatus 100 performs still image shooting processing in the same manner as described above even when receiving a still image shooting instruction during recording. Details of the processing in the photographing processing (S311) will be described below.

システム制御部50は、OFFのカメラ部があるか否かを判断する(S3111)。そして、システム制御部50は、OFFのカメラ部が存在する場合(S3111-YES)は、OFFのカメラ部をONに切り替える(S3112)。 The system control unit 50 determines whether or not there is an OFF camera unit (S3111). Then, if there is an OFF camera unit (S3111-YES), the system control unit 50 switches the OFF camera unit to ON (S3112).

次に、システム制御部50は、撮影処理の指示内容が静止画撮影指示か動画撮影指示かを判断する(S3113)。静止画撮影指示の場合は、システム制御部50は、静止画撮影を実行する(S3115)。動画撮影指示の場合は、システム制御部50は、録画中であるか否かを判断する(S3114)。録画中ではない場合(S3114-NO)は、システム制御部50は、録画を開始する(S3116)。録画中の場合(S3114-YES)は、システム制御部50は、録画停止を実行する(S3117)。なお、撮影処理により取得されるデータは、メモリ32に記録される。 Next, the system control unit 50 determines whether the instruction content of the imaging process is a still image imaging instruction or a moving image imaging instruction (S3113). In the case of a still image shooting instruction, the system control unit 50 executes still image shooting (S3115). In the case of a moving image shooting instruction, the system control unit 50 determines whether or not recording is in progress (S3114). If recording is not in progress (S3114-NO), the system control unit 50 starts recording (S3116). If recording is in progress (S3114-YES), the system control unit 50 stops recording (S3117). Note that data acquired by the imaging process is recorded in the memory 32 .

<表示制御装置200の処理内容>
図4A~図4Gは、表示制御装置200における表示制御処理の一例を示すフローチャートである。この処理は、不揮発性メモリ203に記録されたプログラムをメモリ202に展開し、CPU201が実行することで実現される。表示制御装置200の電源がONにされ、通信I/Fもしくは外部I/Fが有効になると図4Aに示す処理が開始される。
<Contents of Processing of Display Control Device 200>
4A to 4G are flowcharts showing an example of display control processing in the display control device 200. FIG. This processing is realized by loading the program recorded in the nonvolatile memory 203 into the memory 202 and executing it by the CPU 201 . When the power of the display control device 200 is turned on and the communication I/F or the external I/F becomes valid, the processing shown in FIG. 4A is started.

まず、CPU201は、表示制御装置200が撮像装置100と通信しているか否かを判断する(S401)。通信I/F210のデータ受信により通信を検知する場合(S401-YES)は、CPU201は以下の処理を実行する。まず、CPU201は、通信I/F210からVR画像データ(VR画像)を受信する(S402)。また、CPU201は、受信したVR画像データを画像処理部204にてVR画像(合成画像)の一部の範囲の画像の切り出しを行い、ディスプレイ205に切り出した画像を表示する(S403)。次に、CPU201は、撮像装置100から送信された上述の撮像装置ステータスを受信(S404)し、メモリ32に格納する。 First, the CPU 201 determines whether the display control device 200 is communicating with the imaging device 100 (S401). When detecting communication by data reception of the communication I/F 210 (S401-YES), the CPU 201 executes the following processing. First, the CPU 201 receives VR image data (VR image) from the communication I/F 210 (S402). The CPU 201 also uses the image processing unit 204 to cut out a partial range of the VR image (composite image) from the received VR image data, and displays the cut out image on the display 205 (S403). Next, the CPU 201 receives the above imaging device status transmitted from the imaging device 100 (S404) and stores it in the memory 32. FIG.

次に、CPU201は、表示制御装置200の操作指示の有無を検知する。具体的には、CPU201は、操作部206もしくはタッチパネル206aのボタン操作、またはタッチ操作等を操作指示として検知する。以下、CPU201が、映像表示終了操作指示の有無(S405)、撮影操作指示の有無(S407)および表示範囲の変更指示の有無(S409)を検知する場合について説明する。 Next, the CPU 201 detects whether or not there is an instruction to operate the display control device 200 . Specifically, the CPU 201 detects a button operation, a touch operation, or the like on the operation unit 206 or the touch panel 206a as an operation instruction. A case where the CPU 201 detects the presence/absence of a video display end operation instruction (S405), the presence/absence of a photographing operation instruction (S407), and the presence/absence of a display range change instruction (S409) will be described below.

まず、映像表示の終了操作指示を検知する場合(S405-YES)は、CPU201は、表示制御装置200におけるライブ映像表示の終了処理を行う(S406)。次に、撮影操作指示を検知する場合(S407-YES)は、CPU201は、操作指示に応じた命令を撮像装置100へ送信する撮影指示処理を行う(S408)。本実施形態では、CPU201は、静止画撮影指示、動画撮影開始指示/停止指示のいずれかを含む命令を撮像装置100へ送信する。さらに、表示制御装置200において表示範囲の変更指示を検知する場合(S409-YES)は、CPU201は、操作画像処理部204にて切り出し画像の範囲変更処理を行う(S410)。ステップS406,S408,S410の処理の詳細は後述する。 First, when an operation instruction to end the video display is detected (S405-YES), the CPU 201 performs live video display end processing in the display control device 200 (S406). Next, when a photographing operation instruction is detected (S407-YES), the CPU 201 performs photographing instruction processing for transmitting a command corresponding to the operation instruction to the imaging apparatus 100 (S408). In this embodiment, the CPU 201 transmits to the imaging device 100 a command including either a still image shooting instruction or a moving image shooting start/stop instruction. Further, when the display control device 200 detects an instruction to change the display range (S409-YES), the CPU 201 causes the operation image processing unit 204 to change the cutout image range (S410). Details of the processing of steps S406, S408, and S410 will be described later.

ステップS411では、ボタン操作やタッチ操作が行われない場合(無操作の場合)に、CPU201は、システムタイマ214を使用してタイマーのカウントアップを開始する。そして、CPU201は、無操作の時間が所定の閾値T以上続いたか否かを判断する(S412)。なお、閾値Tは、例えば、1分とすることができるが、特に限定されない。また、後述するように、閾値Tを変更可能としてもよい。無操作の時間が閾値T未満の場合(S412-NO)は、CPU201は、再度、ステップS402の処理を実行する。無操作の時間が閾値T以上(所定時間以上)の場合(S412-YES)は、CPU201は、省電力化処理を行う(S413)。本実施形態では、省電力化処理として、VR画像を構成する複数の画像のうち、表示範囲の画像を撮像するカメラ部以外のカメラ部をOFFの状態に切り替える。あるいは、撮像装置100が録画中の場合は、複数のカメラ部をONの状態のまま変更せず、表示範囲の画像を撮像するカメラ部以外のカメラ部が出力した画像はライブ映像のVR画像には合成しないことによって、表示範囲外の画像を撮像するカメラ部については、撮像装置100から表示制御装置200への画像送信をOFFにする。省電力化処理の詳細は後述する。 In step S411, when no button operation or touch operation is performed (in the case of no operation), the CPU 201 uses the system timer 214 to start counting up the timer. Then, the CPU 201 determines whether or not the non-operation time has continued for a predetermined threshold value T or longer (S412). Note that the threshold value T can be, for example, 1 minute, but is not particularly limited. Also, as will be described later, the threshold value T may be changeable. If the non-operation time is less than the threshold T (S412-NO), the CPU 201 executes the process of step S402 again. If the non-operation time is equal to or longer than the threshold T (predetermined time or longer) (S412-YES), the CPU 201 performs power saving processing (S413). In the present embodiment, as power saving processing, among the plurality of images forming the VR image, the camera units other than the camera unit that captures the image within the display range are switched to the OFF state. Alternatively, when the image capturing apparatus 100 is recording, the images output by the camera units other than the camera unit that captures the image within the display range are converted into live video VR images without changing the ON state of the plurality of camera units. By not synthesizing, image transmission from the imaging device 100 to the display control device 200 is turned off for the camera unit that captures an image outside the display range. Details of the power saving process will be described later.

≪映像表示の終了処理(S406)≫
図4Bは、本実施形態におけるライブ映像表示の終了処理(S406)の一例を示すフローチャートである。具体的には、CPU201は、メモリ202のタイマーカウントをゼロクリア(S4061)し、ディスプレイ205への表示停止を行い(S4062)、
映像受信を停止し、撮像装置100との通信を中止する(S4063)ことで、ライブ映像表示の終了処理を行う。そして、上述の通り、撮像装置100において、「ライブ映像を外部に送信中かつ表示制御装置200と通信していない」場合(S308-YES)となるので、システム制御部50はライブ映像の表示制御装置200への送信を停止する(S309)。
<<Processing for Ending Image Display (S406)>>
FIG. 4B is a flow chart showing an example of live video display end processing (S406) according to the present embodiment. Specifically, the CPU 201 clears the timer count in the memory 202 to zero (S4061), stops the display on the display 205 (S4062),
By stopping video reception and discontinuing communication with the imaging device 100 (S4063), end processing of live video display is performed. Then, as described above, in the imaging device 100, if "the live video is being transmitted to the outside and is not communicating with the display control device 200" (S308-YES), the system control unit 50 controls the display of the live video. The transmission to the device 200 is stopped (S309).

≪撮影指示処理(S408)≫
図4Cは、本実施形態における撮影指示処理(S408)の一例を示すフローチャートである。本実施形態では、表示制御装置200は、静止画撮影指示または動画撮影指示に応じて、静止画撮影命令または動画撮影開始/停止命令を撮像装置100へ送信する例について説明する。また、本実施形態では、表示制御装置200は、動画撮影指示に応じて、撮像装置100が録画中であれば動画撮影開始、録画中でなければ動画撮影停止を行うように撮像装置100に命令する。なお、表示制御装置200は、録画中か否かに関係なく動画撮影開始/停止命令を行ってもよい。以下、本実施形態に係る撮影指示処理の詳細を説明する。
<<Shooting instruction processing (S408)>>
FIG. 4C is a flow chart showing an example of the photographing instruction process (S408) in this embodiment. In this embodiment, an example will be described in which the display control device 200 transmits a still image shooting command or a moving image shooting start/stop command to the imaging device 100 in response to a still image shooting instruction or a moving image shooting instruction. In addition, in the present embodiment, the display control device 200 instructs the imaging device 100 to start moving image shooting if the imaging device 100 is recording and to stop moving image shooting if the imaging device 100 is not recording in response to a moving image shooting instruction. do. Note that the display control device 200 may issue a moving image shooting start/stop command regardless of whether recording is in progress. Details of the photographing instruction process according to the present embodiment will be described below.

まず、CPU201は、メモリ202のタイマーカウントをゼロクリアする(S4081)。そして、CPU201は、撮影指示の内容が動画撮影指示か否かを判断する(S4082)。静止画撮影指示である場合は、CPU201は、静止画撮影命令を撮像装置100に送信する(S4083)。動画撮影指示である場合は、録画中であるか否かを判断する(S4084)。録画中ではない場合(S4084-NO)は、CPU201は、動画撮影開始命令を撮像装置100に送信する(S4085)。録画中の場合(S4084-YES)は、CPU201は、動画撮影停止命令を撮像装置100に送信する(S4086)。ステップS4083,S4085,S4086の処理後は、再度、図4Aに示すステップS402の処理を実行する。 First, the CPU 201 clears the timer count in the memory 202 to zero (S4081). Then, the CPU 201 determines whether or not the content of the shooting instruction is a moving image shooting instruction (S4082). If it is a still image shooting instruction, the CPU 201 transmits a still image shooting instruction to the imaging device 100 (S4083). If it is a moving image shooting instruction, it is determined whether or not recording is in progress (S4084). If recording is not in progress (S4084-NO), the CPU 201 transmits a moving image shooting start command to the imaging device 100 (S4085). If recording is in progress (S4084-YES), the CPU 201 transmits a moving image shooting stop command to the imaging device 100 (S4086). After the processing of steps S4083, S4085, and S4086, the processing of step S402 shown in FIG. 4A is executed again.

≪表示範囲の変更処理(S410)≫
図4Dは、本実施形態に係る表示範囲の変更処理の一例を示すフローチャートである。本処理では、撮像装置100の送信画像を表示している状態で、表示制御装置200の操作により表示範囲が変更された場合、表示制御装置200は、必要に応じて撮像装置100のカメラ部をONにする命令を送信する。具体的には、変更後の表示範囲に、撮像装置100のカメラ部のうちOFFのカメラ部における撮像範囲が含まれる場合、表示制御装置200は、OFFのカメラ部をONにして画像送信を開始する命令を撮像装置100へ送信する。さらに、変更後の表示範囲に、撮像装置100のカメラ部のうちONのカメラ部における撮像範囲が含まれなくなる場合、表示制御装置200は、ONのカメラ部をOFFに切り替えて画像送信を停止する命令を撮像装置100へ送信してもよい。ここで、カメラ部が録画中である場合はすべてのカメラ部はONであるため、表示制御装置200は、変更後の表示範囲に、撮像範囲が含まれるカメラ部から出力された画像を合成したVR画像の送信を開始する命令を撮像装置100へ送信する。さらに、表示制御装置200は、変更後の表示範囲に、撮像範囲が含まれないカメラ部から出力された画像をVR画像に合成しないことによって、撮像範囲が含まれないカメラ部から出力された画像の送信を停止する命令を撮像装置100へ送信してもよい。以下、本実施形態に係る表示範囲の変更処理の詳細を説明する。
<<Display Range Change Processing (S410)>>
FIG. 4D is a flowchart illustrating an example of display range change processing according to the present embodiment. In this process, when the display range is changed by operating the display control device 200 while the transmission image of the imaging device 100 is being displayed, the display control device 200 turns the camera unit of the imaging device 100 on as necessary. Send an ON command. Specifically, when the changed display range includes the imaging range of the OFF camera units of the imaging device 100, the display control device 200 turns ON the OFF camera units and starts image transmission. to the imaging device 100. Furthermore, when the display range after the change does not include the imaging range of the ON camera units among the camera units of the imaging device 100, the display control device 200 switches the ON camera units to OFF to stop image transmission. The command may be sent to the imaging device 100 . Here, when the camera units are recording, all the camera units are ON, so the display control device 200 composites the image output from the camera units that include the imaging range into the display range after the change. A command to start transmitting the VR image is transmitted to the imaging device 100 . Furthermore, the display control device 200 does not synthesize the image output from the camera unit that does not include the imaging range in the display range after the change with the VR image, thereby allowing the image output from the camera unit that does not include the imaging range. may be transmitted to the imaging device 100 to stop the transmission of . Details of the processing for changing the display range according to the present embodiment will be described below.

まず、CPU201は、操作画像処理部204にて、ステップS303で撮像装置100から送信されたVR画像(合成画像)の表示範囲を変更する。そして、CPU201は、操作に応じた表示範囲と対応する部分をVR画像から切り出してディスプレイ205にライブビュー表示(S4101)する。そして、CPU201は、メモリ202のタイマーカウントをゼロクリアする(S4102)。さらに、CPU201は、録画中か否かを判断する(S4103)。 First, the CPU 201 causes the operation image processing unit 204 to change the display range of the VR image (composite image) transmitted from the imaging device 100 in step S303. Then, the CPU 201 cuts out a portion corresponding to the display range according to the operation from the VR image, and displays it as a live view on the display 205 (S4101). The CPU 201 then clears the timer count in the memory 202 to zero (S4102). Furthermore, the CPU 201 determines whether recording is in progress (S4103).

ステップS4103において、録画中ではない場合(S4103-NO)は、CPU201は、OFFのカメラ部の有無を判断する(S4104)。CPU201は、撮像装置100から受信したVR画像に終端がある場合、OFFのカメラ部があると判断する。例えば、撮像装置100においてカメラ部bがOFFのとき、撮像装置100はカメラ部aから出力された画像221のみで生成されたVR画像を表示制御装置200へ送信する。図2Dに示すように、画像221のみで生成されたVR画像は、終端225や終端226が存在するので、CPU201は、OFFのカメラ部があると判断する。OFFのカメラ部がある場合(S4104-YES)は、CPU201は、表示範囲がOFFのカメラ部の撮像範囲を含むように、移動されたか否かを判断する(S4105)。CPU201は、図2Dに示すように、表示範囲224が表示範囲227へ移動し、表示範囲227が撮像装置100から受信したVR画像で満たされなくなったとき、表示範囲が、OFFのカメラ部の撮像範囲に移動したと判断する。表示範囲がOFFのカメラ部の撮像範囲に含まれるように移動された場合(S4105-YES)は、CPU201は、OFFのカメラ部をONにする命令を撮像装置100に送信する(S4106)。なお、本実施形態では、カメラ部aとカメラ部bの2つだけであるので、例えば、カメラ部aがONで、その出力した画像が表示制御装置200へ送信されているのであれば、OFFのカメラ部はカメラ部bに一意に決まる。上記の命令は、例えば、外部I/F209もしくは通信I/F210を介して行われる。なお、CPU201は、表示範囲が、ONのカメラ部の撮像範囲に含まれてはいるが、ONのカメラ部の撮像範囲の端の近傍に移動し、このまま移動が継続すると、表示範囲がOFFのカメラ部の撮像範囲に含まれる可能性が高いと予想される場合に、OFFのカメラ部をONにする命令を撮像装置100に送信するようにしてもよい。あるいは、例えば、表示範囲の中心位置や全体位置などの座標と、ONのカメラ部の画像の終端との距離が所定値以下になった場合に、OFFのカメラ部をONにする命令を撮像装置100に送信してもよい。また、S4106では、CPU201は、表示範囲が移動して、表示範囲を全く含まなくなる撮像範囲を撮影するカメラ部をOFFにする命令を撮像装置100に送信してもよい。 In step S4103, if recording is not in progress (S4103-NO), the CPU 201 determines whether there is an OFF camera unit (S4104). When the VR image received from the imaging device 100 has an end, the CPU 201 determines that there is an OFF camera unit. For example, when the camera unit b is turned off in the imaging device 100 , the imaging device 100 transmits to the display control device 200 a VR image generated only from the image 221 output from the camera unit a. As shown in FIG. 2D, the VR image generated only with the image 221 has the end 225 and the end 226, so the CPU 201 determines that there is an OFF camera unit. If there is an OFF camera unit (S4104-YES), the CPU 201 determines whether the display range has been moved so as to include the imaging range of the OFF camera unit (S4105). As shown in FIG. 2D, when the display range 224 moves to the display range 227 and the display range 227 is no longer filled with the VR image received from the imaging device 100, the CPU 201 detects the image of the camera unit whose display range is OFF. It is judged that it has moved to the range. When the display range is moved to be included in the imaging range of the OFF camera unit (S4105-YES), the CPU 201 transmits a command to turn ON the OFF camera unit to the imaging apparatus 100 (S4106). In this embodiment, there are only two cameras, the camera unit a and the camera unit b. Therefore, if the camera unit a is ON and the output image is being transmitted to the display control device 200, the camera unit a is OFF. is uniquely determined as the camera unit b. The above instructions are issued via the external I/F 209 or the communication I/F 210, for example. Although the display range is included in the imaging range of the ON camera unit, the CPU 201 moves to the vicinity of the edge of the imaging range of the ON camera unit. If it is expected that there is a high possibility of being included in the imaging range of the camera unit, a command to turn on the camera unit that has been turned off may be transmitted to the imaging device 100 . Alternatively, for example, when the distance between the coordinates of the center position or the overall position of the display range and the end of the image of the ON camera unit becomes equal to or less than a predetermined value, the imaging device issues a command to turn ON the OFF camera unit. 100. Further, in S4106, the CPU 201 may transmit to the imaging apparatus 100 a command to turn off the camera unit that captures an imaging range that does not include the display range at all after the display range has moved.

ステップS4103において、録画中の場合(S4103-YES)は、CPU201は、画像送信を停止中のカメラ部の有無を判断する(S4107)。CPU201は、撮像装置100から受信したVR画像に終端がある場合、送信停止中のカメラ部があると判断する。例えば、撮像装置100においてカメラ部bが送信停止中のとき、撮像装置100はカメラ部aから出力された画像221のみで生成されたVR画像をライブ映像として表示制御装置200へ送信する。図2Dに示すように、画像221のみで生成されたVR画像は、終端225や終端226が存在するので、CPU201は、送信停止中のカメラ部があると判断する。送信停止中のカメラ部がある場合(S1407-YES)は、CPU201は、表示範囲が画像送信停止中のカメラ部の撮像範囲を含むように、移動されたか否かを判断する(S4108)。CPU201は、図2Dに示すように、表示範囲224が表示範囲227へ移動し、表示範囲227が撮像装置100から受信したVR画像で満たされなくなったとき、表示範囲が、送信停止中のカメラ部の撮像範囲に移動したと判断する。表示範囲が送信停止中のカメラ部の撮像範囲に含まれるように移動された場合(S1408-YES)は、CPU201は、送信停止中のカメラ部から出力された画像の送信を開始する命令を撮像装置100に送信する(S4109)。なお、CPU201は、表示範囲が、画像送信中のカメラ部の撮像範囲に含まれてはいるが、画像送信中のカメラ部の撮像範囲の端の近傍に移動し、このまま移動が継続すると、表示範囲が画像送信停止中のカメラ部の撮像範囲に含まれる可能性が高いと予想される場合に、画像送信停止中のカメラ部の画像送信を開始する命令を撮像装置100に送信するようにしてもよい。また、S4109では、CPU201は、表示範囲が移動して、表示範囲を全く含まなくなる撮像範囲を撮影するカメラ部の画像送信をOFFにする命令を撮像装置100に送信してもよい。上記の命令は、例えば、外部I/F209もしくは通信I/F210を介して
行われる。本処理後は、再度、図4Aに示すステップS402の処理を行う。
In step S4103, if recording is in progress (S4103-YES), the CPU 201 determines whether or not there is a camera unit for which image transmission is stopped (S4107). When the VR image received from the imaging device 100 has an end, the CPU 201 determines that there is a camera unit whose transmission is stopped. For example, when the camera unit b in the image capturing apparatus 100 is in suspension of transmission, the image capturing apparatus 100 transmits a VR image generated only from the image 221 output from the camera unit a to the display control device 200 as a live image. As shown in FIG. 2D, the VR image generated only with the image 221 has the end 225 and the end 226, so the CPU 201 determines that there is a camera unit whose transmission is stopped. If there is a camera unit whose transmission is stopped (S1407-YES), the CPU 201 determines whether the display range has been moved so as to include the imaging range of the camera unit whose image transmission is stopped (S4108). As shown in FIG. 2D, when the display range 224 moves to the display range 227 and the display range 227 is no longer filled with the VR images received from the imaging device 100, the CPU 201 changes the display range to the camera unit whose transmission is stopped. is determined to have moved to the imaging range of . When the display range is moved to be included in the imaging range of the camera unit whose transmission is stopped (S1408-YES), the CPU 201 captures a command to start transmitting the image output from the camera unit whose transmission is stopped. It is transmitted to the device 100 (S4109). Although the display range is included in the imaging range of the camera unit during image transmission, the CPU 201 moves to the vicinity of the end of the imaging range of the camera unit during image transmission, and if the movement continues as it is, the display When it is expected that the range is likely to be included in the imaging range of the camera unit whose image transmission is stopped, a command to start image transmission of the camera unit whose image transmission is stopped is transmitted to the imaging device 100. good too. Further, in step S4109, the CPU 201 may transmit to the imaging apparatus 100 a command to turn off image transmission of the camera unit that captures an imaging range that does not include the display range after the display range has moved. The above instructions are issued via the external I/F 209 or the communication I/F 210, for example. After this process, the process of step S402 shown in FIG. 4A is performed again.

≪省電力化処理(S413)≫
図4Eは、本実施形態に係る省電力化処理(S413)の一例を示すフローチャートである。本処理では、CPU201は、無操作の時間が閾値T以上の場合に省電力化処理を行う。具体的には、表示制御装置200は、VR画像(合成画像)の一部の範囲がディスプレイ205に表示されている際に、ディスプレイ205に表示されていない範囲の画像を撮像する撮像装置100のカメラ部をOFFにする命令を送信する。また、録画中である場合は、表示制御装置200は、表示範囲を含まない撮像範囲を撮影するカメラ部をOFFにせず、画像送信のみOFFにする命令を送信する。ここで、表示範囲に複数のカメラ部が撮像する画像が含まれる場合は、表示制御装置200は、表示範囲に応じてOFFにするカメラ部を決定する。以下、本実施形態に係る省電力化処理の詳細を説明する。
<<Power Saving Processing (S413)>>
FIG. 4E is a flowchart showing an example of power saving processing (S413) according to this embodiment. In this processing, the CPU 201 performs power saving processing when the non-operation time is equal to or greater than the threshold value T. FIG. Specifically, the display control device 200 controls the imaging device 100 to capture an image of a range not displayed on the display 205 when a range of a part of the VR image (composite image) is displayed on the display 205. Send a command to turn off the camera unit. Further, when recording is in progress, the display control device 200 does not turn off the camera unit that captures the imaging range that does not include the display range, and transmits an instruction to turn off only image transmission. Here, when images captured by a plurality of camera units are included in the display range, the display control device 200 determines the camera units to be turned off according to the display range. Details of the power saving process according to the present embodiment will be described below.

まず、CPU201は、録画中か否かを判断する(S4131)。 First, the CPU 201 determines whether recording is in progress (S4131).

ステップS4131において、録画中ではない場合(S4131-NO)は、CPU201は、ディスプレイ205に表示中のVR画像の表示範囲に応じて実行する処理を決定する(S4132)。CPU201は、VR画像とともに受信した、各カメラ部の撮像範囲を示す座標情報と表示範囲の座標を比較する。そして、ディスプレイ205にカメラ部aが撮像する画像のみが表示されている場合は、CPU201は、カメラ部a以外のカメラ部としてカメラ部bをOFFにする命令を撮像装置100に送信する(S4133)。ディスプレイ205にカメラ部bが撮像する画像のみが表示されている場合は、CPU201は、カメラ部b以外のカメラ部としてカメラ部aをOFFにする命令を撮像装置100に送信する(S4134)。ディスプレイ205に、カメラ部a,bの両方の映像(境界)が表示されている場合には、CPU201は境界処理を行う(S4135)。境界処理の詳細は後述する。 At step S4131, if recording is not in progress (S4131-NO), the CPU 201 determines the process to be executed according to the display range of the VR image being displayed on the display 205 (S4132). The CPU 201 compares the coordinate information indicating the imaging range of each camera unit and the coordinates of the display range received together with the VR image. Then, when only the image captured by the camera unit a is displayed on the display 205, the CPU 201 transmits a command to turn off the camera unit b as a camera unit other than the camera unit a to the imaging apparatus 100 (S4133). . When only the image captured by the camera unit b is displayed on the display 205, the CPU 201 transmits a command to turn off the camera unit a as a camera unit other than the camera unit b to the imaging apparatus 100 (S4134). When the images (boundaries) of both the camera units a and b are displayed on the display 205, the CPU 201 performs boundary processing (S4135). Details of the boundary processing will be described later.

ステップS4131において、録画中の場合(S4131-YES)は、CPU201は、ディスプレイ205に表示中のVR画像の表示範囲に応じて実行する処理を決定する(S4136)。CPU201は、VR画像とともに受信した、各カメラ部の撮像範囲を示す座標情報と表示範囲の座標を比較する。そして、ディスプレイ205にカメラ部aが撮像する画像のみが表示されている場合は、CPU201は、カメラ部a以外のカメラ部としてカメラ部bから出力される画像を合成したライブ映像の送信を停止する命令を撮像装置100に送信する(S4137)。ディスプレイ205にカメラ部bが撮像する画像のみが表示されている場合は、CPU201は、カメラ部b以外のカメラ部としてカメラ部aから出力される画像を合成したライブ映像の送信を停止する命令を撮像装置に送信する(S4138)。ディスプレイ205に、カメラ部a,bの両方の映像が含まれる場合には、CPU201は録画中境界処理を行う(S4139)。録画中境界処理の詳細は、後述する。ステップS4133~S4135,S4137~S4139の処理後は、再度、ステップS402を実行する。 At step S4131, if recording is in progress (S4131-YES), the CPU 201 determines the process to be executed according to the display range of the VR image being displayed on the display 205 (S4136). The CPU 201 compares the coordinate information indicating the imaging range of each camera unit and the coordinates of the display range received together with the VR image. Then, when only the image captured by the camera unit a is displayed on the display 205, the CPU 201 stops transmitting the live video synthesized with the image output from the camera unit b as the camera unit other than the camera unit a. A command is transmitted to the imaging device 100 (S4137). When only the image captured by the camera unit b is displayed on the display 205, the CPU 201 issues an instruction to stop transmission of the live video synthesized with the image output from the camera unit a as a camera unit other than the camera unit b. It is transmitted to the imaging device (S4138). If the display 205 includes images from both the camera units a and b, the CPU 201 performs boundary processing during recording (S4139). The details of the border processing during recording will be described later. After the processing of steps S4133 to S4135 and S4137 to S4139, step S402 is executed again.

≪境界処理(S4135)≫
図4Fは、上述の境界処理(S4135)の一例を示すフローチャートである。境界処理が実行されると、CPU201は、VR画像の表示範囲のうち、カメラ部aが撮像する画像の表示サイズがカメラ部bが撮像する画像の表示サイズ以上か否かの判断を行う(S41351)。
<<Boundary processing (S4135)>>
FIG. 4F is a flow chart showing an example of the boundary processing (S4135) described above. When the boundary processing is executed, the CPU 201 determines whether or not the display size of the image captured by the camera unit a in the display range of the VR image is equal to or larger than the display size of the image captured by the camera unit b (S41351). ).

表示範囲に占める面積がカメラ部bの画像の方がカメラ部aの画像よりも大きい場合(S41351-NO)は、ライブ映像において、カメラ部bが撮像する画像のみに含まれるように、ディスプレイ205の表示範囲を変更(S41352)し、カメラ部aをOF
Fにする命令を撮像装置に送信する(S41353)。また、表示範囲に占める面積がカメラ部aの画像の方がカメラ部bの画像よりも大きい場合(S41351-YES)は、ライブ映像において、カメラ部aが撮像する画像のみに含まれるようにディスプレイ205の表示範囲を変更(S41354)し、カメラ部bをOFFする命令を撮像装置に送信する(S41355)。
When the image of the camera unit b occupies a larger area than the image of the camera unit a in the display range (S41351-NO), the display 205 is displayed so that it is included only in the image captured by the camera unit b in the live video. is changed (S41352), and the camera part a is turned off
A command to change to F is transmitted to the imaging device (S41353). In addition, when the image of camera unit a occupies a larger area than the image of camera unit b in the display range (S41351-YES), the display is made so that only the image captured by camera unit a in the live video is included. 205 is changed (S41354), and a command to turn off the camera unit b is transmitted to the imaging device (S41355).

≪録画中境界処理(S4139)≫
図4Gは、上述の録画中境界処理(S4139)の一例を示すフローチャートである。録画中境界処理が実行されると、CPU201は、VR画像の表示範囲のうち、カメラ部aが撮像する画像の表示サイズがカメラ部bが撮像する画像の表示サイズ以上か否かの判断を行う(S41391)。
<<Boundary processing during recording (S4139)>>
FIG. 4G is a flow chart showing an example of the boundary process during recording (S4139) described above. When the boundary process during recording is executed, the CPU 201 determines whether or not the display size of the image captured by the camera unit a within the display range of the VR image is equal to or larger than the display size of the image captured by the camera unit b. (S41391).

表示範囲に占める面積がカメラ部bの画像の方がカメラ部aの画像よりも大きい場合(S41391-NO)は、CPU201は、ライブ映像において、カメラ部bの撮像する画像のみに含まれるようにディスプレイ205の表示範囲を変更(S41392)する。そして、CPU201は、カメラ部aの画像送信を停止する命令を撮像装置100に送信する(S41393)。また、表示範囲に占める面積がカメラ部aの画像の方がカメラ部bの画像よりも大きい場合(S41391-YES)は、CPU201は、ライブ映像において、カメラ部aが撮像する画像のみに含まれるようにディスプレイ205の表示範囲を変更(S41394)する。そして、CPU201は、カメラ部bの画像送信を停止する命令を撮像装置100に送信する(S41395)。 When the image of the camera unit b occupies a larger area than the image of the camera unit a in the display range (S41391-NO), the CPU 201 causes the live image to be included only in the image captured by the camera unit b. The display range of the display 205 is changed (S41392). Then, the CPU 201 transmits a command to stop the image transmission of the camera unit a to the imaging device 100 (S41393). In addition, when the image of camera unit a occupies a larger area than the image of camera unit b in the display range (S41391-YES), the CPU 201 determines that only the image captured by camera unit a in the live video contains the image captured by camera unit a. The display range of the display 205 is changed (S41394) as follows. Then, the CPU 201 transmits a command to stop the image transmission of the camera section b to the imaging device 100 (S41395).

なお、ステップS41393,S41395の処理後、所定の条件によってカメラ部a,bの画像送信を再開する命令を撮像装置に送信するようにしてもよい。所定の条件は、例えば、カメラ部a,bが撮像する画像を表示範囲に入れるようにするユーザ指示入力が所定期間以上継続した場合、または所定期間内に2回以上当該指示入力が繰り返された場合等が挙げられる。 After the processing of steps S41393 and S41395, a command to resume image transmission of the camera units a and b may be transmitted to the imaging device under a predetermined condition. The predetermined condition is, for example, when the user input instruction to put the images captured by the camera units a and b into the display range continues for a predetermined period or longer, or when the instruction input is repeated twice or more within the predetermined period. and the like.

<起動時間の短縮処理>
本実施形態では、カメラ部の起動に伴う遅延時間を短縮するために、表示範囲の位置に応じて撮像装置100の停止対象機能を変更する。具体的には、表示範囲が、VR画像の何処に位置するかに応じて、撮像装置100の撮像部22への給電停止、A/D変換器23への給電停止、画像処理および表示制御装置200への画像送信処理の停止のいずれかが行われる。なお、本実施形態では、上記の所定の範囲として、矩形の範囲を2つ設ける例について説明するが、範囲の数や形状については特に限定されない。なお、領域内か否かの判断は、例えば、切り出し表示範囲の中心位置や表示範囲全体位置など切り出し表示範囲の座標により行う。また、起動時間の短縮処理は、表示制御装置200において行われる例について説明するが、撮像装置100において本処理が行われてもよい。
<Startup time reduction processing>
In the present embodiment, in order to shorten the delay time accompanying activation of the camera unit, the stop target function of the imaging device 100 is changed according to the position of the display range. Specifically, depending on where the display range is located in the VR image, power supply to the imaging unit 22 of the imaging device 100 is stopped, power supply to the A/D converter 23 is stopped, image processing and display control device Either stopping the image transmission process to 200 is performed. In this embodiment, an example in which two rectangular ranges are provided as the predetermined range will be described, but the number and shape of the ranges are not particularly limited. Whether or not it is within the area is determined based on the coordinates of the cut-out display range, such as the center position of the cut-out display range or the overall position of the display range. Also, although an example in which the startup time shortening process is performed in the display control device 200 will be described, this process may be performed in the imaging device 100 .

図5Aは、カメラ部aが撮像する撮影画像504とカメラ部bが撮像する撮影画像505とを結合したVR画像を疑似的に平面に展開した状態を表す。領域501は、表示制御装置200のディスプレイ205に表示される切り出し表示範囲を示す。範囲502,範囲503は、上述した所定の範囲を示す。図5Aに示す例では、カメラ部aが撮像する撮影画像504を撮像装置100から表示制御装置200へ送信し、その一部を表示範囲としてディスプレイ205に表示している。以下、所定時間(閾値T)経過した場合に、カメラ部bの状態を表示範囲に応じて変更する例を示す。 FIG. 5A shows a state in which a virtual VR image obtained by combining a captured image 504 captured by the camera unit a and a captured image 505 captured by the camera unit b is developed on a plane in a pseudo manner. A region 501 indicates a clipped display range displayed on the display 205 of the display control device 200 . A range 502 and a range 503 indicate the predetermined ranges described above. In the example shown in FIG. 5A, a captured image 504 captured by the camera unit a is transmitted from the imaging device 100 to the display control device 200, and a part thereof is displayed on the display 205 as a display range. An example of changing the state of the camera unit b according to the display range when a predetermined time (threshold value T) has elapsed will be described below.

図5Bは、起動時間短縮処理の一例を示すフローチャートである。範囲503の内側に表示範囲すべてが含まれる場合(S501-YES)は、CPU201は、撮像装置100のカメラ撮像部22bおよびA/D変換器23bへの給電を停止する(S502)。 FIG. 5B is a flowchart illustrating an example of boot time reduction processing. When the entire display range is included inside the range 503 (S501-YES), the CPU 201 stops power supply to the camera imaging unit 22b and the A/D converter 23b of the imaging device 100 (S502).

範囲503より外側の領域が表示範囲に含まれ、かつ範囲502の内側に表示範囲すべてが含まれる場合(S501-NO、かつS503-YES)は、CPU201は、撮像装置100のA/D変換器23bへの給電を停止する(S504)。カメラ撮像部22bへの給電は行う。 If the area outside the range 503 is included in the display range and the entire display range is included inside the range 502 (S501-NO and S503-YES), the CPU 201 controls the A/D converter of the imaging device 100. 23b is stopped (S504). Power is supplied to the camera imaging section 22b.

範囲502より外側の領域が表示範囲に含まれる場合(S501-NO、かつS503-NO)は、CPU201は、カメラ撮像部22bおよびA/D変換器23bへ給電は行うが、A/D変換器23bから出力された画像bに対する画像処理は実行しない。そして、画像bの画像処理結果をVR画像に合成しないことによって、画像送信を停止する(S505)。 If the area outside the range 502 is included in the display range (S501-NO and S503-NO), the CPU 201 supplies power to the camera imaging unit 22b and the A/D converter 23b, but the A/D converter No image processing is performed on the image b output from 23b. Then, the image transmission is stopped by not synthesizing the image processing result of the image b with the VR image (S505).

<無操作時間の変更処理>
本実施形態では、上述した無操作時間の閾値Tをユーザが設定操作を行うことで変更する。なお、以下では、表示制御装置200のディスプレイに表示されるGUIを用いて変更する例を示すが、撮像装置100を操作することより無操作時間の変更処理が行われてもよい。
<Change processing of non-operation time>
In the present embodiment, the threshold value T of the non-operation time described above is changed by the user performing a setting operation. Note that although an example of changing using a GUI displayed on the display of the display control device 200 will be described below, processing for changing the non-operation time may be performed by operating the imaging device 100 .

図6Aは、表示制御装置200のディスプレイ205に表示される無操作時間の設定変更の画面の一例を示す。また、図6Aの「省電状態」には、カメラ部のOFFまたはカメラ部の画像送信の停止を含む。 FIG. 6A shows an example of a screen for changing the no-operation time setting displayed on the display 205 of the display control device 200. FIG. In addition, the "power saving state" in FIG. 6A includes turning off the camera unit or stopping image transmission of the camera unit.

図6Bは、無操作時間変更処理の一例を示すフローチャートである。無操作時間の変更指示が実行されると、CPU201は、表示制御装置200の設定メニューを開く(S601)。無操作時間の設定時間変更が行われる場合は、CPU201は、タイマーカウンタクリアを行い(S603)、選択または入力された時間をメモリ102に記録する(S604)。無操作時間設定は固定値の選択もしくは任意の時間の入力のどちらにも対応可能である。また、CPU201は、設定メニューを閉じる操作指示があると設定メニューを閉じる(S605)。なお、図6Aの「タイマー切」を選択することで、無操作時間を設定しないようにすることも可能である。 FIG. 6B is a flowchart illustrating an example of non-operation time change processing. When the no-operation time change instruction is executed, the CPU 201 opens the setting menu of the display control device 200 (S601). When the non-operation time setting is changed, the CPU 201 clears the timer counter (S603) and records the selected or input time in the memory 102 (S604). The non-operation time setting can correspond to either selection of a fixed value or input of an arbitrary time. Further, the CPU 201 closes the setting menu when there is an operation instruction to close the setting menu (S605). It is also possible to set no operation time by selecting "timer off" in FIG. 6A.

<本実施形態の有利な効果>
以上に示す通り、本実施形態に係る表示制御装置は、表示範囲の切り替わりにより撮像装置におけるカメラ部の駆動を適切に制御することで、撮像装置の電力消費を適切に抑えることができる。また、撮像装置が動画録画中の場合には、複数のカメラ部により得られた撮影画像を記録しつつ、ライブビュー表示には不要な撮影画像の送信を停止することで、撮像装置の使用状態に対応した電力消費の抑制を行うことができる。さらに、撮像装置の停止状態を変更することで、電力消費を抑えながら、カメラ起動に要する時間の遅延を抑制することができる。
<Advantageous effects of the present embodiment>
As described above, the display control device according to the present embodiment can appropriately reduce the power consumption of the imaging device by appropriately controlling the driving of the camera unit in the imaging device by switching the display range. In addition, when the imaging device is recording a moving image, the use state of the imaging device can be changed by recording captured images obtained by a plurality of camera units and stopping transmission of captured images that are unnecessary for live view display. It is possible to suppress power consumption corresponding to Furthermore, by changing the stop state of the imaging device, it is possible to suppress the delay in the time required to start the camera while suppressing power consumption.

(変形例)
上述の実施形態では、2つのカメラ部を有する撮像装置を例に説明したが、カメラ部は3つ以上設けられていてもよい。この場合、上述のカメラ部をOFFにする対象は、表示制御装置に表示されている画像を撮像するカメラ部以外としてもよい。また、上述の境界処理では、表示範囲が最も大きい画像を撮像するカメラ以外をOFFにしてもよい。なお、1つ以上のカメラ部を有する複数の撮像装置と表示制御装置とを含む制御システムにおいて、上述の機能を提供してもよい。
(Modification)
In the above-described embodiments, an imaging apparatus having two camera units was described as an example, but three or more camera units may be provided. In this case, the target for which the above-mentioned camera section is turned off may be a camera section other than the camera section that captures the image displayed on the display control device. Further, in the boundary processing described above, the cameras other than the camera that captures the image with the largest display range may be turned off. Note that the above functions may be provided in a control system including a plurality of imaging devices having one or more camera units and a display control device.

上述の実施形態では、表示制御装置に表示している画像については電力消費を抑えるための処理は行っていないが、例えば、画質を低下させる等の省電力化処理を行ってもよい
In the above-described embodiment, the image displayed on the display control device is not processed to reduce power consumption.

上述の実施形態では、所定の時間以上、操作を受け付けない場合に、省電力化する処理について説明したが、ユーザから所定の操作を受け付けた場合に上記処理が行われてもよい。所定の操作の例として、撮像装置または表示制御装置のボタンやGUIを用いて行われるユーザ操作が挙げられる。また、所定の操作の別の例として、表示制御装置の位置や姿勢を変更する操作が挙げられる。例えば、ユーザが表示制御装置の表示部を下向きに伏せた状態ではカメラ部をOFFにし、それ以外の状態ではカメラ部をONにしてもよい。 In the above-described embodiment, the process of saving power is described when no operation is received for a predetermined time or more, but the above process may be performed when a predetermined operation is received from the user. Examples of predetermined operations include user operations performed using buttons and GUIs of the imaging device or the display control device. Another example of the predetermined operation is an operation of changing the position or orientation of the display control device. For example, the camera unit may be turned off when the user faces down the display unit of the display control device, and may be turned on in other states.

上述の実施形態では、表示制御装置の命令に従って撮像装置が(一部の)撮像部における撮像処理の停止または画像の送信処理の停止を行う例について説明したが、表示制御装置の範囲情報に基く撮像装置の判断によって上記の処理を行ってもよい。具体的には、撮像装置は、VR画像(合成画像)のうち表示制御装置に表示される一部の範囲の範囲情報を表示制御装置から受信する。そして、撮像装置は、範囲情報に基づいてVR画像の一部の範囲が表示制御装置に表示されている際に、表示制御装置に表示されていない範囲の画像を撮像する撮像部における撮像処理の停止または画像の送信処理の停止を行ってもよい。 In the above-described embodiment, an example in which the imaging device stops the imaging process in (part of) the imaging unit or stops the image transmission process according to the command of the display control device has been described, but based on the range information of the display control device The above processing may be performed according to the judgment of the imaging device. Specifically, the imaging device receives range information of a part of the VR image (composite image) displayed on the display control device from the display control device. Then, the imaging device performs imaging processing in the imaging unit that captures an image of a range that is not displayed on the display control device when a partial range of the VR image is displayed on the display control device based on the range information. You may stop or stop the transmission process of an image.

上述の実施形態では、撮像装置と表示制御装置とが別体の装置とする例について説明したが、1つの装置に上述の複数の撮像装置の機能部と上述の表示制御装置の機能部とが設けられてもよい。 In the above-described embodiment, an example in which the imaging device and the display control device are separate devices has been described. may be provided.

(第2の実施形態)
第2の実施形態における撮像装置100の動作について図7のフローチャートを参照して説明する。撮像装置100はあらかじめ、電源が供給され、起動処理を行い、表示制御装置200との通信を確立し、ライブビュー表示の要求を表示制御装置200から受信しているものとする。
(Second embodiment)
The operation of the imaging device 100 according to the second embodiment will be described with reference to the flowchart of FIG. It is assumed that the imaging device 100 has been supplied with power in advance, performed startup processing, established communication with the display control device 200 , and received a request for live view display from the display control device 200 .

まず、システム制御部50はすべてのカメラ部(本実施形態ではカメラ部aとカメラ部b)を通常モードで駆動するよう制御する(S701)。システム制御部50はすべてのカメラ部から出力された画像について画像処理を施し、画像処理結果を合成してVR画像を生成する(S702)。システム制御部50は、ステップS702で生成されたVR画像をライブ画像として表示制御装置200へ送信する(S703)。 First, the system control unit 50 controls all camera units (camera unit a and camera unit b in this embodiment) to be driven in the normal mode (S701). The system control unit 50 performs image processing on the images output from all the camera units, combines the image processing results, and generates a VR image (S702). The system control unit 50 transmits the VR image generated in step S702 as a live image to the display control device 200 (S703).

そして、システム制御部50は、ステップS703で送信されたVR画像のうちディスプレイ205に表示されている表示範囲を示す座標情報(表示範囲情報)を表示制御装置200から受信する(S704)。システム制御部50は、VR画像を構成する各カメラ部から出力された画像の合成位置を示す座標情報と、表示制御装置200から受信した表示範囲の座標情報とを比較する(S705)。 Then, the system control unit 50 receives, from the display control device 200, coordinate information (display range information) indicating the display range displayed on the display 205 in the VR image transmitted in step S703 (S704). The system control unit 50 compares the coordinate information indicating the combining positions of the images output from the respective camera units forming the VR image with the coordinate information of the display range received from the display control device 200 (S705).

比較の結果、システム制御部50は、表示範囲に含まれない画像を出力するカメラ部があれば(S706でYes)、表示範囲に含まれない画像を出力するカメラ部を省電力モードで駆動するよう制御する(S707)。なお、システム制御部50は、省電力モードでは、カメラ部のすべての機能を停止したり、カメラ部の機能のうち少なくとも一部(例えば、撮像部22およびA/D変換器23のうち少なくとも1つ)を停止したり、カメラ部から出力される画像のフレームレートを低くする。つまり、省電力モードでは、カメラ部は、通常モードで動作するときに比べて消費電力が低くなるように制御が行われる。そして、システム制御部50は、通常モードで駆動しているカメラ部から出力された画像について画像処理を施し、画像処理結果を合成してVR画像を生成する(S708)。システム制御部50はステップS708で生成されたVR画像をライブ画像として表示制御装
置200へ送信する(S709)。
As a result of the comparison, if there is a camera unit that outputs an image that is not included in the display range (Yes in S706), the system control unit 50 drives the camera unit that outputs an image that is not included in the display range in power saving mode. (S707). In the power saving mode, the system control unit 50 stops all the functions of the camera unit, or disables at least some of the functions of the camera unit (for example, at least one of the imaging unit 22 and the A/D converter 23). ), or lower the frame rate of the image output from the camera unit. In other words, in the power saving mode, the camera section is controlled so as to consume less power than when operating in the normal mode. Then, the system control unit 50 performs image processing on the images output from the camera units driven in the normal mode, and combines the image processing results to generate a VR image (S708). The system control unit 50 transmits the VR image generated in step S708 as a live image to the display control device 200 (S709).

そして、システム制御部はS710とS711において、S704とS705と同様の処理を実行する。システム制御部は表示範囲を示す座標情報に基づき、表示範囲がVR画像の終端の近傍にあるかどうかを判定する(S712)。VR画像が一部のカメラ部から出力された画像だけで生成されている場合、図2Dに示すようにVR画像223に終端225と終端226が存在する。表示範囲224の位置がVR画像の終端から所定の距離内にあるとき、システム制御部50は、表示範囲がVR画像の終端の近傍にあると判定する。そして、システム制御部50は、表示範囲の近傍にある終端に隣接する撮像範囲の画像を出力するカメラ部を特定し、特定されたカメラ部を通常モードで駆動するよう制御する(S713)。ステップS713では、システム制御部50は、特定されたカメラ部を省電力モードから通常モードに切り替えて駆動するように制御する。そして、システム制御部50は、特定されたカメラ部を含む、通常モードで駆動中のカメラ部から出力された画像について画像処理を施し、画像処理結果を合成してVR画像を生成する(S714)。ステップS712で生成されたVR画像をライブ画像として表示制御装置200へ送信する(S715)。 Then, in S710 and S711, the system control unit executes the same processing as in S704 and S705. Based on the coordinate information indicating the display range, the system control unit determines whether the display range is near the end of the VR image (S712). When the VR image is generated only from images output from some camera units, the VR image 223 has ends 225 and 226 as shown in FIG. 2D. When the position of the display range 224 is within a predetermined distance from the end of the VR image, the system control unit 50 determines that the display range is near the end of the VR image. Then, the system control unit 50 specifies the camera unit that outputs the image of the imaging range adjacent to the end in the vicinity of the display range, and controls the specified camera unit to be driven in the normal mode (S713). In step S713, the system control unit 50 controls to switch the specified camera unit from the power saving mode to the normal mode and drive it. Then, the system control unit 50 performs image processing on the images output from the camera units that are being driven in the normal mode, including the identified camera units, and combines the image processing results to generate a VR image (S714). . The VR image generated in step S712 is transmitted to the display control device 200 as a live image (S715).

そして、システム制御部50は、録画開始指示を受け付けたかどうか判定する(S716)。システム制御部50は、撮像装置100に設けられた所定の操作部材に対する入力があった場合、あるいは、システム制御部50は、録画開始指示を表示制御装置200から受信した場合、録画開始指示を受け付けたと判定する。録画開始指示を受け付けると(S716でYes)、システム制御部50はすべてのカメラ部を通常モードで駆動するように制御し(S717)、すべてのカメラ部から出力された画像について画像処理を施し、画像処理結果を合成して記録用のVR画像を生成し(S718)、VR画像をライブ画像として表示制御装置200へ送信するとともに(S719)、VR画像を記録媒体120に記録する(S720)。 Then, the system control unit 50 determines whether or not a recording start instruction has been received (S716). The system control unit 50 accepts a recording start instruction when there is an input to a predetermined operation member provided in the imaging device 100, or when the system control unit 50 receives a recording start instruction from the display control device 200. I judge that. When the recording start instruction is received (Yes in S716), the system control unit 50 controls all the camera units to be driven in the normal mode (S717), performs image processing on the images output from all the camera units, The image processing results are combined to generate a VR image for recording (S718), the VR image is transmitted as a live image to the display control device 200 (S719), and the VR image is recorded on the recording medium 120 (S720).

そして、システム制御部50は、録画停止指示を受け付けたかどうか判定する(S721)。システム制御部50は、撮像装置100に設けられた所定の操作部材に対する入力があった場合、あるいは、システム制御部50は、録画停止指示を表示制御装置200から受信した場合、録画停止指示を受け付けたと判定する。録画停止指示を受け付けると(S721でYes)、システム制御部50は、録画処理を停止し、ライブビュー表示の終了指示を表示制御装置200から受信したかどうか判定する(S722)。ライブビュー表示の終了指示を受け付けると(S722でYes)、本処理を終了する。ライブビュー表示の終了指示を受け付けなければ(S722でNo)、ステップS704の処理に戻る。また、録画停止指示を受け付けなければ(S721でNo)、ステップS718に戻り、録画処理を継続する。 Then, the system control unit 50 determines whether or not a recording stop instruction has been received (S721). The system control unit 50 accepts a recording stop instruction when there is an input to a predetermined operation member provided in the imaging device 100, or when the system control unit 50 receives a recording stop instruction from the display control device 200. I judge that. Upon receiving the recording stop instruction (Yes in S721), the system control unit 50 stops the recording process and determines whether or not an instruction to end the live view display has been received from the display control device 200 (S722). If an instruction to end the live view display is received (Yes in S722), this process ends. If the live view display end instruction is not received (No in S722), the process returns to step S704. If the recording stop instruction is not received (No in S721), the process returns to step S718 to continue the recording process.

第2の実施形態における表示制御装置200の動作について図8のフローチャートを参照して説明する。表示制御装置200はあらかじめ、電源が供給され、起動処理を行い、撮像装置100との通信を確立し、ライブビュー表示の要求を撮像装置100へ送信しているものとする。 The operation of the display control device 200 according to the second embodiment will be described with reference to the flowchart of FIG. It is assumed that the display control device 200 is supplied with power, performs startup processing, establishes communication with the imaging device 100 , and transmits a request for live view display to the imaging device 100 in advance.

まず、CPU201は、S703で撮像装置100から送信されたVR画像を受信し(S801)、VR画像の一部を表示範囲として、ディスプレイ205に表示する(S802)。ステップS802では初期位置として、例えば、VR画像の中央を表示範囲として表示する。そして、CPU201は、VR画像の表示範囲を変更するための指示を受け付けたかどうかを判定する(S803)。CPU201は、タッチパネル206への操作や表示制御装置200の姿勢の変化などがあると、表示範囲の変更指示を受け付けたと判定する。CPU201は、表示範囲の変更指示を受け付けたと判定すると(S803でYe
s)、変更後の表示範囲を示す座標情報を撮像装置100へ送信する(S804)。CPU201は、S709またはS715で撮像装置100から送信されたVR画像を受信し(S805)、VR画像のうち、変更後の表示範囲と対応する一部をディスプレイ205に表示する(S806)。
First, the CPU 201 receives the VR image transmitted from the imaging device 100 in S703 (S801), and displays a part of the VR image as a display range on the display 205 (S802). In step S802, as the initial position, for example, the center of the VR image is displayed as the display range. Then, the CPU 201 determines whether an instruction to change the display range of the VR image has been received (S803). The CPU 201 determines that an instruction to change the display range has been received when there is an operation on the touch panel 206 or a change in the posture of the display control device 200 . When the CPU 201 determines that an instruction to change the display range has been received (Yes in S803).
s), the coordinate information indicating the changed display range is transmitted to the imaging device 100 (S804). The CPU 201 receives the VR image transmitted from the imaging device 100 in S709 or S715 (S805), and displays a part of the VR image corresponding to the changed display range on the display 205 (S806).

そして、CPU201は、録画開始指示を受け付けると(S807でYes)、録画開始指示を撮像装置100へ送信する(S808)。CPU201は、S719で撮像装置100から送信されたVR画像を受信し(S809)、VR画像のうち選択中の表示範囲と対応する一部をディスプレイ205に表示する(S810)。CPU201は、VR画像の表示範囲を変更するための指示を受け付ければ(S811でYes)、VR画像のうち変更後の表示範囲と対応する一部をディスプレイ205に表示する(S812)。なお、録画中は撮像装置100は、すべてのカメラ部を通常モードで駆動させるため、カメラ部毎に通常モードと省電力モードを切り替える必要がない。よって、撮像装置100が録画中のときは、表示制御装置200はVR画像の表示範囲が変更されても、表示範囲の座標情報を撮像装置100へは送信しない。 Then, when receiving the recording start instruction (Yes in S807), the CPU 201 transmits the recording start instruction to the imaging device 100 (S808). The CPU 201 receives the VR image transmitted from the imaging device 100 in S719 (S809), and displays a part of the VR image corresponding to the selected display range on the display 205 (S810). When the CPU 201 receives an instruction to change the display range of the VR image (Yes in S811), the CPU 201 displays a part of the VR image corresponding to the changed display range on the display 205 (S812). Note that the imaging apparatus 100 drives all the camera units in the normal mode during recording, so there is no need to switch between the normal mode and the power saving mode for each camera unit. Therefore, when the imaging device 100 is recording, the display control device 200 does not transmit the coordinate information of the display range to the imaging device 100 even if the display range of the VR image is changed.

そして、CPU201は、録画停止指示を受け付けると(S813でYes)、録画停止指示を撮像装置100へ送信する(S814)。CPU201は、録画停止指示を受け付けなければ(S813でNo)、ステップS809の処理に戻る。 When the CPU 201 receives the recording stop instruction (Yes in S813), the CPU 201 transmits the recording stop instruction to the imaging device 100 (S814). If the CPU 201 does not receive a recording stop instruction (No in S813), the process returns to step S809.

CPU201は、ライブビュー表示の終了指示を受け付けると(S815でYes)、ライブビュー表示の終了指示を撮像装置100へ送信する(S816)。CPU201は、ライブビュー表示の終了指示を受け付けなければ(S815でNo)、ステップS801の処理に戻る。 When the CPU 201 receives the live view display end instruction (Yes in S815), the CPU 201 transmits the live view display end instruction to the imaging device 100 (S816). If the CPU 201 does not receive an instruction to end the live view display (No in S815), the process returns to step S801.

本実施形態によれば、表示制御装置200のディスプレイ205に表示されるVR画像の表示範囲の変更に応じて、撮像装置100の各カメラ部を通常モードまたは省電力モードで駆動するように切り替える。これによって、表示制御装置200のディスプレイ205に表示されていない範囲の画像を撮像するカメラ部を省電力モードで駆動させ、撮像装置100の電力消費を抑制できる。 According to the present embodiment, each camera unit of the imaging device 100 is switched between normal mode and power saving mode in accordance with a change in the display range of the VR image displayed on the display 205 of the display control device 200 . As a result, the power consumption of the imaging device 100 can be suppressed by driving the camera unit that captures an image of a range not displayed on the display 205 of the display control device 200 in the power saving mode.

(第3の実施形態)
第3の実施形態における撮像装置100の動作について図9のフローチャートを参照して説明する。撮像装置100はあらかじめ、電源が供給され、起動処理を行い、表示制御装置200との通信を確立し、ライブビュー表示の要求を表示制御装置200から受信しているものとする。
(Third embodiment)
The operation of the imaging device 100 according to the third embodiment will be described with reference to the flowchart of FIG. It is assumed that the imaging device 100 has been supplied with power in advance, performed startup processing, established communication with the display control device 200 , and received a request for live view display from the display control device 200 .

まず、システム制御部50はすべてのカメラ部(本実施形態ではカメラ部aとカメラ部b)を通常モードで駆動するよう制御する(S901)。システム制御部50はすべてのカメラ部から出力された画像を表示制御装置200へ送信する(S902)。 First, the system control unit 50 controls all camera units (camera unit a and camera unit b in this embodiment) to be driven in the normal mode (S901). The system control unit 50 transmits images output from all camera units to the display control device 200 (S902).

そして、システム制御部50は、ステップS902で送信された画像のうちディスプレイ205で表示中の画像または非表示の画像を示す情報を表示制御装置200から受信する。そして、システム制御部50は、非表示の画像があると判定すれば(S903でYes)、非表示の画像を出力したカメラ部を特定し、省電力モードで駆動するように切り替える(S904)。システム制御部50は、省電力モードのカメラ部を除き、通常モードで駆動するカメラ部から出力された画像を表示制御装置200へ送信する(S905)。 Then, the system control unit 50 receives, from the display control device 200, information indicating an image being displayed or an image not being displayed on the display 205 among the images transmitted in step S902. Then, if the system control unit 50 determines that there is a hidden image (Yes in S903), it identifies the camera unit that has output the hidden image, and switches to drive in the power saving mode (S904). The system control unit 50 transmits images output from the camera units driven in the normal mode to the display control device 200, except for the camera units in the power saving mode (S905).

また、システム制御部50は、ディスプレイ205に表示されているライブ画像を構成する各画像の位置やライブ画像における表示範囲を示す情報を受信し、表示範囲がライブ
画像の終端の近傍にあるかどうか判定する(S906)。表示範囲がライブ画像の終端の近傍にあれば(S906でYes)、終端を含む画像に隣接する画像を出力するカメラ部を特定し、通常モードで駆動するように切り替える(S907)。そして、通常モードで駆動するカメラ部の画像を表示制御装置へ送信する(S908)。
In addition, the system control unit 50 receives information indicating the position of each image constituting the live image displayed on the display 205 and the display range of the live image, and determines whether the display range is near the end of the live image. Determine (S906). If the display range is near the end of the live image (Yes in S906), the camera unit that outputs the image adjacent to the image including the end is identified and switched to drive in the normal mode (S907). Then, the image of the camera unit driven in the normal mode is transmitted to the display control device (S908).

そして、システム制御部50は、録画開始指示を受け付けたかどうか判定する(S909)。録画開始指示を受け付けると(S909でYes)、システム制御部50はすべてのカメラ部を通常モードで駆動するように制御し(S910)、すべてのカメラ部から出力された画像について画像処理を施し、画像処理結果を合成して記録用のVR画像を生成し(S911)、VR画像を記録媒体120に記録する(S912)。システム制御部50は、すべてのカメラ部から出力された画像を表示制御装置200へ送信する(S913)。 Then, the system control unit 50 determines whether or not a recording start instruction has been received (S909). When the recording start instruction is accepted (Yes in S909), the system control unit 50 controls all the camera units to be driven in the normal mode (S910), performs image processing on the images output from all the camera units, The image processing results are synthesized to generate a VR image for recording (S911), and the VR image is recorded on the recording medium 120 (S912). The system control unit 50 transmits images output from all camera units to the display control device 200 (S913).

そして、システム制御部50は、ステップS913で送信された画像のうちディスプレイ205で表示中の画像または非表示の画像を示す情報を表示制御装置200から受信する。そして、システム制御部50は、非表示の画像があると判定すれば(S914でYes)、非表示の画像を出力したカメラ部を特定し、特定されたカメラ部から出力される画像の表示制御装置200への送信を停止する(S915)。 Then, the system control unit 50 receives, from the display control device 200, information indicating the image being displayed or not being displayed on the display 205 among the images transmitted in step S913. Then, if it is determined that there is a hidden image (Yes in S914), the system control unit 50 identifies the camera unit that output the hidden image, and controls the display of the image output from the identified camera unit. The transmission to the device 200 is stopped (S915).

また、システム制御部50は、ディスプレイ205の表示範囲がライブ画像の終端の近傍にあることを示す情報を表示制御装置200から受信すれば(S916でYes)、終端の近傍に隣接する画像を出力するカメラ部を特定し、特定されたカメラ部から出力される画像の表示制御装置200への送信を再開する(S917)。 Further, when the system control unit 50 receives information from the display control device 200 indicating that the display range of the display 205 is near the end of the live image (Yes in S916), the system control unit 50 outputs an image adjacent near the end. The camera unit to be used is specified, and the transmission of the image output from the specified camera unit to the display control device 200 is resumed (S917).

そして、システム制御部50は、録画停止指示を受け付けると(S918でYes)、システム制御部50は、録画処理を停止し、ライブビュー表示の終了指示を表示制御装置200から受信したかどうか判定する(S919)。ライブビュー表示の終了指示を受け付けると(S919でYes)、本処理を終了する。ライブビュー表示の終了指示を受け付けなければ(S919でNo)、ステップS903の処理に戻る。また、録画停止指示を受け付けなければ(S721でNo)、ステップS911に戻り、録画処理を継続する。 When the system control unit 50 receives the recording stop instruction (Yes in S918), the system control unit 50 stops the recording process and determines whether or not an instruction to end the live view display has been received from the display control device 200. (S919). If an instruction to end the live view display is received (Yes in S919), this process ends. If the live view display end instruction is not received (No in S919), the process returns to step S903. If the recording stop instruction is not accepted (No in S721), the process returns to step S911 to continue the recording process.

第3の実施形態における表示制御装置200の動作について図10のフローチャートを参照して説明する。表示制御装置200はあらかじめ、電源が供給され、起動処理を行い、撮像装置100との通信を確立し、ライブビュー表示の要求を撮像装置100へ送信しているものとする。 The operation of the display control device 200 according to the third embodiment will be described with reference to the flowchart of FIG. It is assumed that the display control device 200 is supplied with power, performs startup processing, establishes communication with the imaging device 100 , and transmits a request for live view display to the imaging device 100 in advance.

まず、CPU201は、S902で撮像装置100から送信された各カメラ部から出力された画像を受信し(S1001)、受信した複数の画像を合成してVR画像を生成する(S1002)。VR画像の一部を表示範囲として、ディスプレイ205に表示する(S1003)。ステップS1003では初期位置として、例えば、VR画像の中央を表示範囲として表示する。そして、CPU201は、VR画像の表示範囲を変更するための指示を受け付けると(S1004でYes)、変更後の表示範囲と対応する一部をディスプレイ205に表示する(S1005)。 First, the CPU 201 receives an image output from each camera unit transmitted from the imaging apparatus 100 in S902 (S1001), and generates a VR image by synthesizing a plurality of received images (S1002). A part of the VR image is displayed on the display 205 as a display range (S1003). In step S1003, as the initial position, for example, the center of the VR image is displayed as the display range. When receiving an instruction to change the display range of the VR image (Yes in S1004), the CPU 201 displays a part corresponding to the changed display range on the display 205 (S1005).

そして、CPU201は、VR画像を構成する画像ごとに、表示中または非表示を示す情報を生成し、撮像装置100へ送信する(S1006)。これに応じて、撮像装置100はS903からS905の処理を実行する。CPU201は、S905で撮像装置100から送信された画像を受信し(S1007)、受信された画像を合成してVR画像を生成し、VR画像のうち、現在の表示範囲と対応する一部をディスプレイ205に表示する
(S1008)。
Then, the CPU 201 generates information indicating whether the image is being displayed or not for each image forming the VR image, and transmits the information to the imaging device 100 (S1006). In response to this, the imaging apparatus 100 executes the processing from S903 to S905. The CPU 201 receives the image transmitted from the imaging device 100 in S905 (S1007), synthesizes the received images to generate a VR image, and displays a portion of the VR image corresponding to the current display range. 205 (S1008).

また、CPU201は、ライブ画像として生成されたVR画像における表示範囲やVR画像を構成する画像の位置を示す情報を生成し、撮像装置100へ送信する(S1009)。これに応じて、撮像装置100はS906からS908の処理を実行する。CPU201は、S908で撮像装置100から送信された画像を受信し(S1010)、受信された画像を合成してVR画像を生成し、VR画像のうち、現在の表示範囲と対応する一部をディスプレイ205に表示する(S1011)。 In addition, the CPU 201 generates information indicating the display range in the VR image generated as the live image and the positions of the images forming the VR image, and transmits the information to the imaging device 100 (S1009). In response to this, the imaging apparatus 100 executes the processing from S906 to S908. The CPU 201 receives the image transmitted from the imaging device 100 in S908 (S1010), synthesizes the received images to generate a VR image, and displays a portion of the VR image corresponding to the current display range. 205 (S1011).

そして、CPU201は、録画開始指示を受け付けると(S1012でYes)、録画開始指示を撮像装置100へ送信する(S1013)。CPU201は、S913で撮像装置100から送信された各カメラ部の画像を受信し(S1014)、受信した複数の画像を合成してVR画像を生成する(S1015)。VR画像の一部を表示範囲として、ディスプレイ205に表示する(S1016)。CPU201は、VR画像の表示範囲を変更するための指示を受け付ければ(S1017でYes)、VR画像のうち変更後の表示範囲と対応する一部をディスプレイ205に表示する(S1018)。 Then, when receiving the recording start instruction (Yes in S1012), the CPU 201 transmits the recording start instruction to the imaging device 100 (S1013). The CPU 201 receives the image of each camera unit transmitted from the imaging device 100 in S913 (S1014), and generates a VR image by synthesizing a plurality of received images (S1015). A part of the VR image is displayed on the display 205 as a display range (S1016). When the CPU 201 receives an instruction to change the display range of the VR image (Yes in S1017), the CPU 201 displays a part of the VR image corresponding to the changed display range on the display 205 (S1018).

そして、CPU201は、VR画像を構成する画像ごとに、表示中または非表示を示す情報を生成し、撮像装置100へ送信する(S1019)。これに応じて、撮像装置100はS914とS915の処理を実行する。CPU201は、S915で撮像装置100から送信された画像を受信し(S1020)、受信された画像を合成してVR画像を生成し、VR画像のうち、現在の表示範囲と対応する一部をディスプレイ205に表示する(S1021)。 Then, the CPU 201 generates information indicating whether it is being displayed or not for each image forming the VR image, and transmits the information to the imaging device 100 (S1019). In response to this, the imaging device 100 executes the processes of S914 and S915. The CPU 201 receives the image transmitted from the imaging device 100 in S915 (S1020), synthesizes the received images to generate a VR image, and displays a portion of the VR image corresponding to the current display range. 205 (S1021).

また、CPU201は、ライブ画像として生成されたVR画像における表示範囲やVR画像を構成する画像の位置を示す情報を生成し、撮像装置100へ送信する(S1022)。これに応じて、撮像装置100はS916とS917の処理を実行する。CPU201は、S917で撮像装置100から送信された画像を受信し(S1023)、受信された画像を合成してVR画像を生成し、VR画像のうち、現在の表示範囲と対応する一部をディスプレイ205に表示する(S1024)。 Further, the CPU 201 generates information indicating the display range in the VR image generated as the live image and the positions of the images forming the VR image, and transmits the information to the imaging device 100 (S1022). In response to this, the imaging device 100 executes the processes of S916 and S917. The CPU 201 receives the image transmitted from the imaging device 100 in S917 (S1023), synthesizes the received images to generate a VR image, and displays a portion of the VR image corresponding to the current display range. 205 (S1024).

そして、CPU201は、録画停止指示を受け付けると(S1025でYes)、録画停止指示を撮像装置100へ送信する(S1026)。CPU201は、録画停止指示を受け付けなければ(S1025でNo)、ステップS1019の処理に戻る。 When the CPU 201 receives the recording stop instruction (Yes in S1025), the CPU 201 transmits the recording stop instruction to the imaging device 100 (S1026). If the CPU 201 does not receive a recording stop instruction (No in S1025), the process returns to step S1019.

CPU201は、ライブビュー表示の終了指示を受け付けると(S1027でYes)、ライブビュー表示の終了指示を撮像装置100へ送信する(S1028)。CPU201は、ライブビュー表示の終了指示を受け付けなければ(S1027でNo)、ステップS1006の処理に戻る。 When the CPU 201 receives the live view display end instruction (Yes in S1027), the CPU 201 transmits the live view display end instruction to the imaging device 100 (S1028). If the CPU 201 does not receive an instruction to end the live view display (No in S1027), the process returns to step S1006.

本実施形態によれば、表示制御装置200のディスプレイ205に表示されるVR画像の表示範囲の変更に応じて、撮像装置100の各カメラ部を通常モードまたは省電力モードで駆動するように切り替える。これによって、表示制御装置200のディスプレイ205に表示されていない範囲の画像を撮像するカメラ部を省電力モードで駆動させ、撮像装置100の電力消費を抑制できる。 According to the present embodiment, each camera unit of the imaging device 100 is switched between normal mode and power saving mode in accordance with a change in the display range of the VR image displayed on the display 205 of the display control device 200 . As a result, the power consumption of the imaging device 100 can be suppressed by driving the camera unit that captures an image of a range not displayed on the display 205 of the display control device 200 in the power saving mode.

また、本実施形態によれば、撮像装置100が録画処理中ですべてのカメラ部を通常モードで駆動させる必要がある場合でも、表示制御装置200のディスプレイ205に表示されるVR画像の表示範囲の変更に応じて、撮像装置100のカメラ部毎に画像を送信するか否かを切り替える。これによって、表示制御装置200のディスプレイ205に表示
されていない範囲の画像を撮像するカメラ部の画像の送信を停止させ、撮像装置100の電力消費を抑制できる。
Further, according to the present embodiment, even when the imaging apparatus 100 is performing recording processing and all the camera units need to be driven in the normal mode, the display range of the VR image displayed on the display 205 of the display control apparatus 200 is reduced. Depending on the change, whether or not to transmit an image is switched for each camera unit of the imaging device 100 . As a result, the power consumption of the imaging device 100 can be suppressed by stopping the transmission of the image of the camera unit that captures the image of the range not displayed on the display 205 of the display control device 200 .

(その他)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(others)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

100:撮像装置 a:カメラ部 b:カメラ部
22a,22b:撮像部 24:画像処理部 50:システム制御部
200:表示制御装置 204:画像処理部 205:ディスプレイ
100: Imaging Device a: Camera Section b: Camera Section 22a, 22b: Imaging Section 24: Image Processing Section 50: System Control Section 200: Display Control Device 204: Image Processing Section 205: Display

Claims (7)

それぞれ異なる方向の被写体を撮像することにより得られた画像を出力する複数の撮像処理手段と、
前記複数の撮像処理手段により出力された画像を合成することにより合成画像を生成する生成手段と、
前記合成画像を記録媒体に記録する記録手段と、
前記合成画像のうち画面に表示される表示範囲を示す表示範囲情報を取得する取得手段と、
前記合成画像が前記記録媒体に記録されている間、前記表示範囲情報に関わらず、前記複数の撮像処理手段を第1のモードで駆動するように制御し、
前記合成画像が前記記録媒体に記録されていない間、前記表示範囲情報に基づいて、前記合成画像のうち表示される範囲と対応する画像を出力する前記撮像処理手段を前記第1のモードで駆動し、前記合成画像のうち表示されない範囲と対応する画像を出力する前記撮像処理手段を前記第1のモードに比べて省電力な第2のモードで駆動するよう制御する制御手段と、
を有することを特徴とする撮像装置。
a plurality of imaging processing means for outputting images obtained by imaging subjects in different directions;
generating means for generating a synthesized image by synthesizing the images output by the plurality of imaging processing means;
a recording means for recording the composite image on a recording medium;
Acquisition means for acquiring display range information indicating a display range of the composite image to be displayed on a screen;
controlling the plurality of imaging processing means to be driven in a first mode while the composite image is being recorded on the recording medium, regardless of the display range information;
While the synthesized image is not recorded on the recording medium, the imaging processing means for outputting an image corresponding to the displayed range of the synthesized image is driven in the first mode based on the display range information. and a control means for controlling the imaging processing means for outputting an image corresponding to a non-display range of the composite image so as to be driven in a second mode that saves power compared to the first mode;
An imaging device characterized by comprising:
前記合成画像を外部装置へ送信する送信手段をさらに有し、
前記取得手段は、前記外部装置の画面に表示される表示範囲を示す前記表示範囲情報を前記外部装置から取得する、
ことを特徴とする請求項1に記載の撮像装置。
further comprising transmission means for transmitting the composite image to an external device;
The acquisition means acquires from the external device the display range information indicating the display range displayed on the screen of the external device.
2. The imaging device according to claim 1, wherein:
前記複数の撮像処理手段により出力された複数の画像を外部装置へ送信する送信手段をさらに有し、
前記取得手段は、前記外部装置において前記複数の画像を合成することにより生成された合成画像のうち、前記外部装置の画面に表示される表示範囲を示す表示範囲情報を前記外部装置から取得する、
ことを特徴とする請求項1に記載の撮像装置。
further comprising transmission means for transmitting the plurality of images output by the plurality of imaging processing means to an external device;
The acquisition means acquires, from the external device, display range information indicating a display range to be displayed on a screen of the external device, in a composite image generated by synthesizing the plurality of images in the external device.
2. The imaging device according to claim 1, wherein:
前記送信手段は、前記表示範囲情報に基づいて、前記合成画像のうち表示される範囲と対応する前記撮像処理手段により出力される画像を前記外部装置へ送信し、前記合成画像のうち表示されない範囲と対応する前記撮像処理手段により出力される画像を前記外部装置へ送信しない、
ことを特徴とする請求項3に記載の撮像装置。
Based on the display range information, the transmission means transmits to the external device an image output by the imaging processing means corresponding to a displayed range of the synthesized image, and a non-display range of the synthesized image. and not transmitting the image output by the imaging processing means corresponding to the external device,
4. The imaging device according to claim 3, characterized in that:
前記撮像処理手段は、撮像部および前記撮像部から出力されるアナログ信号をデジタル信号に変換するA/D変換器を含み、前記制御手段は、前記撮像部および前記A/D変換器のうち少なくとも1つを停止することによって、前記撮像処理手段を前記第2のモードで駆動する、
ことを特徴とする請求項1から4のいずれか一項に記載の撮像装置。
The imaging processing means includes an imaging section and an A/D converter that converts an analog signal output from the imaging section into a digital signal, and the control means controls at least one of the imaging section and the A/D converter. driving the imaging processing means in the second mode by deactivating one;
5. The imaging apparatus according to any one of claims 1 to 4, characterized by:
それぞれ異なる方向の被写体を撮像することにより得られた画像を出力する複数の撮像処理手段を備える撮像装置の制御方法であって、
前記複数の撮像処理手段により出力された画像を合成することにより合成画像を生成する生成ステップと、
前記合成画像を記録媒体に記録する記録ステップと、
前記合成画像のうち画面に表示される表示範囲を示す表示範囲情報を取得する取得ステップと、
前記合成画像が前記記録媒体に記録されている間、前記表示範囲情報に関わらず、前記
複数の撮像処理手段を第1のモードで駆動するように制御し、
前記合成画像が前記記録媒体に記録されていない間、前記表示範囲情報に基づいて、前記合成画像のうち表示される範囲と対応する画像を出力する前記撮像処理手段を前記第1のモードで駆動し、前記合成画像のうち表示されない範囲と対応する画像を出力する前記撮像処理手段を前記第1のモードに比べて省電力な第2のモードで駆動するよう制御する制御ステップと、
を有することを特徴とする撮像装置の制御方法。
A control method for an imaging device having a plurality of imaging processing means for outputting images obtained by imaging subjects in different directions,
a generating step of generating a synthesized image by synthesizing the images output by the plurality of imaging processing means;
a recording step of recording the composite image on a recording medium;
an obtaining step of obtaining display range information indicating a display range of the composite image displayed on a screen;
controlling the plurality of imaging processing means to be driven in a first mode while the composite image is being recorded on the recording medium, regardless of the display range information;
While the synthesized image is not recorded on the recording medium, the imaging processing means for outputting an image corresponding to the displayed range of the synthesized image is driven in the first mode based on the display range information. and a control step of controlling the imaging processing means for outputting an image corresponding to a non-display range of the composite image so as to be driven in a second mode that saves power compared to the first mode;
A control method for an imaging device, comprising:
コンピュータを、請求項1から5のいずれか一項に記載された撮像装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the imaging apparatus according to any one of claims 1 to 5.
JP2019086091A 2018-05-17 2019-04-26 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM Active JP7271296B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/410,210 US11128764B2 (en) 2018-05-17 2019-05-13 Imaging apparatus, control method, and non-transitory computer readable medium
CN201910409846.3A CN110505375B (en) 2018-05-17 2019-05-16 Image capturing apparatus, control method of image capturing apparatus, and computer readable medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018095205 2018-05-17
JP2018095205 2018-05-17

Publications (2)

Publication Number Publication Date
JP2019205161A JP2019205161A (en) 2019-11-28
JP7271296B2 true JP7271296B2 (en) 2023-05-11

Family

ID=68727412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019086091A Active JP7271296B2 (en) 2018-05-17 2019-04-26 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7271296B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11656753B2 (en) * 2020-01-31 2023-05-23 Canon Kabushiki Kaisha Information processing device and method displaying at least two apparatuses for virtually checking interference
JP2023136245A (en) 2022-03-16 2023-09-29 キヤノン株式会社 Imaging apparatus and control method of the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232908A (en) 2009-03-26 2010-10-14 Fujifilm Corp Omnidirectional imaging device, and method of drive controlling the same
WO2013186804A1 (en) 2012-06-11 2013-12-19 株式会社ソニー・コンピュータエンタテインメント Image generation device, and image generation method
JP2016171577A (en) 2016-04-13 2016-09-23 株式会社リコー Imaging apparatus and imaging system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010232908A (en) 2009-03-26 2010-10-14 Fujifilm Corp Omnidirectional imaging device, and method of drive controlling the same
WO2013186804A1 (en) 2012-06-11 2013-12-19 株式会社ソニー・コンピュータエンタテインメント Image generation device, and image generation method
JP2016171577A (en) 2016-04-13 2016-09-23 株式会社リコー Imaging apparatus and imaging system

Also Published As

Publication number Publication date
JP2019205161A (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP2019121858A (en) Electronic device and control method thereof
CN111385470B (en) Electronic device, control method of electronic device, and computer-readable medium
JP7258482B2 (en) Electronics
CN110505375B (en) Image capturing apparatus, control method of image capturing apparatus, and computer readable medium
US11295530B2 (en) Electronic apparatus for playing back a virtual reality video image and control method therefor
JP7094815B2 (en) Display control device, control method of display control device, program, storage medium
JP7271296B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND PROGRAM
CN110881097B (en) Display control apparatus, control method, and computer-readable medium
US11079898B2 (en) Electronic device for controlling display of VR image, control method of electronic device, and non-transitory computer readable medium
JP7267764B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2021174317A (en) Electronic apparatus and control method therefor
US11380075B2 (en) Electronic apparatus for playing back a virtual reality video image and control method therefor
JP2022183843A (en) Electronic equipment, control method therefor, program and storage medium
JP6257255B2 (en) Display control device and control method of display control device
JP7204511B2 (en) Electronic device, electronic device control method, program
JP7336200B2 (en) Electronic device and its control method
CN110881102B (en) Image capturing apparatus, control method of image capturing apparatus, and computer readable medium
JP6301002B2 (en) Display control device and control method of display control device
JP2023121126A (en) Electronic apparatus, method for controlling electronic apparatus, and program
JP2022183846A (en) Electronic equipment, control method therefor, program and storage medium
JP2022183844A (en) Electronic equipment, control method therefor, program and storage medium
JP2021144297A (en) Electronic device, control method thereof, program, and storage medium
JP2019197557A (en) Display control unit and method for controlling display control unit
CN116634121A (en) Electronic device, control method of electronic device, and storage medium
JP2018092663A (en) Display control device and control method for display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R151 Written notification of patent or utility model registration

Ref document number: 7271296

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151