JP2020088559A - Electronic device and program - Google Patents

Electronic device and program Download PDF

Info

Publication number
JP2020088559A
JP2020088559A JP2018219110A JP2018219110A JP2020088559A JP 2020088559 A JP2020088559 A JP 2020088559A JP 2018219110 A JP2018219110 A JP 2018219110A JP 2018219110 A JP2018219110 A JP 2018219110A JP 2020088559 A JP2020088559 A JP 2020088559A
Authority
JP
Japan
Prior art keywords
image
photographer
camera
size
moving image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018219110A
Other languages
Japanese (ja)
Inventor
康成 藤井
Yasunari Fujii
康成 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018219110A priority Critical patent/JP2020088559A/en
Publication of JP2020088559A publication Critical patent/JP2020088559A/en
Pending legal-status Critical Current

Links

Images

Abstract

To solve the problem in which, with an imaging apparatus capable of omnidirectional photographing, since there is no place to avoid being photographed from a time a photographer gives an instruction to start photographing until the photographer moves to a position away from the imaging apparatus, the photographer may be photographed.SOLUTION: The electronic device controls not to record a video during a time from a photographer gives an instruction to start photographing until the photographer moves to a position away from an imaging apparatus or not to reproduce the video.SELECTED DRAWING: Figure 3

Description

本発明は、VR画像を撮影可能または再生可能な電子機器およびプログラムに関する。 The present invention relates to an electronic device and a program capable of capturing or reproducing a VR image.

従来、広角レンズを複数備えることで、周囲の全方位の景色を撮影可能な撮像装置がある。また、これらの撮像装置で撮影された画像をもとに作成されたVR(Virtual Reality)コンテンツを再生可能な撮像装置や再生装置がある(特許文献1参照)。 2. Description of the Related Art Conventionally, there is an imaging device that is capable of shooting a landscape in all directions around by including a plurality of wide-angle lenses. In addition, there is an imaging device or a playback device capable of playing back VR (Virtual Reality) content created based on images taken by these imaging devices (see Patent Document 1).

特開2014−222825号公報JP, 2014-222825, A

全方位撮影可能な撮像装置では、例えば、撮像装置に三脚を付けて、周囲の全方位を撮影しようとするとき、撮影者が撮像装置を操作して、撮影開始を指示してから撮像装置から離れた位置に移動するまでの間に、写らないように避ける場所がない。よって、撮影者の意図とは異なり、撮影者がアップで撮影されてしまったり、そのようにして撮影された映像が再生されてしまったりするという問題があった。 In an imaging device capable of omnidirectional shooting, for example, when a tripod is attached to the imaging device and an attempt is made to shoot the omnidirectional surroundings, a photographer operates the imaging device to instruct shooting start, and then the imaging device is operated. There is no place to avoid taking pictures before moving to a distant position. Therefore, unlike the intention of the photographer, there is a problem in that the photographer may be photographed in close-up or the image thus photographed may be reproduced.

本願に係る発明の1つは、三脚が接合されたことを検出する検出手段と、撮像手段によって撮像されたVR画像から認識された撮影者の顔画像のサイズが所定のサイズより大きいかどうかを判定する判定手段と、前記三脚が接合され、前記撮影者の顔画像のサイズが所定のサイズより大きければ、撮影指示を受け付けてから所定の時間が経過してから撮像手段によって撮像されたVR画像を圧縮符号化処理してVR動画データを生成する生成手段と、前記VR動画データを記録媒体に記録する記録手段を備えたことを特徴とする。 One of the inventions according to the present application is to detect whether a tripod is joined, and whether or not the size of the face image of the photographer recognized from the VR image captured by the image capturing unit is larger than a predetermined size. If the determination means and the tripod are joined and the size of the face image of the photographer is larger than a predetermined size, the VR image captured by the image capturing means after a predetermined time has elapsed after receiving the shooting instruction. It is characterized in that it is provided with a generating means for compressing and encoding the above to generate VR moving image data, and a recording means for recording the VR moving image data in a recording medium.

本発明によれば、全方位撮影可能な撮像装置で撮影を行う場合に、撮影開始を指示してから撮像装置から離れた位置に移動するまでの間に、撮影者がアップで撮影されてしまっても、その間の映像が撮影されなかったり、再生されたりしない。よって、撮影者の意図に合った映像を提供できるという効果が得られる。 According to the present invention, in the case of shooting with an imaging device capable of omnidirectional shooting, the photographer is taken a close-up image from the time when the shooting start is instructed to the time when the user moves to a position away from the imaging device. However, the video during that time is not shot or played. Therefore, it is possible to obtain an effect that an image suitable for the photographer's intention can be provided.

カメラ100の一例を示す外観図External view showing an example of the camera 100 カメラ100のハードウエア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of the camera 100 カメラ100が実行する動作の一例を示すフローチャート図The flowchart figure which shows an example of the operation|movement which the camera 100 performs. カメラ100が実行する動作の一例を示すフローチャート図The flowchart figure which shows an example of the operation|movement which the camera 100 performs. カメラ100が実行する動作の一例を示すフローチャート図The flowchart figure which shows an example of operation which the camera 100 performs.

以下に、図面を参照して、この発明の好適な実施の形態を例示的に詳しく説明する。ただし、この実施形態に記載されている構成要素はあくまで例示であり、この発明の範囲をそれらのみに限定する趣旨のものではない。 Hereinafter, preferred embodiments of the present invention will be illustratively described in detail with reference to the drawings. However, the constituent elements described in this embodiment are merely examples, and the scope of the present invention is not intended to be limited thereto.

(第1の実施形態)
まず、図1(a)、(b)に本実施形態の電子機器の一例としてのカメラ100の外観を示す。カメラ100は、レンズ一体型のデジタルカメラである。なお、カメラ100は、一眼レフカメラやミラーレス一眼カメラなどであってもよい。本発明は、広角レンズが取り付けられた各種撮像装置に適用可能である。
(First embodiment)
First, FIGS. 1A and 1B show the appearance of a camera 100 as an example of the electronic device of the present embodiment. The camera 100 is a lens-integrated digital camera. The camera 100 may be a single-lens reflex camera, a mirrorless single-lens camera, or the like. The present invention can be applied to various image pickup devices to which a wide-angle lens is attached.

図1(a)は、カメラ100の前面の外観を示す。表示部141は、撮影画像や各種情報を表示する。表示部141へ表示する画像は撮影準備指示や再生指示に応じて切り替えられる。表示部141の表示面上に設けられたタッチパネル13は、撮影者によるタッチ操作を受け付ける。レリーズボタン11は半押しおよび全押しが可能なスイッチであり、レリーズボタン11の半押しによってカメラ100への撮影準備指示が行われ、レリーズボタン11の全押しによってカメラ100への撮影指示が行われる。レンズ111は広角レンズであり、レンズ111に入射した光束を撮像素子212(図1(A)では不図示)に結像させる。 FIG. 1A shows the appearance of the front surface of the camera 100. The display unit 141 displays a captured image and various information. The image displayed on the display unit 141 can be switched according to a shooting preparation instruction or a reproduction instruction. The touch panel 13 provided on the display surface of the display unit 141 receives a touch operation by the photographer. The release button 11 is a switch that can be pressed halfway and fully. When the release button 11 is half-pressed, the camera 100 is instructed to perform shooting preparation, and when the release button 11 is fully pressed, the camera 100 is instructed to shoot. .. The lens 111 is a wide-angle lens, and forms a light flux incident on the lens 111 on an image sensor 212 (not shown in FIG. 1A).

図1(b)はカメラ100の側面の外観を示す。レンズ101とレンズ111はカメラ100の前後に対に配置されており、レンズ101とレンズ111のそれぞれの画角は280度である。すなわち、レンズ101とレンズ111により360度の画角が満たされる。従って、撮像素子202の撮像素子212のそれぞれにおいて、280度の画角に対応する画像が撮像される。そして、2つの撮像素子202,212で撮像された2つの画像により、360度の画角に対応するVR画像が構成される。そして、三脚120は、カメラ100の底面に設けられた接合部に接合される。 FIG. 1B shows the external appearance of the side surface of the camera 100. The lens 101 and the lens 111 are arranged in a pair in front of and behind the camera 100, and the angle of view of each of the lens 101 and the lens 111 is 280 degrees. That is, the angle of view of 360 degrees is satisfied by the lenses 101 and 111. Therefore, an image corresponding to an angle of view of 280 degrees is captured by each of the image pickup elements 212 of the image pickup element 202. Then, the two images picked up by the two image pickup devices 202 and 212 form a VR image corresponding to the angle of view of 360 degrees. Then, the tripod 120 is joined to the joining portion provided on the bottom surface of the camera 100.

撮像素子202,212により、VR画像が撮像される。VR画像とは、VR表示をすることのできる画像であるものとする。VR画像には、全方位カメラ(全天球カメラ)で撮像した全方位画像(全天球画像)や、表示手段に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つパノラマ画像などが含まれるものとする。VR画像には、静止画だけでなく、動画やライブビュー画像(カメラからほぼリアルタイムで取得した画像)も含まれる。VR画像は、最大で上下方向(垂直角度、天頂からの角度、仰角、俯角、高度角)360度、左右方向(水平角度、方位角度)360度の視野分の映像範囲(有効映像範囲)を持つ。また、VR画像は、上下360度未満、左右360度未満であっても、通常のカメラで撮影可能な画角よりも広い広範な画角(視野範囲)、あるいは、表示手段に一度に表示できる表示範囲より広い映像範囲(有効映像範囲)を持つ画像も含むものとする。例えば、左右方向(水平角度、方位角度)360度、天頂(zenith)を中心とした垂直角度210度の視野分(画角分)の被写体を撮影可能な全天球カメラで撮影された画像はVR画像の一種である。また、例えば、左右方向(水平角度、方位角度)280度、水平方向を中心とした垂直角度280度の視野分(画角分)の被写体を撮影可能なカメラで撮影された画像はVR画像の一種である。すなわち、上下方向と左右方向にそれぞれ260度(±80度)以上の視野分の映像範囲を有しており、人間が一度に視認できる範囲よりも広い映像範囲を有している画像はVR画像の一種である。このVR画像をVR表示すると、左右回転方向に表示手段の姿勢を変化させることで、左右方向(水平回転方向)には継ぎ目のない全方位の映像を視聴することができる。上下方向(垂直回転方向)には、真上(天頂)から見て±205度の範囲では継ぎ目のない全方位の映像を視聴することができるが、真上から205度を超える範囲は映像が存在しないブランク領域となる。VR画像は、「映像範囲が仮想空間(VR空間)の少なくとも一部である画像」とも言える。 A VR image is captured by the image capturing elements 202 and 212. The VR image is an image that can be displayed in VR. The VR image is an omnidirectional image (omnidirectional image) captured by an omnidirectional camera (omnidirectional camera), or a panoramic image having a wider image range (effective image range) than the display range that can be displayed on the display unit at one time. Etc. shall be included. The VR image includes not only still images but also moving images and live view images (images obtained from the camera in almost real time). The VR image has an image range (effective image range) of 360 degrees in the vertical direction (vertical angle, angle from zenith, elevation angle, depression angle, altitude angle) and 360 degrees in the horizontal direction (horizontal angle, azimuth angle) at the maximum. To have. Further, even if the VR image is less than 360 degrees in the vertical direction and less than 360 degrees in the horizontal direction, the VR image can be displayed in a wide field angle (viewing range) wider than the field angle that can be captured by a normal camera, or can be displayed at once on the display means. Images with a wider video range (effective video range) than the display range are also included. For example, an image taken by a omnidirectional camera capable of shooting a subject in a field of view (angle of view) of 360 degrees in the left-right direction (horizontal angle, azimuth angle) and a vertical angle of 210 degrees centered on the zenith (zenith) is It is a type of VR image. Further, for example, an image captured by a camera capable of capturing a subject having a field of view (view angle) of 280 degrees in the left-right direction (horizontal angle, azimuth angle) and a vertical angle of 280 degrees centered on the horizontal direction is a VR image. It is a kind. That is, an image that has a visual range of 260 degrees (±80 degrees) or more in each of the vertical direction and the horizontal direction and that has a wider visual range than a human can visually recognize at once is a VR image. Is a kind of. When this VR image is VR-displayed, by changing the attitude of the display unit in the left-right rotation direction, it is possible to view an omnidirectional video image that is seamless in the left-right direction (horizontal rotation direction). In the up-down direction (vertical rotation direction), you can watch a seamless omnidirectional image within a range of ±205 degrees when viewed from directly above (zenith), but the image is visible in a range that exceeds 205 degrees from directly above. It is a blank area that does not exist. The VR image can also be said to be an “image in which the video range is at least a part of the virtual space (VR space)”.

VR表示とは、VR画像のうち、表示手段の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法である。表示手段であるヘッドマウントディスプレイ(HMD)を装着して視聴する場合には、ユーザの顔の向きに応じた視野範囲の映像を表示することになる。例えば、VR画像のうち、ある時点で左右方向に0度(特定の方位、例えば北)、上下方向に90度(天頂から90度、すなわち水平)を中心とした視野角(画角)の映像を表示しているものとする。この状態から、表示手段の姿勢を表裏反転させると(例えば、表示面を南向きから北向きに変更すると)、同じVR画像のうち、左右方向に280度(逆の方位、例えば南)、上下方向に90度(水平)を中心とした視野角の映像に、表示範囲が変更される。ユーザがHMDを視聴している場合で言えば、ユーザが顔を北から南に向ければ(すなわち後ろを向けば)、HMDに表示される映像も北の映像から南の映像に変わるということである。このようなVR表示によって、ユーザに、視覚的にあたかもVR画像内(VR空間内)のその場にいるような感覚を提供することができる。VRゴーグル(ヘッドマウントアダプター)に装着されたスマートフォンは、HMDの一種と言える。姿勢の変化ではなく、タッチパネルや方向ボタンなどに対するユーザ操作に応じて、表示範囲を移動(スクロール)させてもよい。 The VR display is a display method capable of changing the display range, in which an image in a visual field range corresponding to the attitude of the display means is displayed in the VR image. When a head mounted display (HMD), which is a display unit, is attached and viewed, an image in a visual field range corresponding to the direction of the user's face is displayed. For example, in a VR image, an image with a viewing angle (angle of view) centered at 0° in a horizontal direction (a specific azimuth, for example, north) and 90° in a vertical direction (90° from the zenith, that is, horizontal) at a certain point in time. Is displayed. From this state, if the posture of the display means is reversed upside down (for example, if the display surface is changed from southward to northward), 280 degrees (reverse azimuth, for example, south) of the same VR image is displayed vertically. The display range is changed to an image with a viewing angle centered at 90 degrees (horizontal) in the direction. In the case where the user is watching the HMD, if the user turns his face from north to south (that is, if he faces back), the image displayed on the HMD will change from the image in the north to the image in the south. is there. With such a VR display, the user can be visually provided with a feeling as if he/she were in the VR image (in the VR space). A smartphone equipped with VR goggles (head mount adapter) can be said to be a type of HMD. The display range may be moved (scrolled) according to a user operation on the touch panel, direction buttons, or the like, instead of the change in posture.

なお、表示部141は、カメラ100とは別体の装置であってもよい。例えば、表示部141は、カメラ100とは別体のスマートフォンなどに設けられてもよい。この場合、VR画像を撮影して記録する電子機器と、VR画像を再生する電子機器は別体の装置によって実現される。 The display unit 141 may be a device separate from the camera 100. For example, the display unit 141 may be provided on a smartphone or the like that is separate from the camera 100. In this case, the electronic device that captures and records the VR image and the electronic device that reproduces the VR image are realized by separate devices.

次に、図2を参照してカメラ100のハードウエア構成の一例を説明する。なお、図2では、各機能を構成要素として分けて示しているが、各機能は1つまたは複数のASICやプログラマブルロジックアレイ(PLA)等のハードウェアによって実現されてもよい。また、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって各機能が実現されてもよい。 Next, an example of the hardware configuration of the camera 100 will be described with reference to FIG. In FIG. 2, each function is shown as a separate component, but each function may be implemented by hardware such as one or more ASICs or programmable logic arrays (PLA). Each function may be realized by executing software by a programmable processor such as a CPU or MPU.

レンズ101は絞り機構を含む単焦点レンズであり、レンズ101の焦点位置はパンフォーカスとなっている。 The lens 101 is a single focus lens including a diaphragm mechanism, and the focus position of the lens 101 is pan focus.

撮像素子202は、光電変換素子を含む複数の画素が2次元配列された構成を有する。撮像素子202は、レンズ101を含む撮影光学系により形成された被写体像(光学像)を画素ごとに光電変換、つまりは撮像してアナログ信号を生成し、これをA/D変換回路によりデジタル信号に変換して画素単位のRAW画像データを出力する。 The image sensor 202 has a configuration in which a plurality of pixels including photoelectric conversion elements are two-dimensionally arranged. The image pickup element 202 photoelectrically converts, that is, picks up an object image (optical image) formed by a photographing optical system including the lens 101 for each pixel, generates an analog signal, and a digital signal is generated by an A/D conversion circuit. And outputs RAW image data in pixel units.

メモリI/F部206は、撮像素子202から出力された全画素分のRAW画像データをメモリ207へ書き込む。また、メモリI/F部206は、メモリ207に保持されたRAW画像データを読み出して画像処理部208に出力する。メモリ207は、数フレーム分の全画素RAW画像データを格納する揮発性の記録媒体である。 The memory I/F unit 206 writes the RAW image data for all pixels output from the image sensor 202 into the memory 207. The memory I/F unit 206 also reads the RAW image data stored in the memory 207 and outputs it to the image processing unit 208. The memory 207 is a volatile recording medium that stores all pixel RAW image data for several frames.

画像処理部208は、メモリI/F部216からの全画素分のRAW画像データに対してガンマ補正、色分離、色差マトリクス等の処理を施し、同期信号を加えて記録用または表示用の映像データとして出力する。また、画像処理部208は、画像処理部208に入力されたRAW画像データの各画素の輝度値から測光値を得て、バス121を経由してカメラ制御部220へ提供する。 The image processing unit 208 performs processing such as gamma correction, color separation, and color difference matrix on the RAW image data for all pixels from the memory I/F unit 216, adds a synchronization signal, and records or displays an image. Output as data. The image processing unit 208 also obtains a photometric value from the brightness value of each pixel of the RAW image data input to the image processing unit 208, and provides the photometric value to the camera control unit 220 via the bus 121.

レンズ111、撮像素子212、メモリI/F部216、メモリ217、及び、画像処理部218は、レンズ101、撮像素子202、メモリI/F部206、メモリ207、及び、画像処理部208と同様の機能を有する。レンズ111、撮像素子212、メモリI/F部216、メモリ217、及び、画像処理部218によって、レンズ101、撮像素子202、メモリI/F部206、メモリ207、及び、画像処理部208と同様の処理が行われる。 The lens 111, the image sensor 212, the memory I/F unit 216, the memory 217, and the image processing unit 218 are the same as the lens 101, the image sensor 202, the memory I/F unit 206, the memory 207, and the image processing unit 208. It has the function of. The lens 111, the image pickup device 212, the memory I/F unit 216, the memory 217, and the image processing unit 218 are the same as the lens 101, the image pickup device 202, the memory I/F unit 206, the memory 207, and the image processing unit 208. Is processed.

カメラ制御部220は、CPUなどで構成され、カメラ100の動作全体を制御する。RAM260は、カメラ制御部220の作業領域(ワークメモリ)として使用される。RAM260には、カメラ制御部220の動作用の定数や変数が記録されたり、プログラム等が展開されたりする。ROM280は、カメラ制御部220が動作するためのコンピュータプログラム等を記憶する。例えば、カメラ制御部220は、ROM280に格納されたコンピュータプログラムをRAM260に展開して実行することにより、カメラ100の動作全体を制御する。 The camera control unit 220 includes a CPU and controls the overall operation of the camera 100. The RAM 260 is used as a work area (work memory) of the camera control unit 220. In the RAM 260, constants and variables for the operation of the camera control unit 220 are recorded, and programs and the like are expanded. The ROM 280 stores a computer program and the like for operating the camera control unit 220. For example, the camera control unit 220 controls the entire operation of the camera 100 by expanding the computer program stored in the ROM 280 into the RAM 260 and executing the computer program.

ゲイン制御部203、シャッタ制御部204、及び、絞り制御部205は、露出制御のために使用される。カメラ制御部220は、画像処理部208および画像処理部218から提供される測光値、あるいはユーザがマニュアル設定した動作パラメータに基づき、上記制御部203〜205を制御する。ゲイン制御部203は、撮像素子202および撮像素子212のゲインを制御する。シャッタ制御部204は、撮像素子202および撮像素子212のシャッタスピードを制御する。絞り制御部205は、レンズ101の絞り機構やレンズ111の絞り機構を制御する。 The gain control unit 203, the shutter control unit 204, and the aperture control unit 205 are used for exposure control. The camera control unit 220 controls the control units 203 to 205 based on the photometric value provided from the image processing unit 208 and the image processing unit 218 or the operation parameter manually set by the user. The gain controller 203 controls the gains of the image sensor 202 and the image sensor 212. The shutter control unit 204 controls the shutter speed of the image sensor 202 and the image sensor 212. The diaphragm control unit 205 controls the diaphragm mechanism of the lens 101 and the lens mechanism of the lens 111.

記録媒体I/F部230は、記録媒体231をカメラ100に接続するためのインタフェースである。記録媒体I/F部230は、画像処理部208や画像処理部218やGPU242から入力された映像データを記録媒体231に記録したり、記録された映像データを記録媒体231から読み出したりする。記録媒体231は、半導体メモリ等で構成されている。 The recording medium I/F unit 230 is an interface for connecting the recording medium 231 to the camera 100. The recording medium I/F unit 230 records the video data input from the image processing unit 208, the image processing unit 218, or the GPU 242 in the recording medium 231, and reads the recorded video data from the recording medium 231. The recording medium 231 is composed of a semiconductor memory or the like.

表示用I/F部240は、画像処理部208および画像処理部218からの映像データや、GPU242によってVRAM(Video RAM)243に描画された画像データを表示部141に出力する。表示部141に表示される画像は、おもに撮影者による撮影画像確認に用いられる。 The display I/F unit 240 outputs to the display unit 141 the video data from the image processing unit 208 and the image processing unit 218 and the image data drawn in the VRAM (Video RAM) 243 by the GPU 242. The image displayed on the display unit 141 is mainly used by the photographer for confirming the captured image.

GPU242は、カメラ制御部220からの指示にもとづき、画像処理部208および画像処理部218から出力された映像データを画像変換処理および画像切り出し処理、拡大処理、歪み補正等を行いVRAM243へ描画するレンダリングエンジンである。また、GPU242は、カメラ100の各種情報表示やメニュー画面をVRAM243に重畳描画する処理も行う。前述したタッチパネルボタン14はGUI(Graphic User Interface)としてGPU242によって描画され表示用I/F部240を経由して表示部141に表示される。 Based on an instruction from the camera control unit 220, the GPU 242 performs image conversion processing, image cutout processing, enlargement processing, distortion correction, and the like on the video data output from the image processing unit 208 and the image processing unit 218, and rendering to the VRAM 243. It is an engine. The GPU 242 also performs a process of displaying various information of the camera 100 and a menu screen on the VRAM 243 in a superimposed manner. The touch panel button 14 described above is drawn by the GPU 242 as a GUI (Graphical User Interface) and is displayed on the display unit 141 via the display I/F unit 240.

通信用I/F部250は、通信部251を経由してカメラ100の外部にある不図示のスマートフォンおよびPCなどと接続し、表示部141で表示される画像データをそれらに転送する。また、通信用I/F部250は、スマートフォンやPCなどからカメラ100に対する制御指令などを受信し、カメラ制御部220へ通知する。通信部251は無線通信を行う無線LANインタフェースであり、通信用I/F部250が行う通信のハードウェア処理を行う。 The communication I/F unit 250 connects to a smartphone and a PC (not shown) outside the camera 100 via the communication unit 251, and transfers the image data displayed on the display unit 141 to them. The communication I/F unit 250 also receives a control command or the like for the camera 100 from a smartphone, a PC, or the like and notifies the camera control unit 220 of the control command. The communication unit 251 is a wireless LAN interface that performs wireless communication, and performs hardware processing of communication performed by the communication I/F unit 250.

レリーズボタン11、ボタン12、及び、タッチパネル13は前述の機能を備え、操作に応じた操作情報(撮影準備指示、撮影指示、表示範囲の選択指示、等)をIOコントローラ270へ出力する。IOコントローラ270は、各種操作部からの操作情報をカメラ制御部220へ出力し、カメラ制御部220は、IOコントローラ270からの操作情報に応じた処理を行う。例えば、タッチパネル13は、表示部141に重ねられており、タッチ操作が行われた位置や領域の座標情報などを含む操作情報を出力する。 The release button 11, the button 12, and the touch panel 13 have the above-described functions, and output operation information (shooting preparation instruction, shooting instruction, display range selection instruction, etc.) according to the operation to the IO controller 270. The IO controller 270 outputs operation information from various operation units to the camera control unit 220, and the camera control unit 220 performs processing according to the operation information from the IO controller 270. For example, the touch panel 13 is overlaid on the display unit 141 and outputs operation information including coordinate information of a position or area where a touch operation is performed.

三脚接合センサ290は、カメラ100の底面の接合部に三脚が接合されたことを検知する。カメラ制御部220は、撮影開始時に、三脚接合センサ290により三脚120がカメラ100の接合部に接合されたことが検知されれば、そのことを示す情報を撮影により得られたVR画像データに関連付けて記録媒体231に記録するように制御する。 The tripod joining sensor 290 detects that the tripod is joined to the joining portion on the bottom surface of the camera 100. When the tripod joint sensor 290 detects that the tripod 120 is joined to the joint portion of the camera 100 at the start of photographing, the camera control unit 220 associates information indicating that with the VR image data obtained by photographing. The recording medium 231 is controlled to be recorded.

図3に、本実施形態におけるカメラ100の動作のフローチャートを示す。このフローチャートにおける各処理は、カメラ制御部220がROM280に記録されたプログラムをRAM260に展開して実行するにより実現される。図3のフローチャートは、例えば、カメラ100に電源が投入され、撮影モードが設定されたことに応じて開始される。 FIG. 3 shows a flowchart of the operation of the camera 100 in this embodiment. Each process in this flowchart is realized by the camera control unit 220 loading a program recorded in the ROM 280 into the RAM 260 and executing the program. The flowchart of FIG. 3 starts, for example, when the camera 100 is powered on and the shooting mode is set.

カメラ制御部220は、画像処理部208から出力された映像データを取得する(S301)。カメラ制御部220は、ユーザのレリーズボタン11への指示に応答して、VR動画記録開始指示を受け付ける(S302でYes)。カメラ制御部220は、三脚接合センサ290により三脚120がカメラ100に接合されたことが検知されれば(S303でYes)、映像データから人物の顔を検出する。カメラ制御部220は、検出された人物の顔画像の特徴量が予め登録された撮影者の顔画像の特徴量と一致し、撮影者と認識された顔画像の領域が所定のサイズ以上であれば(S304でYes)、タイマーカウントを開始する(S305)。カメラ制御部220は、タイマーカウントが所定時間を経過すれば(S306でYes)、映像データを動画圧縮符号化処理してVR動画データを生成し(S307)、記録媒体に記録する(S308)。そして、カメラ制御部220は、タイマーカウントが所定時間を経過するまでは(S306でNo)、VR動画データの記録は行わないように制御する。一方、三脚120がカメラ100に接合されなかったり(S303でNo)、撮影者の顔画像が認識されなかったり、撮影者の顔画像が所定のサイズより小さかった場合(S304でNo)、カメラ制御部220は、動画記録開始指示に応答して直ちにS307やS308の処理を実行する。そして、カメラ制御部220は、動画撮影モードの終了が検知されるまで(S309でNo)、S307およびS308の処理を繰り返す。 The camera control unit 220 acquires the video data output from the image processing unit 208 (S301). The camera control unit 220 receives the VR moving image recording start instruction in response to the user's instruction to the release button 11 (Yes in S302). When the tripod joining sensor 290 detects that the tripod 120 is joined to the camera 100 (Yes in S303), the camera control unit 220 detects a person's face from the video data. The camera control unit 220 determines that the feature amount of the detected face image of the person matches the feature amount of the face image of the photographer registered in advance, and the area of the face image recognized as the photographer has a predetermined size or more. If (Yes in S304), the timer count is started (S305). When the timer count has passed the predetermined time (Yes in S306), the camera control unit 220 subjects the video data to the moving image compression encoding process to generate VR moving image data (S307), and records the VR moving image data in the recording medium (S308). Then, the camera control unit 220 controls not to record the VR moving image data until the timer count reaches the predetermined time (No in S306). On the other hand, if the tripod 120 is not joined to the camera 100 (No in S303), the face image of the photographer is not recognized, or the face image of the photographer is smaller than a predetermined size (No in S304), camera control is performed. The unit 220 immediately executes the processes of S307 and S308 in response to the moving image recording start instruction. Then, the camera control unit 220 repeats the processing of S307 and S308 until the end of the moving image shooting mode is detected (No in S309).

本実施形態によれば、VR動画データのうち撮影者が大きく写ってしまった後、撮影者が正しい位置に移動してからVR動画データの記録を開始するので、撮影者が意図しない部分が記録されず、再生されなくなる。 According to the present embodiment, since the VR moving image data starts to be recorded after the photographer moves to the correct position after the photographer has been largely captured, the portion not intended by the photographer is recorded. Not be played.

(第2の実施形態)
図4に、本実施形態におけるカメラ100の動作のフローチャートを示す。このフローチャートにおける各処理は、カメラ制御部220がROM280に記録されたプログラムをRAM260に展開して実行するにより実現される。図4のフローチャートは、例えば、カメラ100に電源が投入され、再生モードが設定されたことに応じて開始される。
(Second embodiment)
FIG. 4 shows a flowchart of the operation of the camera 100 in this embodiment. Each process in this flowchart is realized by the camera control unit 220 loading a program recorded in the ROM 280 into the RAM 260 and executing the program. The flowchart of FIG. 4 starts, for example, when the camera 100 is powered on and the reproduction mode is set.

カメラ制御部220は、記録媒体231に記憶された複数のVR動画データのうちいずれか1つを再生対象として、ユーザの操作にしたがって選択する(S401)。そして、再生開始指示を受け付けると(S402でYes)、動画データの先頭位置を再生開始位置の初期値として設定する(S403)。カメラ制御部220は、選択されたVR動画データの撮影時に、三脚120がカメラ100に接合されていたかどうかを判定する。ここで、VR動画データの撮影時に、三脚120がカメラ100の底面に設けられた接合部に接合され、三脚接合センサ290により検知されていれば、そのことを示す属性情報がVR動画データに関連付けられて記録媒体231に記録されている。 The camera control unit 220 selects any one of the plurality of VR moving image data stored in the recording medium 231 as a reproduction target and selects it according to a user operation (S401). When the reproduction start instruction is received (Yes in S402), the start position of the moving image data is set as the initial value of the reproduction start position (S403). The camera control unit 220 determines whether the tripod 120 is joined to the camera 100 at the time of shooting the selected VR moving image data. Here, if the tripod 120 is joined to the joining portion provided on the bottom surface of the camera 100 at the time of shooting the VR moving image data and is detected by the tripod joining sensor 290, the attribute information indicating that is associated with the VR moving image data. And is recorded on the recording medium 231.

選択されたVR動画データの撮影時に、三脚120がカメラ100に接合されていれば(S404でYes)、VR動画データの先頭フレームから人物の顔を検出する。カメラ制御部220は、検出された人物の顔画像の特徴量が予め登録された撮影者の顔画像の特徴量と一致し、撮影者と認識された顔画像の領域が所定のサイズ以上であれば(S405でYes)、再生開始位置に所定時間を加算する(S406)。カメラ制御部220は、設定された再生開始位置から、VR動画データを再生する(S407)。そして、カメラ制御部220は、再生モードの終了が検知されるまで(S408でNo)、S407の処理を繰り返す。 When the tripod 120 is joined to the camera 100 at the time of shooting the selected VR moving image data (Yes in S404), the face of the person is detected from the first frame of the VR moving image data. The camera control unit 220 determines that the feature amount of the detected face image of the person matches the feature amount of the face image of the photographer registered in advance, and the area of the face image recognized as the photographer has a predetermined size or more. If (Yes in S405), a predetermined time is added to the reproduction start position (S406). The camera control unit 220 reproduces the VR moving image data from the set reproduction start position (S407). Then, the camera control unit 220 repeats the processing of S407 until the end of the reproduction mode is detected (No in S408).

なお、所定時間は、撮影者が正しい位置に移動するのに十分な時間として予め定められた時間である。また、所定時間は、VR動画データのフレームに含まれる撮影者の顔画像の領域が所定のサイズより小さくなるまでの時間であってもよい。 It should be noted that the predetermined time is a time predetermined as a time sufficient for the photographer to move to the correct position. The predetermined time may be the time until the area of the face image of the photographer included in the frame of the VR moving image data becomes smaller than the predetermined size.

本実施形態によれば、VR動画データのうち撮影者が大きく写ってしまった後、撮影者が正しい位置に移動して撮影された部分から再生を開始するので、撮影者が意図しない部分が再生されなくなる。 According to the present embodiment, since the photographer moves to the correct position and the reproduction is started from the portion photographed after the photographer largely appears in the VR moving image data, the portion not intended by the photographer is reproduced. It will not be done.

(第3の実施形態)
図5に、本実施形態におけるカメラ100の動作のフローチャートを示す。このフローチャートにおける各処理は、カメラ制御部220がROM280に記録されたプログラムをRAM260に展開して実行するにより実現される。図5のフローチャートは、例えば、カメラ100に電源が投入され、再生モードが設定されたことに応じて開始される。また、図4と同様の動作については同じ符号を付与し、説明を省略する。
(Third Embodiment)
FIG. 5 shows a flowchart of the operation of the camera 100 in this embodiment. Each process in this flowchart is realized by the camera control unit 220 loading a program recorded in the ROM 280 into the RAM 260 and executing the program. The flowchart of FIG. 5 starts, for example, when the camera 100 is powered on and the reproduction mode is set. Further, the same operations as those in FIG. 4 are denoted by the same reference numerals, and the description thereof will be omitted.

カメラ制御部220は、選択されたVR動画データのうち先頭から所定時間までの部分を削除し(S501)、VR動画データを更新して記録媒体231に記録する(S502)。 The camera control unit 220 deletes the portion from the beginning to the predetermined time of the selected VR moving image data (S501), updates the VR moving image data, and records it on the recording medium 231 (S502).

なお、所定時間は、撮影者が正しい位置に移動するのに十分な時間として予め定められた時間である。また、所定時間は、VR動画データのフレームに含まれる撮影者の顔画像の領域が所定のサイズより小さくなるまでの時間であってもよい。 It should be noted that the predetermined time is a time predetermined as a time sufficient for the photographer to move to the correct position. The predetermined time may be the time until the area of the face image of the photographer included in the frame of the VR moving image data becomes smaller than the predetermined size.

本実施形態によれば、撮影者が大きく写ってしまった部分を削除してVR動画データを記録し直すので、撮影者が意図しない部分が再生されなくなる。 According to the present embodiment, since the VR moving image data is re-recorded by deleting the portion in which the photographer is largely captured, the portion not intended by the photographer is not reproduced.

(他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or a recording medium, and one or more processors in a computer of the system or apparatus read and execute the program. It can also be realized by the processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (5)

三脚が接合されたことを検出する検出手段と、
撮像手段によって撮像されたVR画像から認識された撮影者の顔画像のサイズが所定のサイズより大きいかどうかを判定する判定手段と、
前記三脚が接合され、前記撮影者の顔画像のサイズが所定のサイズより大きければ、撮影指示を受け付けてから所定の時間が経過してから撮像手段によって撮像されたVR画像を圧縮符号化処理してVR動画データを生成する生成手段と、
前記VR動画データを記録媒体に記録する記録手段を備えたことを特徴とする電子機器。
Detection means for detecting that the tripod has been joined,
Determination means for determining whether or not the size of the face image of the photographer recognized from the VR image captured by the image capturing means is larger than a predetermined size;
When the tripod is joined and the size of the face image of the photographer is larger than a predetermined size, the VR image captured by the image capturing means is compression-encoded after a predetermined time has elapsed after receiving the capturing instruction. Generating means for generating VR moving image data by
An electronic device comprising recording means for recording the VR moving image data on a recording medium.
再生対象のVR動画の撮影時に、撮像装置に三脚が接合されていたことを検出する検出手段と、
前記VR動画から認識された撮影者の顔画像のサイズが所定のサイズより大きいかどうかを判定する判定手段と、
前記三脚が接合され、前記撮影者の顔画像のサイズが所定のサイズより大きければ、先頭から所定の時間が経過した位置からVR動画を再生する再生手段を備えたことを特徴とする電子機器。
A detection means for detecting that the tripod is joined to the image pickup device at the time of shooting the VR moving image to be played back;
Determination means for determining whether or not the size of the face image of the photographer recognized from the VR moving image is larger than a predetermined size;
An electronic device comprising: a reproduction unit that reproduces a VR moving image from a position where a predetermined time has elapsed from the beginning when the size of the face image of the photographer is larger than a predetermined size when the tripod is joined.
再生対象のVR動画の撮影時に、撮像装置に三脚が接合されていたことを検出する検出手段と、
前記VR動画から認識された撮影者の顔画像のサイズが所定のサイズより大きいかどうかを判定する判定手段と、
前記三脚が接合され、前記撮影者の顔画像のサイズが所定のサイズより大きければ、先頭から所定の時間が経過した位置までの部分を前記VR動画から削除する削除手段を備えたことを特徴とする電子機器。
A detection means for detecting that the tripod is joined to the image pickup device at the time of shooting the VR moving image to be played back;
Determination means for determining whether or not the size of the face image of the photographer recognized from the VR moving image is larger than a predetermined size;
When the tripod is joined and the size of the face image of the photographer is larger than a predetermined size, a deletion unit for deleting a portion from the beginning to a position where a predetermined time has elapsed from the VR moving image is provided. Electronic equipment to do.
前記所定の時間は予め定められた時間または、前記VR動画において前記撮影者の顔画像のサイズが所定のサイズより小さくなるまでの時間であることを特徴とする請求項2または3に記載の電子機器。 The electronic device according to claim 2, wherein the predetermined time period is a predetermined time period or a time period until the size of the face image of the photographer becomes smaller than a predetermined size in the VR moving image. machine. コンピュータを請求項1乃至4のいずれか一項に記載の電子機器の各手段として機能させるプログラム。 A program that causes a computer to function as each unit of the electronic device according to claim 1.
JP2018219110A 2018-11-22 2018-11-22 Electronic device and program Pending JP2020088559A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018219110A JP2020088559A (en) 2018-11-22 2018-11-22 Electronic device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219110A JP2020088559A (en) 2018-11-22 2018-11-22 Electronic device and program

Publications (1)

Publication Number Publication Date
JP2020088559A true JP2020088559A (en) 2020-06-04

Family

ID=70909091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219110A Pending JP2020088559A (en) 2018-11-22 2018-11-22 Electronic device and program

Country Status (1)

Country Link
JP (1) JP2020088559A (en)

Similar Documents

Publication Publication Date Title
US8525894B2 (en) Camera and camera control method
JP4957759B2 (en) Imaging apparatus and imaging method
JP4356621B2 (en) Imaging apparatus and imaging method
US20140204234A1 (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
JP7000050B2 (en) Imaging control device and its control method
JP6529533B2 (en) Imaging device, control method of imaging device, and program
US11843852B2 (en) Imaging apparatus for generating image from first image corresponding to first field of view and second image corresponding to second field of view
JP2010081260A (en) Imaging apparatus and program therefor
JP6312426B2 (en) Imaging apparatus and control method thereof
US11622175B2 (en) Electronic apparatus and control method thereof
JP2016063244A (en) Imaging apparatus and image display control method
JP2020204874A (en) Image processing system, imaging system, image processing apparatus, imaging apparatus and program
JP7350510B2 (en) Electronic equipment, electronic equipment control method, program, and storage medium
JP2005073161A (en) Processing apparatus and image recording method
JP2020088559A (en) Electronic device and program
JP2012151708A (en) Imaging device
JP2001211360A (en) Video camera
JP6256298B2 (en) IMAGING DEVICE, ITS CONTROL METHOD AND PROGRAM
JP6551496B2 (en) Image pickup apparatus, control method thereof and program
JP2009194498A (en) Imaging apparatus, imaging system, and imaging method
JP2017085338A (en) Imaging apparatus, control method, and program
JP6824061B2 (en) Imaging apparatus, control methods, programs, and storage media executed by the imaging apparatus.
JP2017079395A (en) Composite image creation device
JP2014131150A (en) Image display device and image display method
JP5731087B1 (en) Image processing apparatus, display apparatus, image processing method, and program