JP7353821B2 - Image processing device, its control method, program - Google Patents

Image processing device, its control method, program Download PDF

Info

Publication number
JP7353821B2
JP7353821B2 JP2019116527A JP2019116527A JP7353821B2 JP 7353821 B2 JP7353821 B2 JP 7353821B2 JP 2019116527 A JP2019116527 A JP 2019116527A JP 2019116527 A JP2019116527 A JP 2019116527A JP 7353821 B2 JP7353821 B2 JP 7353821B2
Authority
JP
Japan
Prior art keywords
front direction
discomfort
information
image
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019116527A
Other languages
Japanese (ja)
Other versions
JP2021002803A (en
Inventor
光太郎 北島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019116527A priority Critical patent/JP7353821B2/en
Publication of JP2021002803A publication Critical patent/JP2021002803A/en
Application granted granted Critical
Publication of JP7353821B2 publication Critical patent/JP7353821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、画像処理装置に関し、特に広視野角にわたる画像を処理する技術に関するものである。 The present invention relates to an image processing device, and particularly to a technique for processing images over a wide viewing angle.

近年、全方位画像に代表される、従来のカメラで撮影される画角よりも広い画角で撮影された撮影された画像をHMD(Head Mounted Display)で視認することが行われている。全方位画像とは、全方位カメラや魚眼レンズを用いたカメラなどを用いたカメラによって撮影された、水平・垂直方向に360度の全範囲を画角内に収めた画像である。 2. Description of the Related Art In recent years, it has become common practice to view captured images, such as omnidirectional images, captured at a wider angle of view than that captured by a conventional camera using an HMD (Head Mounted Display). An omnidirectional image is an image captured by a camera using an omnidirectional camera, a camera using a fisheye lens, or the like, and which covers the entire range of 360 degrees in the horizontal and vertical directions within the angle of view.

例えば、特許文献1では、全方位カメラで撮影した全方位パノラマ画像を、仮想的な3次元球体の内壁に張り付けることで仮想的な空間を生成し、生成した仮想空間の所望の場所をHMDで視認する技術が開示されている。 For example, in Patent Document 1, a virtual space is generated by pasting an omnidirectional panoramic image taken with an omnidirectional camera on the inner wall of a virtual three-dimensional sphere, and a desired location in the generated virtual space is displayed on an HMD. A technology for visual recognition has been disclosed.

また、特許文献1では、HMDでユーザが視認する際に、撮影画像のどの方位の画像を初期方向(正面方向)として出すのかを設定することについても開示されており、カメラの正面方向を、HMD視認時の正面方向として設定することが一般的であるとされている。 Furthermore, Patent Document 1 also discloses setting which direction of the photographed image is displayed as the initial direction (front direction) when the user visually confirms the image using the HMD. It is said that it is common to set this as the front direction when viewing the HMD.

特開2017-208809号公報Japanese Patent Application Publication No. 2017-208809

しかしながら、例えばカメラを移動しながら撮影した動画をHMDなどで視聴する場合、視聴時のユーザにとっての正面方向と、カメラの移動の進行方向がずれていると、ユーザは不快感を生じやすくなる。 However, for example, when viewing a video shot while moving the camera on an HMD or the like, if the front direction for the user at the time of viewing is misaligned with the direction in which the camera is moving, the user is likely to feel uncomfortable.

本発明に係る画像処理装置の1つは、広視野角の動画を取得する動画取得手段と、前記動画取得手段により取得された動画を再生する際の基準方向となる正面方向を特定する正面方向特定手段と、前記動画取得手段により取得された動画の動き情報を取得する動き情報取得手段と、前記動き情報取得手段により取得された動き情報に基づき、前記動画の進行方向を特定する進行方向特定手段と、前記正面方向特定手段により特定された正面方向と、進行方向特定手段により特定された進行方向との差に基づき、不快度を示す情報を算出する算出手段と、前記不快度を示す情報が所定の閾値より大きい場合、所定の警告情報を出力する出力手段と、を有し、前記不快度を示す情報は、前記正面方向特定手段で特定した正面方向と、前記進行方向特定手段で特定された進行方向の差が大きいほど大きくなることを特徴とするOne of the image processing devices according to the present invention includes a video acquisition unit that acquires a video with a wide viewing angle, and a front direction that specifies a front direction that is a reference direction when playing the video acquired by the video acquisition unit. identifying means; a motion information acquisition means for acquiring motion information of the video acquired by the video acquisition means; and a traveling direction identification for determining the traveling direction of the video based on the motion information acquired by the motion information acquisition means. means, a calculating means for calculating information indicating a degree of discomfort based on a difference between the front direction specified by the front direction specifying means and the traveling direction specified by the direction specifying means, and information indicating the degree of discomfort. is larger than a predetermined threshold , output means outputs predetermined warning information , and the information indicating the degree of discomfort includes a front direction specified by the front direction specifying means and a forward direction specified by the traveling direction specifying means. The larger the difference in the direction of travel, the larger the difference .

本発明により、広視野角の画像を視聴するユーザの不快感を低減させることができる。 Advantageous Effects of Invention According to the present invention, it is possible to reduce the discomfort of a user who views images with a wide viewing angle.

本発明におけるデジタルカメラの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a digital camera according to the present invention. 本発明における画像処理部の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of an image processing section in the present invention. 本発明における動き情報を示すブロック図である。FIG. 3 is a block diagram showing motion information in the present invention. 本発明における撮影時の警告制御フローを示す図である。FIG. 3 is a diagram showing a warning control flow during photographing according to the present invention. 本発明における不快度算出のための特性を示す図である。It is a figure showing the characteristic for discomfort level calculation in the present invention. 本発明における撮影時の警告例を示す図である。It is a figure which shows the example of a warning at the time of photography in this invention. 本発明における再生時の画像選択制御フローを示す図である。FIG. 3 is a diagram showing an image selection control flow during playback in the present invention. 本発明における再生時の画像選択例を示す図である。FIG. 6 is a diagram showing an example of image selection during playback in the present invention. 本発明における正面方向編集時の制御フローを示す図である。FIG. 6 is a diagram showing a control flow when editing in the front direction according to the present invention. 本発明における正面方向編集時の出力画像例を示す図である。FIG. 7 is a diagram showing an example of an output image when editing in the front direction according to the present invention. 本発明における正面方向編集時の制御特性を示す図である。FIG. 6 is a diagram showing control characteristics during front direction editing in the present invention.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。本実施形態では、画像処理装置の一例として、撮像装置の一種であるデジタルカメラを用いる例について説明する。もちろん、デジタルカメラに限定されるものではなく、いわゆるスマートフォンやタブレットデバイスなどの携帯端末、監視カメラ、医療機器、あるいは各種計測機器などに用いることができる。また、後述する画像の撮影・再生・編集時の動作は必ずしも同じ装置で行う必要はなく、画像を取り扱う手段を有する種々の装置を用いることができる。すなわち、撮影時の動作を第1の装置で行い、撮影画像を取り込んだ第2の装置で再生時の動作を行い、第2の装置、または撮影画像を取り込んだ第2の装置とは異なる第3の装置で編集時の動作を行うようにしてもよい。 Hereinafter, preferred embodiments of the present invention will be described in detail based on the accompanying drawings. In this embodiment, an example will be described in which a digital camera, which is a type of imaging device, is used as an example of an image processing device. Of course, the present invention is not limited to digital cameras, and can be used in mobile terminals such as so-called smartphones and tablet devices, surveillance cameras, medical equipment, and various measuring instruments. Further, the operations during image capture, playback, and editing, which will be described later, do not necessarily need to be performed by the same device, and various devices having means for handling images can be used. In other words, a first device performs the shooting operation, a second device that captures the captured image performs the playback operation, and a second device that is different from the second device or the second device that captures the captured image performs the shooting operation. The editing operation may be performed using the device No. 3.

<第1の実施形態>
以下、図1~図11を参照して、本発明の実施形態における、デジタルカメラについて説明する。
<First embodiment>
A digital camera according to an embodiment of the present invention will be described below with reference to FIGS. 1 to 11.

図1は、本発明の実施形態によるデジタルカメラの構成例を示すブロック図である。 FIG. 1 is a block diagram showing an example of the configuration of a digital camera according to an embodiment of the present invention.

図1において、100はデジタルカメラ全体、101、103はズームレンズ、フォーカスレンズを含む光学系である。102、104は光学像を電気信号に変換するCCDやCMOS素子等の撮像素子およびアナログ信号をデジタル信号に変換するA/D変換器で構成される撮像部である。105は撮像部102、104から出力される画像データに対し、ホワイトバランス処理や、γ処理、輪郭強調、色補正処理などの各種画像処理を行う画像処理部である。106は画像メモリ、107はLCD等の表示部、108は画像データを圧縮符号化・復号化するコーデック部である。 In FIG. 1, 100 is the entire digital camera, and 101 and 103 are optical systems including a zoom lens and a focus lens. Reference numerals 102 and 104 designate image pickup units that include an image pickup device such as a CCD or CMOS device that converts an optical image into an electrical signal, and an A/D converter that converts an analog signal into a digital signal. An image processing unit 105 performs various image processing such as white balance processing, γ processing, edge enhancement, and color correction processing on the image data output from the imaging units 102 and 104. 106 is an image memory, 107 is a display unit such as an LCD, and 108 is a codec unit that compresses and encodes and decodes image data.

109は記録媒体110とのインタフェースI/F、110はメモリカードやハードディスク等の記録媒体、50はデジタルカメラ100のシステム全体を制御するシステム制御部である。 109 is an interface I/F with the recording medium 110; 110 is a recording medium such as a memory card or hard disk; and 50 is a system control unit that controls the entire system of the digital camera 100.

また、121は、プログラムやパラメータなどを格納するEEPROMなどの不揮発性メモリである。122はシステム制御部50の動作用の定数、変数、不揮発性メモリ124から読みだしたプログラム等を展開するシステムメモリである。123はユーザからの入力操作を受け付ける操作部である。 Further, 121 is a nonvolatile memory such as an EEPROM that stores programs, parameters, and the like. A system memory 122 stores constants, variables, and programs read from the nonvolatile memory 124 for the operation of the system control unit 50. Reference numeral 123 denotes an operation unit that accepts input operations from the user.

図6(A)に本デジタルカメラの外観を示す。101,103の2つの光学系は図6(A)に示すように180度逆向きに配置されており、2つの光学系および撮像部で360度全周囲の画像を撮影できるものとする。 Figure 6(A) shows the external appearance of this digital camera. The two optical systems 101 and 103 are arranged 180 degrees in opposite directions as shown in FIG. 6(A), and the two optical systems and the imaging section can capture images of the entire 360 degrees.

次に、上記のように構成されたデジタルカメラ100における被写体撮影時の基本動作について説明する。撮像部102、104は、光学系101、103を介して入射した光を光電変換し、入力画像信号として画像処理部105に出力する。 Next, the basic operation when photographing a subject in the digital camera 100 configured as described above will be explained. The imaging units 102 and 104 photoelectrically convert the light that has entered through the optical systems 101 and 103, and output it to the image processing unit 105 as an input image signal.

画像処理部105は、撮像部102、104から出力された画像データに対し、ホワイトバランスなどの色変換処理、γ処理、輪郭強調処理などを行う。また、画像処理部105では、撮像した画像データを用いて所定の評価値算出処理(図示しない)を行い、得られた評価値結果に基づいてシステム制御部50が露光制御、測距制御を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理などを行う。 The image processing unit 105 performs color conversion processing such as white balance, γ processing, contour enhancement processing, etc. on the image data output from the imaging units 102 and 104. Further, the image processing unit 105 performs a predetermined evaluation value calculation process (not shown) using the captured image data, and the system control unit 50 performs exposure control and distance measurement control based on the obtained evaluation value result. . As a result, TTL (through-the-lens) type AF (autofocus) processing, AE (automatic exposure) processing, AWB (auto white balance) processing, etc. are performed.

画像処理部105から出力された画像データは、画像メモリ106に書き込まれる。画像メモリ106は、撮像部から出力された画像データや、表示部107に表示するための画像データを格納する。 The image data output from the image processing unit 105 is written into the image memory 106. The image memory 106 stores image data output from the imaging section and image data to be displayed on the display section 107.

表示部107は、LCD等の表示器上に画像や、ユーザに対する操作指示情報(後述する)などの表示を行う。 The display unit 107 displays images, operation instruction information for the user (described later), etc. on a display such as an LCD.

コーデック部106は、画像メモリ106に記録された画像データをJPEG,MPEGなどの規格に基づきそれぞれ圧縮符号化する。システム制御部50は符号化した画像データを関連付けて、記録インタフェース109を介して記録媒体110に格納する。 The codec unit 106 compresses and encodes the image data recorded in the image memory 106 based on standards such as JPEG and MPEG. The system control unit 50 associates the encoded image data and stores it in the recording medium 110 via the recording interface 109.

以上、被写体撮影時の基本動作について説明した。 The basic operations when photographing a subject have been explained above.

上記の基本動作以外に、システム制御部50は、前述した不揮発性メモリ124に記録されたプログラムを実行することで、後述する本実施形態の各処理を実現する。ここでいうプログラムとは、本実施形態にて後述する各種フローチャートを実行するためのプログラムのことである。この際、システム制御部50の動作用の定数、変数、不揮発性メモリ121から読み出したプログラム等をシステムメモリ122に展開する。 In addition to the basic operations described above, the system control unit 50 executes the programs recorded in the nonvolatile memory 124 described above to realize various processes of the present embodiment described later. The program here refers to a program for executing various flowcharts described later in this embodiment. At this time, constants and variables for the operation of the system control unit 50, programs read from the nonvolatile memory 121, and the like are loaded into the system memory 122.

次に、画像処理部105の詳細について図2を用いて説明する。図2は画像処理部105の構成を示すブロック図である。 Next, details of the image processing unit 105 will be explained using FIG. 2. FIG. 2 is a block diagram showing the configuration of the image processing unit 105.

図2において、200(a)(b)は同時化処理部、201(a)(b)はWB増幅部、202(a)(b)は輝度・色信号生成部である。(a)と(b)は同じブロックを2系統備えていることを指している。203は合成処理部、204は動き検出部である。 In FIG. 2, 200(a) and 200(b) are synchronization processing units, 201(a) and 201(b) are WB amplification units, and 202(a) and 202(b) are brightness/color signal generation units. (a) and (b) indicate that two systems of the same block are provided. 203 is a composition processing unit, and 204 is a motion detection unit.

次に、画像処理部105における処理について説明する。図1の撮像部102から出力された画像信号は同時化処理部200(a)に入力され、撮像部104から出力された画像信号は同時化処理部200(b)にそれぞれ入力される。 Next, processing in the image processing unit 105 will be explained. The image signal output from the imaging unit 102 in FIG. 1 is input to the synchronization processing unit 200(a), and the image signal output from the imaging unit 104 is input to the synchronization processing unit 200(b).

同時化処理部200は入力されたベイヤーRGBの画像データに対して、同時化処理を行い、色信号R,G,Bを生成する。WB増幅部201は、システム制御部50が算出するホワイトバランスゲイン値に基づき、RGBの色信号にゲインをかけ、ホワイトバランスを調整する。WB増幅部201が出力したRGB信号は輝度・色信号生成部202に入力される。輝度・色信号生成部202は、RGB信号から輝度信号Yを生成し、輝度信号Yに対して、輪郭強調処理および輝度ガンマ補正などの各種処理を施し出力する。また、色信号RGBに対してマトリクス演算などを施し、所望のカラーバランスへ変換し、ガンマ補正を行った上で色差信号UVを生成する。 The synchronization processing unit 200 performs synchronization processing on the inputted Bayer RGB image data to generate color signals R, G, and B. The WB amplification unit 201 applies a gain to the RGB color signals based on the white balance gain value calculated by the system control unit 50 to adjust the white balance. The RGB signals output from the WB amplification section 201 are input to the luminance/color signal generation section 202. The luminance/color signal generation unit 202 generates a luminance signal Y from the RGB signals, performs various processing on the luminance signal Y such as edge enhancement processing and luminance gamma correction, and outputs the resultant signal. Further, a matrix calculation or the like is performed on the color signals RGB to convert them to a desired color balance, and after performing gamma correction, a color difference signal UV is generated.

合成処理部203は、輝度・色信号生成部(a)(b)からそれぞれ出力された画像をパノラマ合成し1枚の全周囲画像を生成する。撮像部102、104で撮影される画像は水平・垂直180度の範囲をカバーしており、合成することで360度の全周囲画像を生成することが可能である。合成した360度の全周囲画像をメルカトル図法で展開した画像の例を図3(A)に示す。 The synthesis processing unit 203 performs panoramic synthesis of the images respectively output from the luminance/color signal generation units (a) and (b) to generate one omnidirectional image. The images taken by the imaging units 102 and 104 cover a range of 180 degrees horizontally and vertically, and by combining them, it is possible to generate a 360-degree all-around image. FIG. 3A shows an example of an image developed by developing the combined 360-degree all-around image using the Mercator projection.

合成処理部203で合成された360度全周囲画像は画像メモリ106に出力されるとともに、動き検出部204に出力される。動き検出部は、図3(B)に示すようなブロック単位で動きベクトルの代表値(中央値もしくは平均値)を算出する。算出した動きベクトルの例を図3(C)に示す。ブロック単位の動きベクトルの代表値を出すことで、局所的な動体の動きは検出せずに、画像全体の動きの方向を検出することができる。動き検出部204は、動き情報取得手段の一例である。 The 360-degree all-around image synthesized by the synthesis processing section 203 is output to the image memory 106 and also to the motion detection section 204. The motion detection unit calculates a representative value (median value or average value) of motion vectors in block units as shown in FIG. 3(B). An example of the calculated motion vector is shown in FIG. 3(C). By calculating the representative value of the motion vector for each block, the direction of movement of the entire image can be detected without detecting the movement of a local moving object. The motion detection unit 204 is an example of motion information acquisition means.

画像処理部105は、合成した全周囲YUV画像および動きベクトル情報を出力する。 The image processing unit 105 outputs the combined omnidirectional YUV image and motion vector information.

画像処理部105から画像メモリ106に出力されたYUV画像信号は、コーデック部110によって圧縮符号化し、記録媒体200に記録される。算出した動きベクトル情報は後述する各種制御で利用される。 The YUV image signal output from the image processing section 105 to the image memory 106 is compressed and encoded by the codec section 110 and recorded on the recording medium 200. The calculated motion vector information is used in various controls described later.

以上説明したように、撮像部102、104で撮像された画像を画像処理部105は動画取得手段として機能し処理することで、360度の全周囲画像を取得することができる。この場合、撮像部102、104および画像処理部105は協働して動画取得手段として機能する一例である。 As described above, the image processing unit 105 functions as a moving image acquisition unit and processes images captured by the imaging units 102 and 104, thereby making it possible to acquire a 360-degree all-around image. In this case, the imaging units 102 and 104 and the image processing unit 105 are an example of working together as a moving image acquisition unit.

(撮影時の警告制御)
次に、システム制御部50が、画像撮影時に撮影情報に基づき警告表示を行う処理フローについて図4を用いて説明する。システム制御部50は、撮影の一定期間毎(静止画の場合は撮影時)に図4のフローチャートに従ってユーザに対して警告を出すか否かの判定を行い、警告を出すと判定した場合は表示部107に警告表示を出すように制御する。つまりシステム制御部50は、動画の撮像中に図4のフローチャートに従う処理を実行可能である。
(Warning control during shooting)
Next, a processing flow in which the system control unit 50 displays a warning based on the photographing information when photographing an image will be described using FIG. 4. The system control unit 50 determines whether or not to issue a warning to the user according to the flowchart in FIG. 4 at every fixed period of shooting (at the time of shooting in the case of a still image), and if it is determined that a warning should be issued, the system control unit 50 displays the The unit 107 is controlled to issue a warning display. In other words, the system control unit 50 can execute the process according to the flowchart of FIG. 4 while capturing a moving image.

なお、図4のフローチャートの処理の前に先立って、デジタルカメラ100はユーザによるメニュー操作(図示しない)を受け付け、HMDに表示する正面方向(基準方向)を設定する。HMDに表示する正面方向としては、例えばカメラの正面方向や、カメラの右45度方向、カメラの左45度方向などから選択することが可能である。このようにカメラの正面方向を決定する場合、システム制御部50は正面方向特定手段として機能する。本実施形態では、HMDに表示する正面方向として、カメラの正面方向が設定された場合について説明を行う。 Note that, prior to the processing in the flowchart of FIG. 4, the digital camera 100 receives a menu operation (not shown) by the user, and sets the front direction (reference direction) to be displayed on the HMD. The front direction displayed on the HMD can be selected from, for example, the front direction of the camera, the 45-degree right direction of the camera, the 45-degree left direction of the camera, and the like. When determining the front direction of the camera in this way, the system control unit 50 functions as a front direction specifying means. In this embodiment, a case will be described in which the front direction of the camera is set as the front direction displayed on the HMD.

図4は撮影時の警告制御を行うフローチャートである。 FIG. 4 is a flowchart for performing warning control during photographing.

まずステップS401において、システム制御部50は、現在の撮影モードが動画撮影モードであるか静止画撮影モードであるかを判定する。静止画撮影モードと判定した場合は、動きの方向による不快感を与えることはないため、ステップS409に進み、「警告なし」という警告情報をメタデータとして記録する。一方、動画撮影モードと判定した場合はステップS402に進む。 First, in step S401, the system control unit 50 determines whether the current shooting mode is a video shooting mode or a still image shooting mode. If it is determined that the mode is still image shooting mode, the direction of movement will not cause discomfort, and therefore the process proceeds to step S409, where warning information "no warning" is recorded as metadata. On the other hand, if it is determined that the mode is video shooting mode, the process advances to step S402.

ステップS402において、システム制御部50は、動き検出部204で検出した動きベクトル情報を取得する。検出した動きベクトルの例は図3(C)に示す。 In step S402, the system control unit 50 acquires motion vector information detected by the motion detection unit 204. An example of the detected motion vector is shown in FIG. 3(C).

ステップS403において、システム制御部50は、取得した動きベクトル情報に基づき、撮影中にカメラ本体が移動している進行方向を推定する。進行方向の推定には、図3(C)に示す動きベクトルを利用する。具体的には、上下に隣接するブロックで上側のブロックが上向きのベクトル、下側のブロックが下向きのベクトルであるブロックを検出する。図3(C)の例の場合、301、302の隣接ブロックが該当する。該当する隣接ブロックが見つかると、この隣接ブロックの位置を進行方向と判定する。図3(C)のように複数の隣接ブロックが該当した場合は、検出した複数ブロック水平位置の平均値を進行方向とする。図3(C)の例では、ブロック301、302の位置の平均をとって303の方向を進行方向として決定する。本ステップにおいて、システム制御部50は進行方向特定手段として機能する。 In step S403, the system control unit 50 estimates the direction in which the camera body is moving during shooting, based on the acquired motion vector information. The motion vector shown in FIG. 3(C) is used to estimate the traveling direction. Specifically, among vertically adjacent blocks, the upper block has an upward vector, and the lower block has a downward vector. In the case of the example in FIG. 3C, adjacent blocks 301 and 302 correspond. When a corresponding adjacent block is found, the position of this adjacent block is determined to be the traveling direction. When a plurality of adjacent blocks are detected as shown in FIG. 3(C), the average value of the detected horizontal positions of the plurality of blocks is taken as the traveling direction. In the example of FIG. 3C, the positions of blocks 301 and 302 are averaged, and the direction of 303 is determined as the traveling direction. In this step, the system control unit 50 functions as a traveling direction specifying means.

ステップS404において、システム制御部50は、カメラの移動速度を算出する。カメラの移動速度の推定には、ステップS403で検出した進行方向付近のブロック(図3(C)の場合は301、302)の動きベクトルを参照し、各動きベクトルの長さの平均値を移動速度とする。 In step S404, the system control unit 50 calculates the moving speed of the camera. To estimate the moving speed of the camera, refer to the motion vectors of the blocks (301 and 302 in the case of FIG. 3C) near the advancing direction detected in step S403, and move the average value of the length of each motion vector. Let it be the speed.

ステップS405において、システム制御部50は、ステップS403、S404で算出した進行方向および移動速度の情報に基づき、不快度を算出する。以下、不快度の算出に関して図5を用いて説明する。 In step S405, the system control unit 50 calculates the degree of discomfort based on the information on the traveling direction and moving speed calculated in steps S403 and S404. Hereinafter, calculation of the degree of discomfort will be explained using FIG. 5.

まずシステム制御部50は、不快度の算出のために、カメラの進行方向と、HMDに表示する正面方向との差を算出する。本実施形態では、前述のとおり、HMDに表示する正面方向がカメラの正面方向と同じになるように予め設定している。この場合の、HMDに表示される正面方向(=カメラの正面方向)とカメラの進行方向の関係を図5(A)に示す。図5(A)は、カメラを真上から見下ろした図になっており、100はカメラ本体、501は、HMDに表示する正面方向(=カメラの正面方向)、502がカメラの進行方向を示している。ここで、503に示すようなHMDに表示する正面方向(=カメラの正面方向)とカメラの進行方向の角度差を算出する。 First, the system control unit 50 calculates the difference between the direction of movement of the camera and the front direction displayed on the HMD in order to calculate the degree of discomfort. In this embodiment, as described above, the front direction displayed on the HMD is set in advance to be the same as the front direction of the camera. In this case, the relationship between the front direction displayed on the HMD (=the front direction of the camera) and the direction of movement of the camera is shown in FIG. 5(A). FIG. 5(A) is a view looking down on the camera from directly above, where 100 is the camera body, 501 is the front direction displayed on the HMD (=the front direction of the camera), and 502 is the direction of movement of the camera. ing. Here, the angular difference between the front direction displayed on the HMD (=the front direction of the camera) and the direction of movement of the camera as shown in 503 is calculated.

次に、HMDに表示する正面方向(=カメラの正面方向)とカメラの進行方向の角度差に基づく角度不快度を算出する。角度不快度は図5(B)に示すグラフ特性から算出することができる。角度不快度は図5(B)に示す通り、HMDに表示する正面方向(=カメラの正面方向)とカメラの進行方向の角度差が大きくなるほど不快度が高くなるようになっている。 Next, the degree of angular discomfort is calculated based on the angular difference between the front direction displayed on the HMD (=the front direction of the camera) and the direction of movement of the camera. The degree of angular discomfort can be calculated from the graph characteristics shown in FIG. 5(B). As shown in FIG. 5B, the degree of angular discomfort increases as the angle difference between the front direction displayed on the HMD (=the front direction of the camera) and the direction of movement of the camera increases.

さらにシステム制御部50は、移動速度に基づく速度不快度を算出する。速度不快度は図5(C)に示すグラフ特性から算出することができる。速度不快度は、カメラの移動速度が速くなるほど不快度が高くなるようになっている。 Furthermore, the system control unit 50 calculates the degree of speed discomfort based on the moving speed. The degree of speed discomfort can be calculated from the graph characteristics shown in FIG. 5(C). The speed discomfort level is such that the higher the moving speed of the camera, the higher the discomfort level becomes.

上記のとおり角度不快度と速度不快度を算出すると、システム制御部50は、これらを荷重加算し総合不快度を算出する。総合不快度は、下記で算出できる。
総合不快度=α×角度不快度+β×速度不快度
ここで、α、βは0以上、1以下の重み係数である。
After calculating the degree of angular discomfort and the degree of speed discomfort as described above, the system control unit 50 adds the weights to these and calculates the total degree of discomfort. The overall discomfort level can be calculated as follows.
Total discomfort level = α x Angle discomfort level + β x Speed discomfort level Here, α and β are weighting coefficients of 0 or more and 1 or less.

図4に戻り、ステップS406においてシステム制御部50は、総合不快度がある閾値以上の状態が所定の時間以上継続しているか判定する。ステップS405の総合不快度の算出は、撮影中の一定時間間隔で行っており、総合不快度が所定の閾値を超えた状態が所定の閾値以上の時間継続していると判定した場合にはステップS407に進む。 Returning to FIG. 4, in step S406, the system control unit 50 determines whether the overall discomfort level is equal to or higher than a certain threshold value for a predetermined period of time or more. Calculation of the overall discomfort level in step S405 is performed at regular time intervals during imaging, and if it is determined that the overall discomfort level has exceeded a predetermined threshold value for a period longer than the predetermined threshold value, step S405 is performed. Proceed to S407.

ステップS407において、システム制御部50は、不快度を低減するためにユーザに操作を促す警告情報を生成する。具体的には、不快度を上げている主要因を決定し、不快度を低減するための警告情報を生成する。本実施形態の場合、重み付け後の角度不快度と速度不快度の大きさを比較し、より大きい方が不快度を上げている主要因と判断する。そして不快度の主要因を低減するような操作をユーザに促す警告情報を生成する。具体的には、角度不快度が主要因と判定した場合には、「カメラ正面をどちらに向ければよいかを指示する情報」を生成し、速度不快度が主要因の場合には、「移動速度を下げるように指示する情報」を生成する。 In step S407, the system control unit 50 generates warning information that prompts the user to perform an operation to reduce the level of discomfort. Specifically, the main factors that increase the degree of discomfort are determined, and warning information for reducing the degree of discomfort is generated. In the case of this embodiment, the weighted angular discomfort level and speed discomfort level are compared, and the larger one is determined to be the main factor increasing the discomfort level. Then, warning information is generated that prompts the user to perform an operation that reduces the main factor of discomfort. Specifically, if angle discomfort is determined to be the main factor, "information that instructs which direction the camera should face" is generated, and if speed discomfort is determined to be the main factor, "movement" is generated. Generates "information instructing the driver to slow down."

ステップS408において、システム制御部50は、生成した警告情報を表示部107に表示する。図6に警告情報表示の例を示す。図6において(A)はカメラ本体を示しており、107が表示部である。図6(B)は角度不快度が主要因と判定した場合の表示例を示しており、ユーザに撮像方向の変更を促すガイダンスの一例である。図6(B)では、文字情報601と矢印602を用いて、カメラの正面をどちらに向けるかを指示する。図6(C)は速度不快度が主要因の場合の表示例を示しており、ユーザに動画の動きの抑制を促すガイダンスの一例である。図6(C)では、文字情報でユーザに移動速度を下げるような警告を出している。なお、本実施形態では不快度の主要因を低減するような操作をユーザに促す警告情報を生成したが、必ずしもこの形態に限定されず、ユーザに対する種々の通知情報を出力し得る。例えば、「不快度の高い画像になる可能性が高いです」と警告するのみでもよいし、「進行方向と撮影方向が大きく異なります」、「移動速度が速すぎます」といった警告としてもよい。また、文字情報に限らず、所定のアイコンなどを表示するようにして、ユーザに対して通知を出力するようにしてもよい。 In step S408, the system control unit 50 displays the generated warning information on the display unit 107. FIG. 6 shows an example of warning information display. In FIG. 6, (A) shows the camera body, and 107 is a display section. FIG. 6B shows an example of a display when it is determined that the degree of angular discomfort is the main factor, and is an example of guidance that prompts the user to change the imaging direction. In FIG. 6(B), text information 601 and an arrow 602 are used to indicate which direction the camera should face. FIG. 6C shows a display example when the speed discomfort level is the main factor, and is an example of guidance that prompts the user to suppress the movement of the video. In FIG. 6C, text information is used to warn the user to reduce his or her movement speed. Note that in the present embodiment, warning information that prompts the user to perform an operation that reduces the main factor of discomfort level is generated, but the present invention is not necessarily limited to this form, and various types of notification information may be output to the user. For example, a warning such as ``There is a high possibility that the image will be highly unpleasant'' may be used, or a warning such as ``The direction of travel and the direction of photography are very different'' or ``The speed of movement is too fast'' may be used. Furthermore, the notification may be output to the user by displaying not only text information but also a predetermined icon or the like.

ステップS409において、システム制御部50は、警告情報をメタデータとして画像データに記録する(警告情報メタデータ)。記録する情報としては警告の有無の情報、進行方向情報、移動速度情報、各種不快度情報、設定されたHMDの正面方向などの情報を記録する。 In step S409, the system control unit 50 records the warning information as metadata in the image data (warning information metadata). Information to be recorded includes information on the presence or absence of a warning, traveling direction information, moving speed information, various discomfort level information, and the set front direction of the HMD.

以上説明したように、本実施形態におけるデジタルカメラ100は、撮影中に撮影状態に応じた警告表示を出力可能である。上記のように警告表示を行うことで、HMDの正面方向と移動方向がずれているなどの、視聴時に不快感を生じる条件での撮影をユーザが意図せずに行ってしまう事態を低減させることができる。 As described above, the digital camera 100 according to the present embodiment can output a warning display according to the shooting state during shooting. By displaying the warning as described above, it is possible to reduce the situation where the user unintentionally takes a picture under conditions that cause discomfort during viewing, such as when the front direction of the HMD and the direction of movement are misaligned. I can do it.

なお、本実施形態では、画像中の動きベクトルに基づきカメラの進行方向を推定したが、カメラの進行方向が推定できる構成であれば別の構成をとることも可能である。例えば、GPSの時系列情報や方位センサなどを用いて進行方向を推定する構成としても構わない。 Note that in this embodiment, the moving direction of the camera is estimated based on the motion vector in the image, but other configurations may be used as long as the moving direction of the camera can be estimated. For example, a configuration may be adopted in which the traveling direction is estimated using GPS time series information, a direction sensor, or the like.

また、本実施形態では、HMDに表示する正面方向は、カメラの正面方向と同じになるように設定した場合について説明したが、HMDに表示する正面方向をこれに限定するものではなく、ユーザの設定により自由に設定可能であるものとする。 Furthermore, in this embodiment, the case where the front direction displayed on the HMD is set to be the same as the front direction of the camera has been described, but the front direction displayed on the HMD is not limited to this, and the user It shall be possible to freely set the settings.

また、本実施形態では、警告情報を表示部107に出力する場合について説明したが、警告が撮影者に伝わる方法であればどのような手段を用いても構わない。例えばカメラにLEDを備え、LEDの位置や色、点灯パターンなどで警告を出すことや、スマーフォフォンなどの他のデバイスに警告情報を送信するなどの構成をとることも可能である。 Further, in this embodiment, a case has been described in which warning information is output to the display unit 107, but any method may be used as long as the warning is conveyed to the photographer. For example, it is possible to equip the camera with an LED and issue a warning based on the position, color, lighting pattern, etc. of the LED, or to send warning information to another device such as a smartphone.

また、本実施形態では、360度の全周囲画像を扱う場合について説明したが、必ずしも360度全周囲の画像でなくても、他の広視野角画像に対して適用可能である。例えば、180度の広角画像に対しても適用してもよい。 Further, in this embodiment, a case has been described in which a 360-degree all-around image is handled, but the present invention is applicable to other wide-viewing-angle images, not necessarily a 360-degree all-around image. For example, it may also be applied to a 180 degree wide-angle image.

(再生時の制御)
次に、システム制御部50が、警告情報に基づき再生制御を行う処理フローについて図7を用いて説明する。システム制御部50は図7に示すフローに従って、記録媒体110に記録された画像の中から再生する画像を選択し、選択した画像を表示部107に出力する。
(Control during playback)
Next, a processing flow in which the system control unit 50 performs playback control based on warning information will be described using FIG. 7. The system control unit 50 selects an image to be reproduced from among the images recorded on the recording medium 110 according to the flow shown in FIG. 7, and outputs the selected image to the display unit 107.

図7は、システム制御部50による警告情報に基づく再生制御のフローである。 FIG. 7 is a flowchart of playback control by the system control unit 50 based on warning information.

まずステップS701において、システム制御部50は、再生モードが「酔い低減モード」であるか判定する。本実施形態では画像再生時のモードとして、「通常再生モード」と「酔い低減再生モード」を備えているものとする。システム制御部50は、メニュー画面(図示しない)に対するユーザ操作に応じて、上記2つの再生モードを切り替えることが可能である。「酔い低減モード」は不快度が高く酔いやすい画像を再生対象から除外して再生するモードである。「酔い低減モード」が選択されている場合はステップS702に進み、「通常再生モード」が選択されている場合はステップS704に進む。 First, in step S701, the system control unit 50 determines whether the playback mode is the "sickness reduction mode." In this embodiment, the image reproduction mode includes a "normal reproduction mode" and a "sickness reduction reproduction mode." The system control unit 50 can switch between the two playback modes in response to a user's operation on a menu screen (not shown). The "sickness reduction mode" is a mode in which images with a high degree of discomfort and which are likely to cause motion sickness are excluded from playback targets and reproduced. If the "sickness reduction mode" is selected, the process advances to step S702, and if the "normal playback mode" is selected, the process advances to step S704.

ステップS702において、システム制御部50は、記録媒体110に記録された画像データから撮影時に記録した警告情報メタデータを抽出する。 In step S702, the system control unit 50 extracts the warning information metadata recorded at the time of photography from the image data recorded on the recording medium 110.

ステップS703において、システム制御部50は、抽出した警告情報に従って、警告のない画像のみを抽出し、再生可能画像リストを生成する。 In step S703, the system control unit 50 extracts only images without a warning according to the extracted warning information, and generates a reproducible image list.

一方、ステップS704において、システム制御部50は、「通常再生モード」のため記録媒体110に記録されたすべての画像を再生可能画像リストとして生成する。 On the other hand, in step S704, the system control unit 50 generates all images recorded on the recording medium 110 for the "normal playback mode" as a playable image list.

ステップS705において、システム制御部50は、記録媒体110に記録された画像をサムネイル表示する。このとき、前述の再生可能画像リストに含まれない画像はグレーアウトするか非表示にし、再生できないようにする。図8(A)にサムネイル表示の例を示す。図8(A)では記録媒体110に記録された各画像のサムネイル表示を行うが、再生可能画像リストに含まれない画像は801に示すようにグレーアウトで表示し、選択できないようにする。 In step S705, the system control unit 50 displays images recorded on the recording medium 110 as thumbnails. At this time, images that are not included in the above-mentioned reproducible image list are grayed out or hidden so that they cannot be reproduced. FIG. 8(A) shows an example of thumbnail display. In FIG. 8A, thumbnails of each image recorded on the recording medium 110 are displayed, but images that are not included in the reproducible image list are displayed in grayout as shown at 801, so that they cannot be selected.

ステップS706において、システム制御部50は、ユーザ操作による画像選択を受け付け、選択された画像を表示部107に表示するよう制御する。 In step S706, the system control unit 50 accepts image selection by user operation, and controls the display unit 107 to display the selected image.

以上、システム制御部50が、警告情報に基づき再生制御を行う処理フローについて説明した。上記のように、「酔い低減モード」になっている場合は、撮影時に不快度の警告判定を行った画像は再生させない構成とした。これにより、不快感を生じやすい画像を再生してしまうことを低減することが可能となる。 The processing flow in which the system control unit 50 performs playback control based on warning information has been described above. As described above, when the "sickness reduction mode" is selected, images for which a warning of discomfort level was determined at the time of shooting are not played back. This makes it possible to reduce the possibility of playing back images that tend to cause discomfort.

なお、上記の実施形態では、警告判定をした画像を画像ファイル単位で再生させない構成としたが、動画像中の一部にだけ警告が出ている場合、警告が出ている範囲だけを除外して再生する構成を取ることも可能である。例えば、プレイリストを選択してプレイリストに含まれる画像を順次再生する際に、「酔い低減モード」の場合は、警告が出ている範囲だけを除外して再生することも可能である。この例を図8(B)に示す。図8(B)において、動画1~6からなる動画像のタイムラインを示している。警告情報は、動画像の各フレームにメタデータとして記録しておくものとする。動画4は802領域に警告判定を含んでおり、動画5は全体(803)に警告判定を含んでいるものとする。この場合、「酔い低減モード」の場合は警告が出ている範囲を除外して再生する。 In addition, in the above embodiment, an image for which a warning has been determined is not played in image file units, but if a warning is displayed only in a part of the video, only the range where the warning is displayed is excluded. It is also possible to adopt a configuration in which the data is played back. For example, when selecting a playlist and sequentially playing back the images included in the playlist, in the case of the "sickness reduction mode", it is also possible to exclude only the range where the warning is displayed and playback. An example of this is shown in FIG. 8(B). In FIG. 8(B), a timeline of moving images consisting of moving images 1 to 6 is shown. Warning information shall be recorded as metadata in each frame of a moving image. It is assumed that video 4 includes a warning determination in the area 802, and video 5 includes a warning determination throughout (803). In this case, in the case of "sickness reduction mode", the area where the warning is displayed is excluded from playback.

また、上記実施形態では、警告の有無で再生する・しないの制御を行っていたが、再生する・しない以外の制御を行うことも可能である。例えば、不快感を生じる画像が含まれる場合には、「酔い低減モード」の場合には、再生の方法を通常再生とは異なる再生方法にすることで不快感を低減することが可能である。具体的な例としては、角度不快度情報、速度不快度情報をそれぞれメタデータとして記録しておく。そして、角度不快度が高い場合は、角度不快度が低減するようにHMDの正面方向を変化させて再生する。また、速度不快度が高い場合は、再生速度を低下させて不快度を低減させるように制御する。このように再生方法を制御することで不快感を低減することが可能となる。 Furthermore, in the embodiment described above, control is performed to perform playback or not depending on the presence or absence of a warning, but it is also possible to perform control other than playback or non-playback. For example, if an image that causes discomfort is included, in the case of the "sickness reduction mode", it is possible to reduce the discomfort by using a different reproduction method from normal reproduction. As a specific example, angle discomfort degree information and speed discomfort degree information are each recorded as metadata. When the degree of angular discomfort is high, the front direction of the HMD is changed and played back so that the degree of angular discomfort is reduced. Furthermore, when the degree of speed discomfort is high, control is performed to reduce the reproduction speed to reduce the degree of discomfort. By controlling the reproduction method in this way, it is possible to reduce discomfort.

また、上記実施形態では、撮影時に生成した警告情報のメタデータに基づき再生制御を行う場合について説明したが、警告情報や不快度を再生時に算出する構成をとることも可能である。 Further, in the above embodiment, a case has been described in which playback control is performed based on metadata of warning information generated at the time of shooting, but it is also possible to adopt a configuration in which warning information and discomfort level are calculated at the time of playback.

(編集時の警告制御)
次に、システム制御部50が、HMDに表示する正面方向を編集する際の警告処理フローについて図9を用いて説明する。システム制御部50はユーザからの操作を受け付けて、記録媒体110に記録された画像に設定されたHMDに表示する正面方向を後から編集することが可能である。
(Warning control during editing)
Next, a warning processing flow when the system control unit 50 edits the front direction displayed on the HMD will be described using FIG. 9. The system control unit 50 can receive an operation from the user and later edit the front direction to be displayed on the HMD, which is set in the image recorded on the recording medium 110.

図9はHMDに表示する正面方向を後から編集する際の警告処理フローを示している。 FIG. 9 shows a warning processing flow when the front direction displayed on the HMD is edited later.

まずステップS901において、システム制御部50は、HMDに表示する正面方向を編集したい画像ファイルをユーザ操作により選択する。図10は表示部107に表示する正面方向の編集画面を示した図である。選択された画像は図10の1001に示すようにメルカトル図法で展開されて表示される。図10において、1004は、現在設定されているHMDの正面方向を示している。ユーザは、HMDの正面方向1004を図10の編集画面上で自由に変更可能である。 First, in step S901, the system control unit 50 selects, by user operation, an image file whose front direction to be displayed on the HMD is desired to be edited. FIG. 10 is a diagram showing an editing screen in the front direction displayed on the display unit 107. The selected image is developed and displayed in the Mercator projection as shown in 1001 in FIG. In FIG. 10, 1004 indicates the currently set front direction of the HMD. The user can freely change the front direction 1004 of the HMD on the editing screen of FIG. 10.

ステップS902において、システム制御部50は、画像ファイルのメタデータから、進行方向情報および移動速度情報を取得する。 In step S902, the system control unit 50 acquires traveling direction information and moving speed information from the metadata of the image file.

ステップS903において、システム制御部50は、メタデータから取得したカメラの進行方向情報と、移動速度情報に基づきHMD表示の正面方向として許容できる角度範囲を算出する。正面方向として許容できる角度範囲の算出は、図11に示すグラフの特性に基づき決定する。具体的には、撮影時のカメラの移動速度が速くなるほど、正面方向の許容範囲が狭くなる。カメラの進行方向を中心として許容角度範囲を示したものを図10に示す。図10において、1002がカメラの進行方向を示しており、カメラの進行方向を中心として、算出した許容範囲1003を設定する。 In step S903, the system control unit 50 calculates an angle range that is permissible as the front direction of the HMD display based on the moving direction information of the camera and the moving speed information acquired from the metadata. Calculation of the allowable angle range for the front direction is determined based on the characteristics of the graph shown in FIG. Specifically, the faster the moving speed of the camera during photographing, the narrower the permissible range in the front direction. FIG. 10 shows the allowable angle range centered on the direction of movement of the camera. In FIG. 10, 1002 indicates the direction of movement of the camera, and a calculated tolerance range 1003 is set around the direction of movement of the camera.

ステップS904において、システム制御部50は、カメラ進行方向と、現在設定されているHMDの正面方向、ステップS903で算出した正面の許容範囲に基づき警告を出すか否かの判定を行う。具体的には、現在設定されているHMDの正面方向が、正面の許容範囲内に含まれるかを判定する。図10の例では、HMDの正面方向が1004であり、許容範囲1003に含まれないため警告を出すと判定する。 In step S904, the system control unit 50 determines whether to issue a warning based on the camera traveling direction, the currently set front direction of the HMD, and the front tolerance range calculated in step S903. Specifically, it is determined whether the currently set front direction of the HMD is within the permissible front direction. In the example of FIG. 10, the front direction of the HMD is 1004, which is not included in the allowable range 1003, so it is determined that a warning should be issued.

ステップS905において、システム制御部50は、ステップS904で警告を出すと判定した場合に警告表示を行う。図10の例では、1005が警告の例である。また、図10において、1006は、現在編集中の動画データのタイムラインを示しており、1007の部分に警告が発生している領域があることを示している。 In step S905, the system control unit 50 displays a warning if it is determined in step S904 that a warning should be issued. In the example of FIG. 10, 1005 is an example of a warning. Further, in FIG. 10, 1006 indicates the timeline of the video data currently being edited, and indicates that there is an area in which a warning has occurred in a portion 1007.

以上、システム制御部50が、システム制御部50が、HMDに表示する正面方向を編集する際の処理フローについて説明した。このように、HMDに表示する正面方向の編集時に警告情報をユーザが視認しながらHMDに表示する正面方向を制御できるようになり、不快感を生じる画像を生成しにくくすることが可能となる。 The processing flow when the system control unit 50 edits the front direction displayed on the HMD has been described above. In this way, when editing the front direction displayed on the HMD, the user can visually check the warning information while controlling the front direction displayed on the HMD, making it difficult to generate images that cause discomfort.

<他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
Further, the present invention can also be realized by executing the following processing. That is, the software (program) that realizes the functions of the embodiments described above is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.

Claims (7)

広視野角の動画を取得する動画取得手段と、
前記動画取得手段により取得された動画を再生する際の基準方向となる正面方向を特定する正面方向特定手段と、
前記動画取得手段により取得された動画の動き情報を取得する動き情報取得手段と、
前記動き情報取得手段により取得された動き情報に基づき、前記動画の進行方向を特定する進行方向特定手段と、
前記正面方向特定手段により特定された正面方向と、進行方向特定手段により特定された進行方向との差に基づき、不快度を示す情報を算出する算出手段と、
前記不快度を示す情報が所定の閾値より大きい場合、所定の警告情報を出力する出力手段と、を有し、
前記不快度を示す情報は、前記正面方向特定手段で特定した正面方向と、前記進行方向特定手段で特定された進行方向の差が大きいほど大きくなることを特徴とする画像処理装置。
a video acquisition means for acquiring a wide viewing angle video;
a front direction specifying means for specifying a front direction that is a reference direction when playing the video acquired by the video acquisition means;
motion information acquisition means for acquiring motion information of the video acquired by the video acquisition means;
a traveling direction identifying means for identifying a traveling direction of the moving image based on the motion information acquired by the motion information acquiring means;
Calculating means for calculating information indicating a degree of discomfort based on the difference between the front direction specified by the front direction specifying means and the traveling direction specified by the traveling direction specifying means;
output means for outputting predetermined warning information when the information indicating the degree of discomfort is greater than a predetermined threshold ;
The image processing device is characterized in that the information indicating the degree of discomfort increases as the difference between the front direction specified by the front direction specifying means and the traveling direction specified by the traveling direction specifying means increases.
前記警告情報を、前記動画取得手段により取得された動画に関連付けて記録することを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the warning information is recorded in association with the moving image acquired by the moving image acquiring means. 前記算出手段はさらに、前記動き情報取得手段で取得した動き情報に基づき推定された撮像装置の移動速度に基づき前記不快度を示す情報を算出し、
前記不快度を示す情報は、前記移動速度が大きいほど大きくなることを特徴とする請求項1または2に記載の画像処理装置。
The calculation means further calculates information indicating the degree of discomfort based on the moving speed of the imaging device estimated based on the movement information acquired by the movement information acquisition means,
3. The image processing apparatus according to claim 1 , wherein the information indicating the degree of discomfort increases as the moving speed increases .
前記動画取得手段は撮像手段を含み、
前記出力手段は、前記動画の撮像中に、撮像方向の変更を促す通知を前記警告情報として出力可能であることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
The video acquisition means includes an imaging means,
The image processing apparatus according to any one of claims 1 to 3 , wherein the output means is capable of outputting a notification prompting a change in the imaging direction as the warning information during imaging of the moving image.
前記動画取得手段は撮像手段を含み、
前記出力手段は、前記動画の撮像中に、前記動画の動きの抑制を促す通知を前記警告情報として出力可能であることを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
The video acquisition means includes an imaging means,
The image processing according to any one of claims 1 to 4 , wherein the output means is capable of outputting a notification urging suppression of movement of the moving image as the warning information during imaging of the moving image. Device.
画像処理装置の制御方法であって、
広視野角の動画を取得する動画取得工程と、
前記動画取得工程で取得された動画を再生する際の基準方向となる正面方向を特定する正面方向特定工程と、
前記動画取得工程で取得された動画の動き情報を取得する動き情報取得工程と、
前記動き情報取得工程で取得された動き情報に基づき、前記動画の進行方向を特定する進行方向特定工程と、
前記正面方向特定工程で特定された正面方向と、前記進行方向特定工程で特定された進行方向との差に基づき、不快度を示す情報を算出する算出工程と、
前記不快度を示す情報が所定の閾値より大きい場合所定警告情報を出力する出力工程と、
を有する画像処理装置の制御方法。
A method for controlling an image processing device, the method comprising:
a video acquisition step of acquiring a wide viewing angle video;
a front direction identification step of identifying a front direction that is a reference direction when playing the video acquired in the video acquisition step;
a motion information acquisition step of acquiring motion information of the video acquired in the video acquisition step;
a traveling direction identifying step of identifying the traveling direction of the video based on the motion information acquired in the motion information acquiring step;
a calculating step of calculating information indicating a degree of discomfort based on the difference between the front direction specified in the front direction specifying step and the traveling direction specified in the traveling direction specifying step;
an output step of outputting predetermined warning information when the information indicating the degree of discomfort is greater than a predetermined threshold ;
A method for controlling an image processing device having the following.
コンピュータを、請求項1乃至のいずれか1項に記載の画像処理装置の各手段として機能させるコンピュータにより実行することが可能なプログラム。 A program executable by a computer that causes the computer to function as each means of the image processing apparatus according to any one of claims 1 to 5 .
JP2019116527A 2019-06-24 2019-06-24 Image processing device, its control method, program Active JP7353821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019116527A JP7353821B2 (en) 2019-06-24 2019-06-24 Image processing device, its control method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019116527A JP7353821B2 (en) 2019-06-24 2019-06-24 Image processing device, its control method, program

Publications (2)

Publication Number Publication Date
JP2021002803A JP2021002803A (en) 2021-01-07
JP7353821B2 true JP7353821B2 (en) 2023-10-02

Family

ID=73995192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019116527A Active JP7353821B2 (en) 2019-06-24 2019-06-24 Image processing device, its control method, program

Country Status (1)

Country Link
JP (1) JP7353821B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022220308A1 (en) * 2021-04-16 2022-10-20 パナソニックIpマネジメント株式会社 Video display system and video display method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366937A (en) 2001-06-08 2002-12-20 Fuji Heavy Ind Ltd Monitor outside vehicle
JP2007129480A (en) 2005-11-02 2007-05-24 Omron Corp Imaging device
JP2012227653A (en) 2011-04-18 2012-11-15 Nikon Corp Imaging apparatus and imaging method
JP2012253451A (en) 2011-05-31 2012-12-20 Jvc Kenwood Corp Imaging device and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366937A (en) 2001-06-08 2002-12-20 Fuji Heavy Ind Ltd Monitor outside vehicle
JP2007129480A (en) 2005-11-02 2007-05-24 Omron Corp Imaging device
JP2012227653A (en) 2011-04-18 2012-11-15 Nikon Corp Imaging apparatus and imaging method
JP2012253451A (en) 2011-05-31 2012-12-20 Jvc Kenwood Corp Imaging device and program

Also Published As

Publication number Publication date
JP2021002803A (en) 2021-01-07

Similar Documents

Publication Publication Date Title
JP6288952B2 (en) Imaging apparatus and control method thereof
JP5867424B2 (en) Image processing apparatus, image processing method, and program
JP5235798B2 (en) Imaging apparatus and control method thereof
JP5246159B2 (en) Imaging device, image display device, program
KR101342477B1 (en) Imaging apparatus and imaging method for taking moving image
JP4574459B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
CN109155815A (en) Photographic device and its setting screen
JP5806623B2 (en) Imaging apparatus, imaging method, and program
JP2008182485A (en) Photographing device and photographing method
JP2007124279A (en) Image processor
JP4760302B2 (en) Imaging device
JP6261205B2 (en) Image processing device
JP5200821B2 (en) Imaging apparatus and program thereof
JP2008172342A (en) Three-dimensional image recorder and three-dimensional image recording method
JP2007142702A (en) Image processing apparatus
JP7353821B2 (en) Image processing device, its control method, program
JP2015019397A (en) Imaging synthesizing apparatus, image synthesizing method and program
JP2007124278A (en) Imaging apparatus
JP5403087B2 (en) Image processing device
JP2007124280A (en) Imaging apparatus
JP2008048152A (en) Moving picture processing apparatus, moving picture photographing apparatus and moving picture photographing program
JP2020046475A (en) Image processing device and control method therefor
JP5168424B2 (en) Imaging device
JP2010028237A (en) Image pickup device and method for determining photographic parameter
JP6679333B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R151 Written notification of patent or utility model registration

Ref document number: 7353821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151