JP2014027372A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2014027372A
JP2014027372A JP2012164098A JP2012164098A JP2014027372A JP 2014027372 A JP2014027372 A JP 2014027372A JP 2012164098 A JP2012164098 A JP 2012164098A JP 2012164098 A JP2012164098 A JP 2012164098A JP 2014027372 A JP2014027372 A JP 2014027372A
Authority
JP
Japan
Prior art keywords
image
unit
specifying
cue
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012164098A
Other languages
Japanese (ja)
Other versions
JP2014027372A5 (en
JP6064404B2 (en
Inventor
Hiroyuki Kato
寛之 加藤
Kazuto Yamamoto
一人 山本
Hideaki Matsuda
英明 松田
Atsushi Muraki
淳 村木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012164098A priority Critical patent/JP6064404B2/en
Publication of JP2014027372A publication Critical patent/JP2014027372A/en
Publication of JP2014027372A5 publication Critical patent/JP2014027372A5/ja
Application granted granted Critical
Publication of JP6064404B2 publication Critical patent/JP6064404B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To specify and extract a moving image in a desired period even if a special device is not used.SOLUTION: An image processor 1 includes: an image acquiring section 42; an analysis section; a cueing image specifying section 43; and a reproduced image extracting section 44. The image acquiring section 42 acquires a moving image where a subject for performing a series of operations is captured. The analysis section analyzes a series of operations in the moving image acquired by the image acquiring section 42. The cueing image specifying section 43 specifies a cueing image in response to an analysis result. The reproduced image extracting section 44 extracts a specified image from the moving image in response to the specified cueing image.

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来から、一連のスイング動作をしている被写体を撮影した動画像のデータから、インパクト時を含む一部の期間の動画像のデータを抽出する装置が知られている(特許文献1参照)。
具体的には、当該装置は、動画像のデータをエンドレスにリングバッファに記憶しつつ、ドップラセンサによりボール速度を測定し、ボール速度の測定に掛かった処理時間に基づいて、インパクト時のフレーム画像を基準に、一連のスイング動作をしている被写体を含む動画像のデータを抽出する。
2. Description of the Related Art Conventionally, an apparatus is known that extracts moving image data for a part of a period including an impact time from moving image data obtained by shooting a subject performing a series of swing operations (see Patent Document 1).
Specifically, the apparatus measures the ball speed by a Doppler sensor while storing the moving image data in the ring buffer in an endless manner, and based on the processing time taken to measure the ball speed, the frame image at the time of impact Are extracted as moving image data including a subject performing a series of swing motions.

特開2011−30669号公報JP 2011-30669 A

しかしながら、特許文献1に記載の装置では、動画像のデータから一連のスイング動作をしている被写体を含む動画像のような一部の期間の動画像のデータを抽出するためには、ドップラセンサのような特殊なデバイスが必要であった。   However, in the apparatus described in Patent Document 1, a Doppler sensor is used to extract moving image data for a certain period such as a moving image including a subject performing a series of swing operations from moving image data. A special device such as was required.

本発明は、このような状況に鑑みてなされたものであり、特殊なデバイスを使用しなくても所望の画像を抽出できることを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to extract a desired image without using a special device.

上記目的を達成するため、本発明の一態様の画像処理装置は、
一連の動作をする被写体が撮像された動画像を取得する取得手段と、
前記取得手段により取得された動画像中の前記一連の動作を解析する解析手段と、
前記解析手段による解析結果に基づいて、所定の単位画像を特定する特定手段と、
前記特定手段により特定された所定の単位画像に基づいて、前記動画像の中から特定の画像を抽出する抽出手段と、を備える。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
Acquisition means for acquiring a moving image in which a subject performing a series of operations is captured;
Analyzing means for analyzing the series of operations in the moving image acquired by the acquiring means;
A specifying unit for specifying a predetermined unit image based on an analysis result by the analyzing unit;
Extracting means for extracting a specific image from the moving image based on the predetermined unit image specified by the specifying means.

本発明によれば、特殊なデバイスを使用しなくても所望画像を抽出できる。   According to the present invention, a desired image can be extracted without using a special device.

本発明の第1実施形態及び第2実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the image processing apparatus which concerns on 1st Embodiment and 2nd Embodiment of this invention. 図1の画像処理装置の機能的構成のうち、頭出し再生処理を実行するための機能的構成を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating a functional configuration for executing a cue reproduction process among the functional configurations of the image processing apparatus of FIG. 1. 撮像画像を複数の画像領域に分割する具体例を示す図である。It is a figure which shows the specific example which divides a captured image into a some image area. ゴルフのスイングの一連の動作の中でショットがなされる際における、ヘッド画像の推移を示した図である。It is the figure which showed transition of a head image when a shot is made in a series of operations of a golf swing. 被写体のゴルフスイング動作における一連の撮像画像を示した図である。It is the figure which showed a series of captured images in the golf swing operation | movement of a to-be-photographed object. 図2の機能構成を有する画像処理装置が実行する頭出し再生処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of a flow of cueing reproduction processing executed by an image processing apparatus having the functional configuration of FIG. 2. 図1に示した画像処理装置の機能的構成のうち、頭出し選択処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing the cue selection process among the functional structures of the image processing apparatus shown in FIG. マスク画像の具体例を示す図である。It is a figure which shows the specific example of a mask image. 各撮像画像間の差分容量及び、差分容量の変化率を示す図である。It is a figure which shows the difference capacity | capacitance between each captured image, and the change rate of difference capacity | capacitance. 図10は、図7の機能構成を有する画像処理装置が実行する頭出し選択処理の流れの一例を示すフローチャートである。FIG. 10 is a flowchart showing an example of the cue selection process executed by the image processing apparatus having the functional configuration shown in FIG. 図10の頭出し選択処理のステップS21の撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process of step S21 of the cue selection process of FIG. 図10の頭出し選択処理のステップS22の動画再生処理を示すフローチャートである。It is a flowchart which shows the moving image reproduction process of step S22 of the cue selection process of FIG.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
以下、第1実施形態の説明において、本実施形態とは、第1実施形態のことをいう。
[構成]
図1は、本発明の第1実施形態に係る画像処理装置のハードウェアの構成を示すブロック図である。
画像処理装置1は、例えばデジタルカメラとして構成される。
[First Embodiment]
Hereinafter, in the description of the first embodiment, the present embodiment refers to the first embodiment.
[Constitution]
FIG. 1 is a block diagram showing a hardware configuration of the image processing apparatus according to the first embodiment of the present invention.
The image processing apparatus 1 is configured as a digital camera, for example.

画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。   The image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an imaging unit 16, and an input unit. 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21.

CPU11は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 19 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.

AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11やRAM13等に適宜供給される。
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Hereinafter, the output signal of the imaging unit 16 is referred to as “captured image data”. Data of the captured image is appropriately supplied to the CPU 11, RAM 13, and the like.

入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスクあるいはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 17 includes various buttons and the like, and inputs various types of information according to user instruction operations.
The output unit 18 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 19 is composed of a hard disk or a DRAM (Dynamic Random Access Memory) or the like, and stores various image data.
The communication unit 20 controls communication performed with other devices (not shown) via a network including the Internet.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 21. The program read from the removable medium 31 by the drive 21 is installed in the storage unit 19 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.

図2は、このような画像処理装置1の機能的構成のうち、頭出し再生処理を実行するための機能的構成を示す機能ブロック図である。
頭出し再生処理とは、一連の動作をする被写体が撮像された複数の撮像画像の中から、再生を開始する時点の撮像画像(以下、「頭出し画像」と呼ぶ)を特定して、特定した頭出し画像から再生を開始して、それ以降の撮像画像を順次再生していく処理をいう。
ここで、頭出し再生処理の対象は、連写により得られた複数の静止画像も含まれるが、本実施形態では動画像であるものとする。従って、上述の「複数の撮像画像」とは、以下、「動画像を構成する複数の単位画像(フレーム画像やフィールド画像)」を意味するものとする。換言すると、以下、特に断りのない限り、「撮像画像」とは、「単位画像」を意味するものとする。
具体的には、被写体の一連の動作のうち、動作を開始する時点の被写体を含む撮像画像を、頭出し画像として特定し、特定された頭出し画像から再生を開始する処理が、頭出し再生処理である。
ここでは、画像処理装置1によって撮像されたプレーヤのゴルフスイングの例について説明する。ゴルフスイングとは、ゴルフをする人の一連の動作の1つであって、その人が、クラブをセットしてスイングを開始し、クラブのヘッドをトップの位置まで振り上げてから、ヘッドを振り下ろしボールをショットするまでの動作をいう。
撮像が開始されてからゴルフのスイングが開始されるまでの時間が長い場合、スイング後の動画像を視聴したいユーザにとっては、スイング開始までの動画像を早送りする手間がかかる。そこで、本実施形態の画像処理装置1は、スイング開始の撮像画像を頭出し画像として特定して、特定された頭出し画像から再生を開始する。
FIG. 2 is a functional block diagram showing a functional configuration for executing the cue reproduction processing among the functional configurations of such an image processing apparatus 1.
Cue playback processing specifies and specifies a captured image (hereinafter referred to as “cue image”) at the time of starting playback from a plurality of captured images obtained by capturing a subject performing a series of operations. This is a process of starting reproduction from the cued image and sequentially reproducing the subsequent captured images.
Here, the target of the cue reproduction processing includes a plurality of still images obtained by continuous shooting, but in the present embodiment, it is assumed to be a moving image. Therefore, the above-mentioned “plurality of captured images” means “a plurality of unit images (frame images and field images) constituting a moving image” hereinafter. In other words, hereinafter, unless otherwise specified, the “captured image” means a “unit image”.
Specifically, the process of identifying the captured image including the subject at the time of starting the motion as a cue image and starting the reproduction from the identified cue image in a series of motions of the subject is a cue reproduction. It is processing.
Here, an example of the golf swing of the player imaged by the image processing apparatus 1 will be described. A golf swing is one of a series of movements of a golfer who sets a club, starts swinging, swings the club head up to the top position, and then swings the head down. The operation until the ball is shot.
If the time from the start of imaging to the start of the golf swing is long, a user who wants to view the moving image after the swing takes time and effort to fast-forward the moving image until the start of the swing. Therefore, the image processing apparatus 1 according to the present embodiment specifies the captured image at the start of the swing as a cue image, and starts reproduction from the specified cue image.

頭出し再生処理が実行される場合には、図2に示すように、CPU11において、撮像制御部41と、画像取得部42と、頭出し画像特定部43と、再生画像抽出部44と、再生部45とが機能する。また、頭出し画像特定部43においては、画像分割部51と、通過判定部52とが機能する。   When the cue reproduction processing is executed, as shown in FIG. 2, in the CPU 11, the imaging control unit 41, the image acquisition unit 42, the cue image specifying unit 43, the reproduction image extraction unit 44, and the reproduction are performed. The unit 45 functions. In the cueing image specifying unit 43, an image dividing unit 51 and a passage determining unit 52 function.

頭出し再生処理が実行される場合、記憶部19の一領域として設けられた取得画像記憶部61が用いられる。
取得画像記憶部61においては、撮像部16から出力され、画像取得部42により取得された動画像(複数の撮像画像)のデータが記憶されている。
When the cue reproduction process is executed, an acquired image storage unit 61 provided as an area of the storage unit 19 is used.
In the acquired image storage unit 61, data of moving images (a plurality of captured images) output from the imaging unit 16 and acquired by the image acquisition unit 42 is stored.

撮像制御部41は、各種撮像条件を設定し、撮像部16における撮像の動作を制御する。
本実施形態においては、一連の動作をする被写体を撮像するため、撮像制御部41は、撮像部16に、被写体を連続的に撮像させ、動画像のデータとして出力させる。
The imaging control unit 41 sets various imaging conditions and controls the imaging operation in the imaging unit 16.
In this embodiment, in order to image a subject that performs a series of operations, the imaging control unit 41 causes the imaging unit 16 to continuously image the subject and output it as moving image data.

画像取得部42は、撮像部16から出力された動画像のデータを取得する。その後、画像取得部42は、動画像のデータをエンコードして取得画像記憶部61に記憶させる。   The image acquisition unit 42 acquires moving image data output from the imaging unit 16. Thereafter, the image acquisition unit 42 encodes moving image data and stores the encoded data in the acquired image storage unit 61.

頭出し画像特定部43は、取得画像記憶部61に記憶された動画像のデータに基づいて、頭出し画像を特定する。即ち、頭出し画像特定部43は、取得画像記憶部61に記憶された動画像のデータを、撮像画像(単位画像)を単位として順次デコードしつつ、デコードされた一連の撮像画像のデータをRAM13に記憶し、当該一連の撮像画像の中から頭出し画像を特定する。
頭出し画像の特定についての具体的方法を以下説明する。
The cue image specifying unit 43 specifies a cue image based on the moving image data stored in the acquired image storage unit 61. That is, the cueing image specifying unit 43 sequentially decodes the moving image data stored in the acquired image storage unit 61 in units of captured images (unit images), and the decoded series of captured image data in the RAM 13. The cue image is specified from the series of captured images.
A specific method for specifying the cue image will be described below.

画像分割部51は、当該一連の撮像画像のデータの夫々について、撮像画像を複数の画像領域71〜78に分割する。分割の手法は、特に限定されないが、本実施形態では、図3に示すように、単位画像を3×3領域の9領域に分割する手法が採用されているものとする。なお、以下、下段の中央の領域を画像領域71として、時計回りに画像領域72,73,・・・,78として説明する。これらの画像領域71〜78は、本実施形態において、後述するゴルフクラブのヘッド画像81が通過する可能性がある画像領域である。   The image dividing unit 51 divides the captured image into a plurality of image areas 71 to 78 for each of the series of captured image data. The division method is not particularly limited, but in this embodiment, as shown in FIG. 3, it is assumed that a method of dividing a unit image into 9 regions of 3 × 3 regions is adopted. In the following description, the center area in the lower stage is referred to as an image area 71, and image areas 72, 73,. In the present embodiment, these image areas 71 to 78 are image areas through which a golf club head image 81 to be described later may pass.

なお、図3において、各画像領域71〜78内に描画されている丸数字は、それが写っているのではなく、他の画像領域との区別を視覚的につけるためのシンボルである。各画像領域71〜78の各々と、各シンボル(丸数字)との関係は、図3以降の図において共通しているものとする。   In FIG. 3, the circled numbers drawn in each of the image areas 71 to 78 are not reflected but are symbols for visually distinguishing from other image areas. It is assumed that the relationship between each of the image regions 71 to 78 and each symbol (circle numeral) is common in the drawings after FIG.

画像分割部51が、当該一連の撮像画像の夫々を複数の画像領域71〜78に分割したことに応じて、通過判定部52は、ゴルフクラブのヘッド画像81が、画像領域71,72,78の各々を特定の順番で、通過したか否かを判定する。ここで、特定の順番としては、ゴルフクラブのヘッドの実際の移動の軌跡に基づいて、画像領域72,71,78の順番が予め決定されている。また、ヘッド画像81とは、撮像画像のうち、ゴルフクラブのヘッドを示す画像領域をいう。
即ち、通過判定部52は、ヘッド画像81が特定の範囲(画像領域71,72,78)内において特定の順番で推移しているか否かを判断することで、ゴルフスイングの一連の動作の中で、ショットがなされたか否かを判定する。
In response to the image dividing unit 51 dividing each of the series of captured images into a plurality of image areas 71 to 78, the passage determining unit 52 determines that the head image 81 of the golf club is an image area 71, 72, 78. It is determined whether or not each has been passed in a specific order. Here, as the specific order, the order of the image regions 72, 71, 78 is determined in advance based on the actual movement trajectory of the golf club head. Further, the head image 81 refers to an image region indicating a golf club head in the captured image.
That is, the passage determination unit 52 determines whether or not the head image 81 has changed in a specific order within a specific range (image regions 71, 72, and 78), thereby performing a series of golf swing operations. It is then determined whether or not a shot has been made.

図4は、ゴルフのスイングの一連の動作の中でショットがなされる際における、ヘッド画像81の推移を示した図である。
図4には、ゴルフの一連の動作として次のような様子が示されている。即ち、先ず、トップの位置からゴルフクラブが振り下ろされ、ヘッド画像81が画像領域72を通過する(図4の左側の図参照)。次に、ヘッド画像81が画像領域71を通過すると共にショットがなされてボール画像82がショット方向に移動する(図4の中央の図参照)。そして、ヘッド画像81が画像領域78を通過する(図4の右側の図参照)。
ヘッド画像81が、画像領域72,71,78の順番に通過したということは、ゴルフのスイングの一連の動作の中で、ショットが行われたことを示している。
なお、通過判定部52は、当該順番に通過したことを判定する際に、テンプレートマッチング、動体検出等の公知の手法を用いる。
FIG. 4 is a diagram showing the transition of the head image 81 when a shot is made during a series of golf swing operations.
FIG. 4 shows the following state as a series of operations of golf. That is, first, the golf club is swung down from the top position, and the head image 81 passes through the image area 72 (see the left side of FIG. 4). Next, the head image 81 passes through the image area 71 and a shot is made, and the ball image 82 moves in the shot direction (see the center diagram in FIG. 4). Then, the head image 81 passes through the image area 78 (see the right side of FIG. 4).
The fact that the head image 81 has passed in the order of the image areas 72, 71, 78 indicates that a shot has been performed in a series of golf swing operations.
The passage determining unit 52 uses a known method such as template matching or moving object detection when determining that the passage has been made in the order.

ヘッド画像81が、画像領域71,72,78を画像領域72,71,78の順番に通過したと、通過判定部52が判定したことに応じて、頭出し画像特定部43は、動画像の中から頭出し画像を特定する。
図5は、ゴルフスイング動作をしている被写体が写る一連の撮像画像の一例を示した図である。
図5によれば、当該一連の撮像画像は、再生順に、第1撮像画像、第2撮像画像、・・・、第16撮像画像の16枚の連続した撮像画像により構成されている。なお、当該一連の撮像画像の枚数は、本実施形態では、説明の便宜上16枚としているが、特にこれに限定されず、実際は、より多数枚であることが多い。
更に図5に示す「バッファ」の項目は、当該一連の撮像画像の夫々について、ゴルフクラブのヘッド画像81が属する画像領域と、当該撮像画像の取得画像記憶部61における格納アドレスとの各々を示す情報が対応付けられて、RAM13のバッファ領域に格納されていることを示している。例えば、第1撮像画像については、ゴルフクラブのヘッド画像81は画像領域71に属し、当該第1撮像画像のデータが第1アドレスに格納されていることを示す情報が、RAM13のバッファ領域に格納されている。
When the head image 81 passes through the image areas 71, 72, and 78 in the order of the image areas 72, 71, and 78, the cueing image specifying unit 43 determines that the moving image Identify the cue image from the inside.
FIG. 5 is a diagram showing an example of a series of captured images showing a subject performing a golf swing motion.
According to FIG. 5, the series of captured images is composed of 16 consecutive captured images of a first captured image, a second captured image,... Note that the number of the series of captured images is 16 in this embodiment for convenience of explanation, but is not particularly limited to this, and in fact, there are often many more.
Further, the item “buffer” shown in FIG. 5 indicates, for each of the series of captured images, an image area to which the head image 81 of the golf club belongs and a storage address of the captured image in the acquired image storage unit 61. It shows that the information is associated and stored in the buffer area of the RAM 13. For example, for the first captured image, the golf club head image 81 belongs to the image area 71, and information indicating that the data of the first captured image is stored at the first address is stored in the buffer area of the RAM 13. Has been.

以下、頭出し画像の特定方法について説明する。
ヘッド画像81が、画像領域71,72,78を特定の順番(画像領域72,71,78の順番)に通過したと、通過判定部52により判定されたことに応じて、頭出し画像特定部43は、ゴルフスイング動作をした被写体が写っている一連の撮像画像のうち、画像領域72,71,78の順番に通過する以前の撮像画像群を再生方向とは逆方向に検索して、頭出し画像を特定する。
具体的には、頭出し画像特定部43は、第1撮像画像から第11撮像画像について、第11撮像画像から再生方向とは逆方向に検索して、ヘッド画像81が最初に画像領域71に属する第3撮像画像を、頭出し画像として特定する。
Hereinafter, a method for specifying a cueing image will be described.
When the head image 81 passes through the image areas 71, 72, and 78 in a specific order (the order of the image areas 72, 71, and 78), the cue image specifying unit is determined according to the determination by the passage determining unit 52. 43, in a series of captured images of a subject that has performed a golf swing motion, a group of captured images before passing in the order of the image areas 72, 71, and 78 are searched in a direction opposite to the reproduction direction, Specify the source image.
Specifically, the cue image specifying unit 43 searches the first captured image to the eleventh captured image from the eleventh captured image in the direction opposite to the reproduction direction, and the head image 81 first enters the image area 71. The third captured image to which it belongs is specified as a cue image.

頭出し画像特定部43が、頭出し画像を特定したことに応じて、再生画像抽出部44は、再生用の動画像(一連の撮像画像)の各データを取得画像記憶部61から順次抽出する。具体的には、再生画像抽出部44は、頭出し画像である第3撮像画像から最後の第16撮像画像までの各データを、再生用画像のデータとして取得画像記憶部61から順次抽出する。   In response to the cueing image specifying unit 43 specifying the cueing image, the reproduction image extracting unit 44 sequentially extracts each data of a moving image for reproduction (a series of captured images) from the acquired image storage unit 61. . Specifically, the reproduction image extraction unit 44 sequentially extracts each data from the third captured image that is a cue image to the last sixteenth captured image from the acquired image storage unit 61 as reproduction image data.

再生画像抽出部44が再生用画像のデータを取得したことに応じて、再生部45は、抽出した再生用画像のデータを出力部18から出力させる。
したがって、スイング開始時点まで動画像の早送りが無くとも、自動的に、スイング開始時点の撮像画像が頭出しされて、それ以降の一連の撮像画像の再生が可能になる。
In response to the reproduction image extraction unit 44 obtaining the reproduction image data, the reproduction unit 45 causes the output unit 18 to output the extracted reproduction image data.
Therefore, even if the moving image is not fast-forwarded until the swing start time, the captured image at the swing start time is automatically cued, and a series of subsequent captured images can be reproduced.

[頭出し再生処理]
次に、画像処理装置1が実行する頭出し再生処理について説明する。
図6は、図2の機能構成を有する図1の画像処理装置1が実行する頭出し再生処理の流れの一例を示すフローチャートである。
[Cue playback processing]
Next, a cue reproduction process executed by the image processing apparatus 1 will be described.
FIG. 6 is a flowchart showing an example of a cueing reproduction process executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG.

図6において、入力部17が頭出し再生処理を実行させるための指示操作の入力を受け付けたことを契機として頭出し再生処理が開始されると、次のようなステップS1乃至S8の処理が実行される。   In FIG. 6, when the cue reproduction process is started when the input unit 17 receives an input of an instruction operation for executing the cue reproduction process, the following processes of steps S1 to S8 are executed. Is done.

ステップS1において、頭出し画像特定部43は、動画像のデータのうち先頭の撮像画像(以下、「先頭画像」と呼ぶ)のデータを取得画像記憶部61から取得してデコードする。
ステップS2において、頭出し画像特定部43は、デコード後の先頭画像のデータをRAM13のバッファ領域に記憶する。なお、ステップS2は、後述するステップS6によるデコード処理の後にも実行される。
In step S <b> 1, the cue image specifying unit 43 acquires the data of the first captured image (hereinafter referred to as “first image”) from the moving image data from the acquired image storage unit 61 and decodes it.
In step S <b> 2, the cue image specifying unit 43 stores the decoded first image data in the buffer area of the RAM 13. Note that step S2 is also executed after the decoding process in step S6 described later.

ステップS3において、画像分割部51は、頭出し画像特定部43によってRAM13のバッファ領域に記憶された撮像画像のデータについて、複数の画像領域(ここでは3×3画像領域)に分割する。   In step S <b> 3, the image dividing unit 51 divides the captured image data stored in the buffer area of the RAM 13 by the cueing image specifying unit 43 into a plurality of image areas (here, 3 × 3 image areas).

ステップS4において、頭出し画像特定部43は、複数の画像領域に分割された撮像画像のデータについて、ヘッド画像81が属する画像領域と、当該撮像画像の取得画像記憶部61における格納アドレスとの夫々を示す情報を対応付けて、RAM13のバッファ領域に記憶する。例えば、図5の例において、頭出し画像特定部43は、第1撮像画像が処理対象の場合、ゴルフクラブのヘッド画像81が属する画像領域71を示す情報と、第1撮像画像が格納された第1アドレスを示す情報とを対応付けて、RAM13のバッファ領域に記憶する。   In step S <b> 4, the cue image specifying unit 43 sets the image area to which the head image 81 belongs and the storage address of the captured image in the acquired image storage unit 61 for the captured image data divided into a plurality of image areas. Is stored in the buffer area of the RAM 13 in association with each other. For example, in the example of FIG. 5, when the first captured image is a processing target, the cue image specifying unit 43 stores information indicating the image area 71 to which the head image 81 of the golf club belongs and the first captured image. The information indicating the first address is associated with and stored in the buffer area of the RAM 13.

ステップS5において、通過判定部52は、ヘッド画像81が、特定の画像領域群を特定の順番で通過したか否かを判定する。
ここで、本例では、特定の画像領域群は画像領域71,72,78であり、特定の順番は画像領域72,71,78の順番である。当該特定の順番で通過していない場合には、ステップS5においてNOであると判定されて、処理はステップS6に進む。
In step S5, the passage determination unit 52 determines whether or not the head image 81 has passed through a specific image region group in a specific order.
Here, in this example, the specific image area group is the image areas 71, 72, 78, and the specific order is the order of the image areas 72, 71, 78. If it does not pass in the specific order, it is determined as NO in step S5, and the process proceeds to step S6.

ステップS6において、頭出し画像特定部43は、予め設定された間引き率に基づいて、取得画像記憶部61に記憶されている動画像のデータについて、前回のステップS5で判定対象となった撮像画像の次以降の何枚かの撮像画像のデータを間引いた上で、次の撮像画像のデータを取得画像記憶部61から取得してデコードする。なお、間引き率は、通過判定部52が、ヘッド画像81が画像領域72,71,78の順番で通過することを検出できる程度の割合で設定されている。
ステップS6の処理が終了すると、処理はステップS2に戻され、それ以降の処理が繰り返される。即ち、ステップS6でデコードされた撮像画像のデータが、RAM13のバッファ領域に記憶され(ステップS2)、複数の画像領域に分割され(ステップS3)、クラブヘッド画像が属する画像領域及び撮像画像の格納アドレスの夫々を示す情報が記憶され(ステップS4)、ヘッド画像81が特定の画像領域群を特定の順番で通過したか否かが判定される(ステップS5)。
このようなステップS2乃至S5のループ処理は、ヘッド画像81が特定の画像領域群を特定の順番で通過しないと判定される毎に、間引かれた後の動画像を構成する各撮像画像のデータの各々について繰り返し実行される。
そして、所定の撮像画像のデータについてのステップS5において、ヘッド画像81が特定の画像領域群を特定の順番で通過したと判定された場合、処理はステップS7に進む。
In step S <b> 6, the cue image specifying unit 43 determines the captured image that is the determination target in the previous step S <b> 5 for the moving image data stored in the acquired image storage unit 61 based on a preset thinning rate. After thinning out the data of several captured images after the next, the data of the next captured image is acquired from the acquired image storage unit 61 and decoded. Note that the thinning rate is set at such a ratio that the passage determination unit 52 can detect that the head image 81 passes in the order of the image areas 72, 71, and 78.
When the process of step S6 ends, the process returns to step S2, and the subsequent processes are repeated. That is, the captured image data decoded in step S6 is stored in the buffer area of the RAM 13 (step S2), divided into a plurality of image areas (step S3), and the storage of the image area to which the club head image belongs and the captured image. Information indicating each of the addresses is stored (step S4), and it is determined whether or not the head image 81 has passed a specific image region group in a specific order (step S5).
Such a loop process of steps S2 to S5 is performed for each captured image constituting the thinned moving image every time it is determined that the head image 81 does not pass the specific image region group in the specific order. It is repeated for each piece of data.
If it is determined in step S5 regarding the data of the predetermined captured image that the head image 81 has passed through the specific image region group in a specific order, the process proceeds to step S7.

ステップS7において、頭出し画像特定部43は、頭出し画像を特定する。具体的には、頭出し画像特定部43は、デコードされた一連の撮像画像のデータのうち、前記特定の順番に通過する以前の撮像画像群のデータを再生方向とは逆方向に検索して、頭出し画像を特定する。例えば図5の例でいえば、上述したように、頭出し画像特定部43は、第1撮像画像から第11撮像画像の各データについて、第11撮像画像から再生方向とは逆方向に検索して、ヘッド画像81が最初に画像領域71に属する第3撮像画像を、頭出し画像として特定する。   In step S <b> 7, the cue image specifying unit 43 specifies a cue image. Specifically, the cue image specifying unit 43 searches the data of the captured image group before passing in the specific order in the decoded series of captured image data in a direction opposite to the reproduction direction. Identify the cue image. For example, in the example of FIG. 5, as described above, the cue image specifying unit 43 searches each data of the first captured image to the 11th captured image from the 11th captured image in the direction opposite to the reproduction direction. Thus, the third captured image in which the head image 81 first belongs to the image area 71 is specified as the cue image.

ステップS8において、再生画像抽出部44は、再生用の一連の撮像画像のデータを取得画像記憶部61から抽出する。また、再生部45は、抽出した再生用の一連の撮像画像のデータを出力部18から出力させる。具体的には、再生画像抽出部44は、頭出し画像から最後の撮像画像までを再生用の一連の撮像画像として、再生用の一連の撮像画像の各データを取得画像記憶部61から順次抽出する。更に、再生部45は、抽出した再生用の一連の撮像画像の各データを出力部18から出力させる。
したがって、ユーザは、スイング開始時点の画像まで動画像を早送りすることなく、スイング開始時点の撮像画像から頭出しして、それ以降の一連の撮像画像を視聴することができる。
In step S <b> 8, the reproduced image extraction unit 44 extracts a series of captured image data for reproduction from the acquired image storage unit 61. Further, the reproduction unit 45 causes the output unit 18 to output the extracted series of captured image data for reproduction. Specifically, the reproduction image extraction unit 44 sequentially extracts each piece of data of a series of captured images for reproduction from the acquired image storage unit 61 using a sequence from the cue image to the last captured image as a series of captured images for reproduction. To do. Further, the playback unit 45 causes the output unit 18 to output each piece of extracted series of captured images for playback.
Therefore, the user can cue from the captured image at the time of starting the swing and view a series of captured images thereafter without fast-forwarding the moving image to the image at the time of starting the swing.

以上、本発明の第1実施形態について説明した。
以上のような頭出し再生処理を実行する画像処理装置1は、画像取得部42と、頭出し画像特定部43と、再生画像抽出部44と、を備える。
画像取得部42は、一連の動作をする被写体が撮像された動画像を取得する。
頭出し画像特定部43は、画像取得部42により取得された動画像中の一連の動作を解析し、この解析結果に基づいて、頭出し画像を特定する。
再生画像抽出部44は、特定された頭出し画像に基づいて、動画像の中から特定の画像を抽出する。
したがって、このような画像処理装置1は、特殊なデバイスを使用しなくても所望の期間の動画像を特定して抽出できる。
The first embodiment of the present invention has been described above.
The image processing apparatus 1 that performs the above-described cue reproduction processing includes an image acquisition unit 42, a cue image specifying unit 43, and a reproduction image extraction unit 44.
The image acquisition unit 42 acquires a moving image in which a subject that performs a series of operations is captured.
The cue image specifying unit 43 analyzes a series of operations in the moving image acquired by the image acquisition unit 42, and specifies a cue image based on the analysis result.
The reproduction image extraction unit 44 extracts a specific image from the moving image based on the specified cue image.
Therefore, such an image processing apparatus 1 can identify and extract a moving image of a desired period without using a special device.

また、頭出し画像特定部43は、画像分割部51と、通過判定部52と、を備える。
画像分割部51は、動画像を構成する単位画像の夫々を、複数の画像領域71〜78に分割する。
通過判定部52は、画像分割部51によって分割された複数の画像領域71〜78のうちの画像領域71,72,78内において、ヘッド画像81が特定の順番で通過したか否かを判定する。
頭出し画像特定部43は、通過判定部52により、ヘッド画像81が画像領域72,71,78の順番で通過したことが検出された場合に、当該検出がなされる以前動画像(第1画像〜第11画像)を逆の再生順に検索し、ヘッド画像81が画像領域71に属した時点における画像に基づいて、頭出し画像を特定する。
したがって、このような画像処理装置1は、ユーザに早送りをさせることなく、ゴルフスイングの開始時点の画像を頭出し画像として特定できる。
The cueing image specifying unit 43 includes an image dividing unit 51 and a passage determining unit 52.
The image dividing unit 51 divides each of the unit images constituting the moving image into a plurality of image areas 71 to 78.
The passage determining unit 52 determines whether or not the head image 81 has passed in a specific order in the image regions 71, 72, and 78 of the plurality of image regions 71 to 78 divided by the image dividing unit 51. .
When the passage determining unit 52 detects that the head image 81 has passed in the order of the image areas 72, 71, and 78, the cueing image specifying unit 43 detects a moving image (first image) before the detection is performed. To 11th image) are searched in the reverse playback order, and the cueing image is specified based on the image at the time when the head image 81 belongs to the image area 71.
Therefore, such an image processing apparatus 1 can specify the image at the start of the golf swing as a cue image without causing the user to fast-forward.

また、通過判定部52は、動画像を再生順に検索する際に、当該動画像から所定の間引き率で単位画像を間引くとともに、間引かれた動画像の再生順にヘッド画像81が特定の順番で通過したか否かを判定する。
したがって、このような画像処理装置1は、頭出し画像を特定する際の処理効率を高めることができる。
Further, when the passage determination unit 52 searches for moving images in the reproduction order, the unit images are thinned out from the moving images at a predetermined thinning rate, and the head images 81 are arranged in a specific order in the reproduction order of the thinned moving images. It is determined whether or not it has passed.
Therefore, such an image processing apparatus 1 can improve the processing efficiency when specifying a cueing image.

また、画像処理装置1は、再生部45を更に備える。
再生部45は、再生画像抽出部44により抽出された単位画像に基づいて、所定期間の撮像画像群のデータを再生する。
したがって、このような画像処理装置1は、特殊なデバイスを使用しなくても所望の期間の動画像を再生できる。
The image processing apparatus 1 further includes a playback unit 45.
Based on the unit image extracted by the reproduction image extraction unit 44, the reproduction unit 45 reproduces data of the captured image group for a predetermined period.
Therefore, such an image processing apparatus 1 can reproduce a moving image of a desired period without using a special device.

[第2実施形態]
次に、本発明の第2実施形態について説明する。
以下、第2実施形態の説明において、本実施形態とは、第2実施形態のことをいう。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
Hereinafter, in the description of the second embodiment, the present embodiment refers to the second embodiment.

本発明の第2実施形態に係る画像処理装置1は、第1実施形態と同様のハードウェア構成を有している。即ち、図1は、第2実施形態に係る画像処理装置1のハードウェア構成も示している。なお、図1のハードウェア構成は説明済みであるので、ここではその説明は省略する。   The image processing apparatus 1 according to the second embodiment of the present invention has the same hardware configuration as that of the first embodiment. That is, FIG. 1 also shows a hardware configuration of the image processing apparatus 1 according to the second embodiment. Since the hardware configuration in FIG. 1 has already been described, the description thereof is omitted here.

図7は、図1に示した画像処理装置1の機能的構成のうち、頭出し選択処理を実行するための機能的構成を示す機能ブロック図である。
頭出し選択処理とは、一連の動作をする被写体が撮像された複数の撮像画像の中から、頭出し画像の候補となる撮像画像(以下、「頭出し候補画像」と呼ぶ)を複数個特定して、特定した複数個の撮像画像のうちユーザにより選択された撮像画像を頭出し画像として、頭出し画像から再生を開始する処理をいう。
本実施形態では、第1実施形態と同様、画像処理装置1によって撮像された被写体のゴルフスイングの例について説明する。
撮像が開始されてからゴルフのスイングが開始されるまでの時間が長い場合、スイング後の動画像を視聴したいユーザにとっては、スイング開始までの動画像を早送りする手間がある。そこで、本実施形態の画像処理装置1は、スイングが開始される時点を含む前後数秒間の撮像画像を頭出し候補画像として複数個特定し、ユーザの選択操作により、ユーザが所望する撮像画像を頭出し画像として特定して、特定した頭出し画像から再生を開始する。
FIG. 7 is a functional block diagram showing a functional configuration for executing the cue selection process among the functional configurations of the image processing apparatus 1 shown in FIG.
Cue selection processing specifies multiple picked-up images (hereinafter referred to as “cue candidate images”) that are candidates for a cue image from a plurality of picked-up images of a subject that performs a series of operations. Then, it refers to a process of starting reproduction from a cue image using a cue image selected by the user from among a plurality of identified picked-up images as a cue image.
In the present embodiment, an example of a golf swing of a subject imaged by the image processing apparatus 1 will be described as in the first embodiment.
When the time from the start of imaging to the start of the golf swing is long, a user who wants to view the moving image after the swing has time and effort to fast-forward the moving image until the start of the swing. Therefore, the image processing apparatus 1 according to the present embodiment specifies a plurality of captured images for several seconds before and after the start of the swing as cue candidate images, and selects a captured image desired by the user by a user's selection operation. It is specified as a cue image, and reproduction is started from the specified cue image.

頭出し選択処理が実行される場合には、図7に示すように、CPU11において、撮像制御部41と、画像取得部42と、頭出し画像特定部43と、再生画像抽出部44と、再生部45とが機能する。また、画像取得部42においては、マスク処理部91と差分算出部92とが機能し、頭出し画像特定部43においては、変化率算出部93が機能する。   When the cue selection process is executed, as shown in FIG. 7, in the CPU 11, the image pickup control unit 41, the image acquisition unit 42, the cue image specifying unit 43, the reproduction image extraction unit 44, and the reproduction The unit 45 functions. In the image acquisition unit 42, the mask processing unit 91 and the difference calculation unit 92 function, and in the cue image specifying unit 43, the change rate calculation unit 93 functions.

頭出し選択処理が実行される場合、記憶部19の一領域として設けられた取得画像記憶部61及びマスク画像記憶部62が用いられる。
取得画像記憶部61においては、撮像部16から出力され、画像取得部42により取得された動画像(複数の撮像画像)のデータが記憶されている。
マスク画像記憶部62においては、図8に示すような、ヘッド画像81の軌跡外の領域をマスク領域83とするマスク画像が記憶されている。このマスク画像は、マスク処理部91によって、撮像画像84に重ね合わせられることで、撮像画像84にマスク処理が施される。
マスク画像は、マスク画像記憶部62に予め記憶されているゴルフスイングの一連の画像のデータに基づいて算出されるヘッド画像81の軌跡に基づいて生成される。
具体的には、再生される動画中におけるヘッド画像81が通過しない外側の画像領域がマスク処理の対象となる画像領域となる。
When the cue selection process is executed, an acquired image storage unit 61 and a mask image storage unit 62 provided as an area of the storage unit 19 are used.
In the acquired image storage unit 61, data of moving images (a plurality of captured images) output from the imaging unit 16 and acquired by the image acquisition unit 42 is stored.
The mask image storage unit 62 stores a mask image in which the area outside the locus of the head image 81 is a mask area 83 as shown in FIG. The mask image is superimposed on the captured image 84 by the mask processing unit 91, so that the captured image 84 is subjected to mask processing.
The mask image is generated based on the trajectory of the head image 81 calculated based on the data of a series of golf swing images stored in advance in the mask image storage unit 62.
Specifically, the outer image area through which the head image 81 does not pass in the reproduced moving image is the image area to be masked.

撮像制御部41は、各種撮像条件を設定し、撮像部16における撮像の動作を制御する。
本実施形態においては、一連の動作をする被写体を撮像するため、撮像制御部41は、撮像部16に、被写体を連続的に撮像させ、動画像のデータとして出力させる。
The imaging control unit 41 sets various imaging conditions and controls the imaging operation in the imaging unit 16.
In this embodiment, in order to image a subject that performs a series of operations, the imaging control unit 41 causes the imaging unit 16 to continuously image the subject and output it as moving image data.

画像取得部42は、撮像部16から出力された動画像のデータを取得する。その後、画像取得部42は、動画像のデータをエンコードして取得画像記憶部61に記憶させる。
画像取得部42が当該動画像のデータを取得すると、マスク処理部91は、動画像を構成する一連の撮像画像の夫々について、マスク処理を施す。具体的には、マスク処理部91は、マスク画像記憶部62に記憶されているマスク画像を、当該一連の撮像画像と共にデコードして、当該一連の撮像画像の夫々に重ね合わせて表示させる処理を施す。マスク処理が撮像画像に施されることにより、マスク処理された領域の画素値は常に一定となる。
差分算出部92は、当該一連の撮像画像を取得する度に、1つ前に取得された撮像画像との間で撮像画像のデータの差分容量を算出する。具体的には、図9に示す6つの撮像画像を例として説明すると、差分算出部92は、隣接する撮像画像同士で撮像画像のデータの差分容量を算出する。差分容量が算出される際には、撮像画像にはマスクが施されている。図9において、フレーム番号は、撮像画像の撮像順番を表しており、再生時には、フレーム番号順に再生される。また、差分算出部92は、算出した差分容量をRAM13のバッファ領域に記憶する。本実施形態では、記憶される差分容量は、所定の閾値により、大、中、小の3段階に振り分けられる。
画像取得部42は、差分算出部92により差分容量が算出されたことに応じて動画像のデータを取得画像記憶部61に記憶させる。このとき、記憶された動画像のデータを構成する一連の撮像画像のデータの取得画像記憶部61における格納アドレスがRAM13のバッファ領域に記憶される。
The image acquisition unit 42 acquires moving image data output from the imaging unit 16. Thereafter, the image acquisition unit 42 encodes moving image data and stores the encoded data in the acquired image storage unit 61.
When the image acquisition unit 42 acquires the data of the moving image, the mask processing unit 91 performs a mask process on each of a series of captured images constituting the moving image. Specifically, the mask processing unit 91 performs a process of decoding the mask image stored in the mask image storage unit 62 together with the series of captured images and displaying the decoded images superimposed on each of the series of captured images. Apply. By performing the mask process on the captured image, the pixel value of the masked area is always constant.
Every time the series of captured images is acquired, the difference calculation unit 92 calculates the difference capacity of the captured image data from the previously acquired captured image. Specifically, the six captured images illustrated in FIG. 9 will be described as an example. The difference calculation unit 92 calculates the difference capacity of the captured image data between adjacent captured images. When the difference capacity is calculated, the captured image is masked. In FIG. 9, the frame number represents the imaging order of the captured images, and is reproduced in the order of the frame number at the time of reproduction. In addition, the difference calculation unit 92 stores the calculated difference capacity in the buffer area of the RAM 13. In the present embodiment, the stored differential capacity is distributed into three levels of large, medium, and small according to a predetermined threshold.
The image acquisition unit 42 causes the acquired image storage unit 61 to store moving image data in accordance with the difference capacity calculated by the difference calculation unit 92. At this time, the storage address in the acquired image storage unit 61 of the series of captured image data constituting the stored moving image data is stored in the buffer area of the RAM 13.

撮像部16による撮像が終了し、全ての動画像のデータが取得画像記憶部61に記憶されたことに応じて、頭出し画像特定部43が有する変化率算出部93は、差分算出部92により算出された各撮像画像間の差分容量の変化率を算出する。例えば、図9に示すように、変化率算出部93は、差分画像の容量の変化が、「小→小」、「大→大」等のように、少ない場合、差分容量の変化率は「小」となり、「小→中」、「中→大」、「大→中」の場合、差分容量の変化率は「大」又は「中」となる。
頭出し画像特定部43は、算出された変化率に基づいて、頭出し候補画像を複数個特定する。具体的には、頭出し画像特定部43は、差分容量が「大」又は「中」とされた場合に、差分容量の算出の基礎となった2枚の撮像画像のうち、フレーム番号が小さいほうの撮像画像を頭出し候補画像として特定する。図9を例にして説明すると、差分容量が「大」の場合、フレーム番号が「3」の撮像画像が、頭出し候補画像として特定され、差分容量が「中」の場合、フレーム番号が「4」の撮像画像が、頭出し候補画像として特定される。したがって、頭出し候補画像として、フレーム番号が「3」と「4」の2枚の撮像画像が特定される。このとき、フレーム番号が「3」と「4」の2枚の撮像画像について、格納アドレスがRAM13のバッファ領域に、頭出し候補画像の格納アドレスとして記憶される。
In response to completion of imaging by the imaging unit 16 and storage of all moving image data in the acquired image storage unit 61, the change rate calculation unit 93 included in the cueing image specifying unit 43 is performed by the difference calculation unit 92. The change rate of the difference capacity between the calculated captured images is calculated. For example, as illustrated in FIG. 9, when the change in the difference image capacity is small, such as “small → small”, “large → large”, or the like, the change rate of the difference capacity is “ In the case of “small”, “small → medium”, “medium → large”, and “large → medium”, the change rate of the differential capacity is “large” or “medium”.
The cue image specifying unit 43 specifies a plurality of cue candidate images based on the calculated change rate. Specifically, when the difference capacity is set to “large” or “medium”, the cue image specifying unit 43 has a smaller frame number among the two captured images that are the basis for calculating the difference capacity. This captured image is specified as a cue candidate image. Referring to FIG. 9 as an example, when the difference capacity is “Large”, the captured image with the frame number “3” is specified as a cue candidate image, and when the difference capacity is “Medium”, the frame number is “ The captured image of “4” is specified as a cue candidate image. Therefore, two captured images with frame numbers “3” and “4” are specified as the cue candidate images. At this time, for the two captured images with the frame numbers “3” and “4”, the storage address is stored in the buffer area of the RAM 13 as the storage address of the cue candidate image.

頭出し候補画像が特定されると、再生部45は、取得画像記憶部61から動画像のデータを取得して、取得した動画像のデータをデコードして再生する。
再生部45により、動画像の再生が開始されると、再生画像抽出部44は、特定された頭出し候補画像を出力部18に表示させる。
特定された頭出し候補画像が出力部18に表示されると、再生画像抽出部44は、ユーザからの頭出し画像を選択する指示操作の入力を、入力部17を介して受け付けて、頭出し画像を特定する。このとき、特定された頭出し画像の取得画像記憶部61における格納アドレスが、頭出し画像の格納アドレスとして、RAM13のバッファ領域に記憶される。
When the cue candidate image is specified, the reproducing unit 45 acquires moving image data from the acquired image storage unit 61, and decodes and reproduces the acquired moving image data.
When playback of the moving image is started by the playback unit 45, the playback image extraction unit 44 causes the output unit 18 to display the specified cue candidate image.
When the identified cue candidate image is displayed on the output unit 18, the reproduction image extraction unit 44 receives an input of an instruction operation for selecting a cue image from the user via the input unit 17, and finds the cue. Identify the image. At this time, the storage address of the identified cue image in the acquired image storage unit 61 is stored in the buffer area of the RAM 13 as the cue image storage address.

頭出し画像が特定されたことに応じて、再生画像抽出部44は、再生用の動画像(一連の撮像画像)のデータを取得画像記憶部61から順次抽出する。具体的には、再生画像抽出部44は、特定された頭出し画像から最後の撮像画像までの各データを、再生用の画像のデータとして取得画像記憶部61から抽出する。   In response to the identification of the cue image, the reproduction image extraction unit 44 sequentially extracts data of a moving image (a series of captured images) for reproduction from the acquired image storage unit 61. Specifically, the reproduction image extraction unit 44 extracts each data from the specified cue image to the last captured image from the acquired image storage unit 61 as image data for reproduction.

再生画像抽出部44が再生用画像のデータを取得したことに応じて、再生部45は、抽出した再生用画像のデータを出力部18から出力させる。
したがって、ユーザが、頭出し候補画像の中から、所望の画像を頭出し画像として選択することにより、頭出し画像まで動画像の早送りが無くとも、自動的に、スイング開始時点の前後数秒間のうちの一点の撮像画像が頭出しされて、それ以降の一連の撮像画像の再生が可能になる。
In response to the reproduction image extraction unit 44 obtaining the reproduction image data, the reproduction unit 45 causes the output unit 18 to output the extracted reproduction image data.
Therefore, when the user selects a desired image from among the cueing candidate images as a cueing image, even if there is no fast-forwarding of the moving image up to the cueing image, the user can automatically perform several seconds before and after the swing start time. One of the captured images is cued, and a series of subsequent captured images can be reproduced.

[頭出し選択処理]
次に、画像処理装置1が実行する頭出し選択処理について説明する。
図10は、図7の機能構成を有する図1の画像処理装置1が実行する頭出し選択処理(メインフロー)の流れの一例を示すフローチャートである。
[Cue selection process]
Next, a cue selection process executed by the image processing apparatus 1 will be described.
FIG. 10 is a flowchart showing an example of the flow of cue selection processing (main flow) executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG.

図10において、入力部17が頭出し選択処理を実行させるための指示操作の入力を受け付けたことを契機として頭出し選択処理が開始されると、画像取得部42は、ステップS21において、図11を参照して後述する撮影処理を開始し、ステップS22において、図12を参照して後述する動画再生処理を開始して、頭出し選択処理を終了する。
撮影処理とは、頭出し画像特定部43等が、撮像画像のデータから頭出し候補画像を特定する処理である。また、動画再生処理とは、再生画像抽出部44等が、頭出し画像を特定し、特定した頭出し画像から再生を開始する処理である。
In FIG. 10, when the cue selection process is started when the input unit 17 receives an input of an instruction operation for executing the cue selection process, the image acquisition unit 42 in FIG. In step S22, a moving image reproduction process described later with reference to FIG. 12 is started, and the cue selection process ends.
The imaging process is a process in which the cue image specifying unit 43 or the like specifies a cue candidate image from captured image data. The moving image reproduction process is a process in which the reproduction image extraction unit 44 or the like identifies a cue image and starts reproduction from the identified cue image.

[撮影処理]
次に、画像処理装置1が実行する撮影処理について説明する。
図11は、図7の機能構成を有する図1の画像処理装置1が実行する撮影処理の流れの一例を示すフローチャートである。
[Shooting process]
Next, a photographing process executed by the image processing apparatus 1 will be described.
FIG. 11 is a flowchart illustrating an example of a flow of photographing processing executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG.

図11において、撮影処理が開始されると、ステップS31において、画像取得部42は、撮像部16から出力された動画像のデータを取得し、取得画像記憶部61に記憶させる。このステップS31が実行される度に、当該動画像を構成する一連の撮像画像のデータが1枚ずつ取得され、取得画像記憶部61に記憶される。   In FIG. 11, when the shooting process is started, in step S <b> 31, the image acquisition unit 42 acquires moving image data output from the imaging unit 16 and stores the acquired data in the acquired image storage unit 61. Each time this step S31 is executed, a series of captured image data constituting the moving image is acquired one by one and stored in the acquired image storage unit 61.

ステップS32において、画像取得部42は、撮影が終了したか否か、即ち、当該動画像のデータの取得が終了したか否かを判定する。当該判定は、例えば、画像取得部42が、ユーザによる撮影終了の指示操作を、入力部17を介して受け付けたか否かに基づいて実行される。画像取得部42が、撮影が終了したと判定するまでは、ステップS32でNOと判定され、処理はステップS33へ移行される。   In step S <b> 32, the image acquisition unit 42 determines whether shooting has ended, that is, whether acquisition of moving image data has ended. This determination is executed based on, for example, whether or not the image acquisition unit 42 has received an instruction to end shooting by the user via the input unit 17. Until the image acquisition unit 42 determines that the shooting has ended, NO is determined in step S32, and the process proceeds to step S33.

ステップS33において、画像取得部42が有するマスク処理部91は、ステップS31において取得された撮像画像のデータにマスク処理を施す。具体的には、マスク処理部91は、マスク画像記憶部62に記憶されているマスク画像を、取得された画像に重ね合わせて表示することでマスク処理を施す。マスクが撮像画像のデータに施されることにより、マスクされた領域の画素値は常に一定となる。   In step S33, the mask processing unit 91 included in the image acquisition unit 42 performs mask processing on the captured image data acquired in step S31. Specifically, the mask processing unit 91 performs mask processing by displaying the mask image stored in the mask image storage unit 62 so as to overlap the acquired image. By applying the mask to the captured image data, the pixel value of the masked area is always constant.

ステップS34において、画像取得部42は、ステップS31において取得された撮像画像のデータが最初の撮像画像のデータであるか否かを判定する。最初の撮像画像のデータである場合、撮像画像のデータの差分容量を算出する対象の画像が1枚であるため、差分容量が算出できないので、YESと判定され、ステップS31に処理が戻り、次の撮像画像のデータが取得される。
一方、最初の撮像画像のデータでない場合、NOと判定され、ステップS35に処理が移行される。
In step S34, the image acquisition unit 42 determines whether the data of the captured image acquired in step S31 is the data of the first captured image. In the case of the first captured image data, since there is only one target image for calculating the difference capacity of the captured image data, the difference capacity cannot be calculated. Therefore, YES is determined, and the process returns to step S31. The captured image data is acquired.
On the other hand, when it is not the data of the first captured image, it is determined as NO, and the process proceeds to step S35.

ステップS35において、画像取得部42が有する差分算出部92は、ステップS31において取得された撮像画像のデータと、1つ前のステップS31の処理において取得された撮像画像のデータとの間の差分容量を算出する。具体的には、図9に示す6つの撮像画像を例として説明すると、差分算出部92は、隣接する撮像画像同士で撮像画像のデータの差分容量を算出する。また、差分算出部92は、算出した差分容量をRAM13のバッファ領域に記憶する。本実施形態では、記憶される差分容量は、所定の閾値により、大、中、小の3段階に振り分けられる。ステップS35の処理が終了すると、差分算出部92は、処理をステップS31に戻し、次の撮像画像のデータが取得される。   In step S35, the difference calculation unit 92 included in the image acquisition unit 42 calculates the difference capacity between the captured image data acquired in step S31 and the captured image data acquired in the process of the previous step S31. Is calculated. Specifically, the six captured images illustrated in FIG. 9 will be described as an example. The difference calculation unit 92 calculates the difference capacity of the captured image data between adjacent captured images. In addition, the difference calculation unit 92 stores the calculated difference capacity in the buffer area of the RAM 13. In the present embodiment, the stored differential capacity is distributed into three levels of large, medium, and small according to a predetermined threshold. When the process of step S35 ends, the difference calculation unit 92 returns the process to step S31, and the data of the next captured image is acquired.

ステップS32において、画像取得部42が、撮影が終了したと判断した場合、YESと判定され、ステップS36に処理が移行される。したがって、撮影が終了されるまではステップS31〜S35の処理が繰り返し実行されるため、ステップS31において取得された撮像画像のデータと、1つ前に実行されたステップS31において取得された撮像画像のデータとの間の差分容量が繰り返し算出され、RAM13のバッファ領域に記憶されることになる。   In step S32, when the image acquisition unit 42 determines that the photographing has been completed, it is determined YES, and the process proceeds to step S36. Therefore, since the processes of steps S31 to S35 are repeatedly executed until the shooting is finished, the captured image data acquired in step S31 and the captured image acquired in step S31 executed immediately before are captured. The difference capacity with respect to the data is repeatedly calculated and stored in the buffer area of the RAM 13.

ステップS36において、頭出し画像特定部43が有する変化率算出部93は、差分算出部92により算出された各画像間の差分容量の変化率を算出する。例えば、図9に示すように、変化率算出部93は、差分画像の容量の変化が、「小→小」、「大→大」等のように、少ない場合、差分容量の変化率は「小」となり、「小→中」、「中→大」、「大→中」の場合、差分容量の変化率は「大」又は「中」となる。   In step S <b> 36, the change rate calculation unit 93 included in the cue image specifying unit 43 calculates the change rate of the difference capacity between the images calculated by the difference calculation unit 92. For example, as illustrated in FIG. 9, when the change in the difference image capacity is small, such as “small → small”, “large → large”, or the like, the change rate of the difference capacity is “ In the case of “small”, “small → medium”, “medium → large”, and “large → medium”, the change rate of the differential capacity is “large” or “medium”.

ステップS37において、頭出し画像特定部43は、算出された変化率に基づいて、頭出し候補画像を複数個特定する。具体的には、頭出し画像特定部43は、差分容量が「大」又は「中」とされた場合に、差分容量の算出の基礎となった2枚の撮像画像のうち、フレーム番号が小さいほうの撮像画像を頭出し候補画像として特定する。   In step S37, the cue image specifying unit 43 specifies a plurality of cue candidate images based on the calculated change rate. Specifically, when the difference capacity is set to “large” or “medium”, the cue image specifying unit 43 has a smaller frame number among the two captured images that are the basis for calculating the difference capacity. This captured image is specified as a cue candidate image.

[動画再生処理]
次に、画像処理装置1が実行する動画再生処理ついて説明する。
図12は、図7の機能構成を有する図1の画像処理装置1が実行する動画再生処理の流れの一例を示すフローチャートである。
[Video playback processing]
Next, the moving image reproduction process executed by the image processing apparatus 1 will be described.
FIG. 12 is a flowchart showing an example of the flow of a moving image reproduction process executed by the image processing apparatus 1 of FIG. 1 having the functional configuration of FIG.

図12において、動画再生処理が開始されると、ステップS41において、再生部45は、取得画像記憶部61から動画像のデータを取得して、取得した動画像のデータをデコードして再生する。   In FIG. 12, when the moving image reproduction process is started, in step S41, the reproduction unit 45 acquires moving image data from the acquired image storage unit 61, and decodes and reproduces the acquired moving image data.

ステップS42において、再生画像抽出部44は、ユーザからの頭出しボタンの押下がなされたか否かを判定する。ここで、頭出しボタンとは、ユーザが頭出し再生を実行させたい場合に押下されるボタンである。具体的には、再生画像抽出部44は、頭出しボタンが押下されることにより、頭出し再生を実行させるための指示操作の入力を、入力部17を介して受け付けたか否かを判定する。当該指示操作の入力を受け付けない場合には、ステップS42において、NOと判定され、処理がステップS43に移行される。   In step S42, the reproduction image extraction unit 44 determines whether or not the cue button has been pressed by the user. Here, the cue button is a button that is pressed when the user wants to perform cue reproduction. Specifically, the reproduction image extraction unit 44 determines whether or not an input of an instruction operation for executing the cueing reproduction is accepted through the input unit 17 when the cue button is pressed. When the input of the instruction operation is not accepted, NO is determined in step S42, and the process proceeds to step S43.

ステップS43では、再生画像抽出部44は、動画像の再生が終了したか否かを判定する。動画像の再生が終了した場合には、ステップS43において、YESと判定され、動画再生処理が終了する。一方、動画像の再生が終了しない場合には、ステップS43において、NOと判定され、ステップS42に処理が戻る。したがって、頭出しボタンが押下されないと、そのまま動画像の再生が終了する。一方、頭出しボタンが押下されると、ステップS42において、YESと判定され、処理がステップS44に移行される。   In step S43, the reproduction image extraction unit 44 determines whether or not reproduction of the moving image has ended. When the reproduction of the moving image is finished, YES is determined in step S43, and the moving image reproduction process is finished. On the other hand, if the reproduction of the moving image does not end, NO is determined in step S43, and the process returns to step S42. Therefore, if the cue button is not pressed, the reproduction of the moving image is finished as it is. On the other hand, if the cue button is pressed, YES is determined in step S42, and the process proceeds to step S44.

ステップS44において、再生画像抽出部44は、特定された頭出し候補画像を出力部18に表示させ、ステップS45において、ユーザからの頭出し画像を選択する指示操作の入力を、入力部17を介して受け付けて、頭出し画像を特定する。   In step S44, the reproduction image extraction unit 44 displays the specified cueing candidate image on the output unit 18, and in step S45, an input of an instruction operation for selecting a cueing image from the user is input via the input unit 17. To identify the cue image.

ステップS46において、再生画像抽出部44は、再生用の動画像(一連の撮像画像)のデータを取得画像記憶部61から抽出する。具体的には、再生画像抽出部44は、頭出し画像特定部43により特定された頭出し画像から最後の撮像画像までの各データを、再生用画像のデータとして取得画像記憶部61から順次抽出する。   In step S <b> 46, the reproduction image extraction unit 44 extracts data of a moving image (a series of captured images) for reproduction from the acquired image storage unit 61. Specifically, the reproduction image extracting unit 44 sequentially extracts each data from the cue image specified by the cue image specifying unit 43 to the last captured image from the acquired image storage unit 61 as reproduction image data. To do.

ステップS47において、再生部45は、抽出した再生用の画像のデータを出力部18に出力させる。
したがって、ユーザは、頭出し候補画像の中から、所望の画像を頭出し画像として選択することにより、スイング開始時点の前後数秒間の一時点の撮像画像まで動画像を早送りすることなく、当該一時点の撮像画像から頭出しして、それ以降の一連の撮像画像を視聴することができる。
In step S47, the reproduction unit 45 causes the output unit 18 to output the extracted image data for reproduction.
Therefore, the user selects a desired image from among the cueing candidate images as a cueing image, so that the one image can be obtained without fast-forwarding the moving image to a captured image at a point in time for several seconds before and after the swing start point. It is possible to cue from the captured image at the time point and view a series of captured images thereafter.

ステップS47の処理が終了すると、再生部45は、ステップS42に処理を戻す。したがって、再度、再生画像抽出部44は、ユーザからの頭出しボタンの押下がなされたか否かを判定する。よって、再度頭出しボタンの押下がなされると、ステップS44〜S46の処理が再度実行され、頭出し再生が再度実行される。一方、再度の頭出しボタンの押下がなされないと、ステップS42及びS43の処理が繰り返し実行され、そのまま動画再生処理が終了する。   When the process of step S47 ends, the reproducing unit 45 returns the process to step S42. Therefore, the reproduction image extraction unit 44 determines again whether or not the cue button has been pressed by the user. Therefore, when the cue button is pressed again, the processes of steps S44 to S46 are executed again, and the cue playback is executed again. On the other hand, if the cue button is not pressed again, the processes in steps S42 and S43 are repeatedly executed, and the moving image reproduction process is ended as it is.

以上、本発明の第2実施形態について説明した。
以上のような頭出し選択処理を実行する画像処理装置1は、画像取得部42と、頭出し画像特定部43と、再生画像抽出部44と、を備える。
画像取得部42は、一連の動作をする被写体が撮像された動画像を取得する。
頭出し画像特定部43は、画像取得部42により取得された動画像中の一連の動作を解析し、この解析結果に基づいて、再生開始時点の単位画像である頭出し候補画像を特定する。
再生画像抽出部44は、動画像のデータの中から、頭出し画像特定部43により特定された頭出し画像候補画像のいずれかを始期とする所定期間の撮像画像群のデータを抽出する。
したがって、このような画像処理装置1は、特殊なデバイスを使用しなくても所望の期間の動画像を特定して抽出できる。
The second embodiment of the present invention has been described above.
The image processing apparatus 1 that executes the above-described cue selection processing includes an image acquisition unit 42, a cue image specifying unit 43, and a reproduction image extraction unit 44.
The image acquisition unit 42 acquires a moving image in which a subject that performs a series of operations is captured.
The cueing image specifying unit 43 analyzes a series of operations in the moving image acquired by the image acquiring unit 42, and specifies a cueing candidate image that is a unit image at the time of starting reproduction based on the analysis result.
The reproduction image extracting unit 44 extracts data of a captured image group for a predetermined period starting from one of the cue image candidate images specified by the cue image specifying unit 43 from the moving image data.
Therefore, such an image processing apparatus 1 can identify and extract a moving image of a desired period without using a special device.

画像取得部42は、差分算出部92を備えている。
また、頭出し画像特定部43は、変化率算出部93を備えている。
差分算出部92は、動画像のうち隣接する各単位画像のデータの差分容量を、各単位画像について夫々算出する。
変化率算出部93は、差分算出部92により算出された各差分容量の変化率を算出する。
頭出し画像特定部43は、変化率算出部93により算出された各変化率に基づいて、頭出し候補画像を特定する。
したがって、このような画像処理装置1は、ユーザに早送りをさせることなく、ゴルフスイングの開始時点の画像を頭出し候補画像として特定できる。
The image acquisition unit 42 includes a difference calculation unit 92.
In addition, the cue image specifying unit 43 includes a change rate calculating unit 93.
The difference calculation unit 92 calculates the difference capacity of the data of each adjacent unit image in the moving image for each unit image.
The change rate calculation unit 93 calculates the change rate of each differential capacity calculated by the difference calculation unit 92.
The cue image specifying unit 43 specifies a cue candidate image based on each change rate calculated by the change rate calculating unit 93.
Therefore, such an image processing device 1 can specify an image at the start of the golf swing as a cue candidate image without causing the user to fast-forward.

頭出し画像特定部43は、複数の頭出し画像を特定し、特定された複数の頭出し画像から任意の頭出し画像を選択し、
再生画像抽出部44は、選択された頭出し画像を始期とする所定期間の撮像画像群のデータを抽出することを特徴とする付記4に記載の画像処理装置。
The cue image specifying unit 43 specifies a plurality of cue images, selects an arbitrary cue image from the plurality of specified cue images,
The image processing apparatus according to appendix 4, wherein the reproduction image extraction unit 44 extracts data of a captured image group for a predetermined period starting from the selected cueing image.

また、画像処理装置1は、マスク処理部91を更に備える。
マスク処理部91は、動画像を構成する前記複数の単位画像のデータの夫々について、ヘッド画像81の軌跡外の領域であるマスク領域83の画素値を一定値とする。
また、差分算出部92は、マスク処理部91によりマスク領域83の画素値が一定値とされた単位画像の夫々に基づいて、差分容量を算出する。
したがって、このような画像処理装置1は、ゴルフスイングの軌道外の画像にマスクを施して、差分容量を算出する。よって、差分容量の算出の際に、ゴルフスイングとは無関係の画像領域は考慮されないので、頭出し候補画像を特定する際の精度を高めることができる。
The image processing apparatus 1 further includes a mask processing unit 91.
The mask processing unit 91 sets the pixel value of the mask area 83 that is an area outside the locus of the head image 81 to a constant value for each of the data of the plurality of unit images constituting the moving image.
Further, the difference calculation unit 92 calculates the difference capacity based on each of the unit images in which the mask processing unit 91 sets the pixel value of the mask region 83 to a constant value.
Therefore, such an image processing device 1 applies a mask to an image outside the track of the golf swing and calculates a differential capacity. Therefore, since the image area unrelated to the golf swing is not taken into account when calculating the differential capacity, it is possible to improve the accuracy when specifying the cue candidate image.

また、画像処理装置1は、再生部45を更に備える。
再生部45は、再生画像抽出部44により抽出された単位画像に基づいて、所定期間の撮像画像群のデータを再生する。
したがって、このような画像処理装置1は、特殊なデバイスを使用しなくても所望の期間の動画像を再生できる。
The image processing apparatus 1 further includes a playback unit 45.
Based on the unit image extracted by the reproduction image extraction unit 44, the reproduction unit 45 reproduces data of the captured image group for a predetermined period.
Therefore, such an image processing apparatus 1 can reproduce a moving image of a desired period without using a special device.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、ゴルフスイングが写された動画像のデータを対象として、本発明を適用する場合を例に挙げて説明したが、本発明は、種々の動作の比較に適用することができる。例えば、野球のバットのスイング、テニスのラケットのスイングあるいはダンスの振り付け等の動作を比較する場合に適用することが可能である。   In the above-described embodiment, the case where the present invention is applied has been described as an example for moving image data in which a golf swing is copied. However, the present invention can be applied to comparison of various operations. . For example, the present invention can be applied in the case of comparing operations such as a baseball bat swing, a tennis racket swing, or a dance choreography.

また、上述の実施形態では、本発明が適用される画像処理装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the image processing apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an image processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2及び図7の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2及び図7の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成しても良いし、ソフトウェア単体で構成しても良いし、それらの組み合わせで構成しても良い。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configurations of FIGS. 2 and 7 are merely examples, and are not particularly limited. That is, it is sufficient that the image processing apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is particularly the example shown in FIGS. It is not limited to.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであっても良い。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであっても良い。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. The recording medium etc. provided in The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the order, but is not necessarily performed in chronological order, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
一連の動作をする被写体が撮像された動画像を取得する取得手段と、
前記取得手段により取得された動画像中の前記一連の動作を解析する解析手段と、
前記解析手段による解析結果に基づいて、所定の単位画像を特定する特定手段と、
前記特定手段により特定された所定の単位画像に基づいて、前記動画像の中から特定の画像を抽出する抽出手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記動画像を構成する単位画像の夫々を、複数の画像領域に分割する画像分割手段と、
前記画像分割手段によって分割された複数の画像領域のうちの所定の画像領域群内において、前記被写体の所定の部分が特定の順番で通過したか否かを判定する通過判定手段と、
を更に備え、
前記解析手段は、前記通過判定手段により前記所定の部分が前記特定の順番で通過したか否かにより、前記一連の動作を解析し、
前記特定手段は、前記解析手段による解析結果に基づいて、前記所定の部分が特定の前記画像領域に属した時点における前記所定の単位画像を特定する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記通過判定手段は、前記動画像から所定の間引き率で単位画像を間引くとともに、当該間引かれた動画像の再生順に前記所定の部分が特定の順番で通過したか否かを判定する
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記動画像のうち隣接する各単位画像の差分容量を、各単位画像について夫々算出する差分算出手段と、
前記差分算出手段により算出された前記各差分容量の変化率を算出する変化率算出手段と、
を更に備え、
前記解析手段は、前記変化率算出手段により算出された前記各変化率に基づいて、前記一連の動作を解析し、
前記特定手段は、前記解析手段による解析結果に基づいて、前記所定の単位画像を特定する
ことを特徴とする付記1に記載の画像処理装置。
[付記5]
前記特定手段は、複数の前記所定の単位画像を特定し、
前記特定手段により特定された複数の前記所定の単位画像から任意の単位画像を選択する選択手段を更に備え、
前記抽出手段は、前記選択手段により選択された単位画像を前記特定の画像として前記動画像から抽出することを特徴とする付記4に記載の画像処理装置。
[付記6]
前記動画像を構成する前記複数の単位画像の夫々について、一部の領域の画素値を一定値とする画素値制御手段を更に備え、
前記差分算出手段は、前記画素値制御手段により前記一部の領域の画素値が一定値とされた前記単位画像の夫々に基づいて、前記差分容量を算出する、
ことを特徴とする付記4又は5に記載の画像処理装置。
[付記7]
前記抽出手段により抽出された単位画像に基づいて、所定期間の画像群を再生する再生手段を更に備えることを特徴とする付記1から6の何れかに記載の画像処理装置。
[付記8]
画像処理装置における画像処理方法であって、
一連の動作をする被写体が撮像された動画像を取得する取得ステップと、
前記取得ステップにより取得された動画像中の前記一連の動作を解析する解析ステップと、
前記解析ステップによる解析結果に基づいて、所定の単位画像を特定する特定ステップと、
前記特定ステップにより特定された所定の単位画像に基づいて、前記動画像の中から特定の画像を抽出する抽出ステップと、
を含む画像処理方法。
[付記9]
コンピュータを、
一連の動作をする被写体が撮像された動画像を取得する取得手段、
前記取得手段により取得された動画像中の前記一連の動作を解析する解析手段、
前記解析手段による解析結果に基づいて、所定の単位画像を特定する特定手段、
前記特定手段により特定された所定の単位画像に基づいて、前記動画像の中から特定の画像を抽出する抽出手段、
として機能させるためのプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Acquisition means for acquiring a moving image in which a subject performing a series of operations is captured;
Analyzing means for analyzing the series of operations in the moving image acquired by the acquiring means;
A specifying unit for specifying a predetermined unit image based on an analysis result by the analyzing unit;
Extracting means for extracting a specific image from the moving image based on the predetermined unit image specified by the specifying means;
An image processing apparatus comprising:
[Appendix 2]
Image dividing means for dividing each of the unit images constituting the moving image into a plurality of image regions;
Passage determining means for determining whether or not a predetermined portion of the subject has passed in a specific order within a predetermined image area group among a plurality of image areas divided by the image dividing means;
Further comprising
The analysis means analyzes the series of operations depending on whether the predetermined portion has passed in the specific order by the passage determination means,
The specifying unit specifies the predetermined unit image at the time when the predetermined part belongs to the specific image region based on the analysis result by the analyzing unit.
The image processing apparatus according to appendix 1, wherein:
[Appendix 3]
The passage determining means thins out unit images from the moving image at a predetermined thinning rate, and determines whether the predetermined portion has passed in a specific order in the reproduction order of the thinned moving images. The image processing apparatus according to Supplementary Note 2, which is a feature.
[Appendix 4]
A difference calculating means for calculating a difference capacity between adjacent unit images of the moving images for each unit image;
A rate of change calculation means for calculating a rate of change of each difference capacity calculated by the difference calculation means;
Further comprising
The analysis means analyzes the series of operations based on the change rates calculated by the change rate calculation means,
The image processing apparatus according to appendix 1, wherein the specifying unit specifies the predetermined unit image based on an analysis result by the analyzing unit.
[Appendix 5]
The specifying unit specifies a plurality of the predetermined unit images,
A selection unit that selects an arbitrary unit image from the plurality of predetermined unit images specified by the specifying unit;
The image processing apparatus according to appendix 4, wherein the extraction unit extracts the unit image selected by the selection unit as the specific image from the moving image.
[Appendix 6]
For each of the plurality of unit images constituting the moving image, further comprising pixel value control means for setting a pixel value of a partial region to a constant value,
The difference calculation means calculates the difference capacity based on each of the unit images in which pixel values of the partial areas are set to a constant value by the pixel value control means.
The image processing apparatus according to appendix 4 or 5, characterized in that:
[Appendix 7]
The image processing apparatus according to any one of appendices 1 to 6, further comprising a reproducing unit that reproduces an image group for a predetermined period based on the unit image extracted by the extracting unit.
[Appendix 8]
An image processing method in an image processing apparatus,
An acquisition step of acquiring a moving image in which a subject performing a series of operations is captured;
An analysis step for analyzing the series of operations in the moving image acquired by the acquisition step;
A specific step of specifying a predetermined unit image based on the analysis result of the analysis step;
An extracting step of extracting a specific image from the moving image based on the predetermined unit image specified by the specifying step;
An image processing method including:
[Appendix 9]
Computer
An acquisition means for acquiring a moving image in which a subject performing a series of operations is captured;
Analyzing means for analyzing the series of operations in the moving image acquired by the acquiring means;
A specifying unit for specifying a predetermined unit image based on an analysis result by the analyzing unit;
Extracting means for extracting a specific image from the moving image based on the predetermined unit image specified by the specifying means;
Program to function as.

1・・・画像処理装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,31・・・リムーバブルメディア,41・・・撮像制御部,42・・・画像取得部,43・・・頭出し画像特定部,44・・・再生画像抽出部,45・・・再生部,51・・・画像分割部,52・・・通過判定部,61・・・取得画像記憶部,62・・・マスク画像記憶部,71〜78・・・画像領域,81・・・ヘッド画像,82・・・ボール画像,83・・・マスク領域,84・・・撮像画像,91・・・マスク部,92・・・差分算出部,93・・・変化率算出部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output interface, 16 ... Imaging part, 17 ... Input unit, 18 ... output unit, 19 ... storage unit, 20 ... communication unit, 21 ... drive, 31 ... removable media, 41 ... imaging control unit, 42 ... Image acquisition unit, 43 ... Cue image specifying unit, 44 ... Reproduction image extraction unit, 45 ... Reproduction unit, 51 ... Image division unit, 52 ... Passing determination unit, 61 ... Acquired image storage unit, 62 ... Mask image storage unit, 71 to 78 ... Image area, 81 ... Head image, 82 ... Ball image, 83 ... Mask area, 84 ... Captured image , 91 ... Mask part, 92 ... Difference calculation part, 93 ... Change rate calculation part

Claims (9)

一連の動作をする被写体が撮像された動画像を取得する取得手段と、
前記取得手段により取得された動画像中の前記一連の動作を解析する解析手段と、
前記解析手段による解析結果に基づいて、所定の単位画像を特定する特定手段と、
前記特定手段により特定された所定の単位画像に基づいて、前記動画像の中から特定の画像を抽出する抽出手段と、
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring a moving image in which a subject performing a series of operations is captured;
Analyzing means for analyzing the series of operations in the moving image acquired by the acquiring means;
A specifying unit for specifying a predetermined unit image based on an analysis result by the analyzing unit;
Extracting means for extracting a specific image from the moving image based on the predetermined unit image specified by the specifying means;
An image processing apparatus comprising:
前記動画像を構成する単位画像の夫々を、複数の画像領域に分割する画像分割手段と、
前記画像分割手段によって分割された複数の画像領域のうちの所定の画像領域群内において、前記被写体の所定の部分が特定の順番で通過したか否かを判定する通過判定手段と、
を更に備え、
前記解析手段は、前記通過判定手段により前記所定の部分が前記特定の順番で通過したか否かにより、前記一連の動作を解析し、
前記特定手段は、前記解析手段による解析結果に基づいて、前記所定の部分が特定の前記画像領域に属した時点における前記所定の単位画像を特定する、
ことを特徴とする請求項1に記載の画像処理装置。
Image dividing means for dividing each of the unit images constituting the moving image into a plurality of image regions;
Passage determining means for determining whether or not a predetermined portion of the subject has passed in a specific order within a predetermined image area group among a plurality of image areas divided by the image dividing means;
Further comprising
The analysis means analyzes the series of operations depending on whether the predetermined portion has passed in the specific order by the passage determination means,
The specifying unit specifies the predetermined unit image at the time when the predetermined part belongs to the specific image region based on the analysis result by the analyzing unit.
The image processing apparatus according to claim 1.
前記通過判定手段は、前記動画像から所定の間引き率で単位画像を間引くとともに、当該間引かれた動画像の再生順に前記所定の部分が特定の順番で通過したか否かを判定する
ことを特徴とする請求項2に記載の画像処理装置。
The passage determining means thins out unit images from the moving image at a predetermined thinning rate, and determines whether the predetermined portion has passed in a specific order in the reproduction order of the thinned moving images. The image processing apparatus according to claim 2.
前記動画像のうち隣接する各単位画像の差分容量を、各単位画像について夫々算出する差分算出手段と、
前記差分算出手段により算出された前記各差分容量の変化率を算出する変化率算出手段と、
を更に備え、
前記解析手段は、前記変化率算出手段により算出された前記各変化率に基づいて、前記一連の動作を解析し、
前記特定手段は、前記解析手段による解析結果に基づいて、前記所定の単位画像を特定する
ことを特徴とする請求項1に記載の画像処理装置。
A difference calculating means for calculating a difference capacity between adjacent unit images of the moving images for each unit image;
A rate of change calculation means for calculating a rate of change of each difference capacity calculated by the difference calculation means;
Further comprising
The analysis means analyzes the series of operations based on the change rates calculated by the change rate calculation means,
The image processing apparatus according to claim 1, wherein the specifying unit specifies the predetermined unit image based on an analysis result by the analyzing unit.
前記特定手段は、複数の前記所定の単位画像を特定し、
前記特定手段により特定された複数の前記所定の単位画像から任意の単位画像を選択する選択手段を更に備え、
前記抽出手段は、前記選択手段により選択された単位画像を前記特定の画像として前記動画像から抽出することを特徴とする請求項4に記載の画像処理装置。
The specifying unit specifies a plurality of the predetermined unit images,
A selection unit that selects an arbitrary unit image from the plurality of predetermined unit images specified by the specifying unit;
The image processing apparatus according to claim 4, wherein the extraction unit extracts the unit image selected by the selection unit from the moving image as the specific image.
前記動画像を構成する前記複数の単位画像の夫々について、一部の領域の画素値を一定値とする画素値制御手段を更に備え、
前記差分算出手段は、前記画素値制御手段により前記一部の領域の画素値が一定値とされた前記単位画像の夫々に基づいて、前記差分容量を算出する、
ことを特徴とする請求項4又は5に記載の画像処理装置。
For each of the plurality of unit images constituting the moving image, further comprising pixel value control means for setting a pixel value of a partial region to a constant value,
The difference calculation means calculates the difference capacity based on each of the unit images in which pixel values of the partial areas are set to a constant value by the pixel value control means.
The image processing apparatus according to claim 4, wherein the image processing apparatus is an image processing apparatus.
前記抽出手段により抽出された単位画像に基づいて、所定期間の画像群を再生する再生手段を更に備えることを特徴とする請求項1から6の何れかに記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a reproducing unit that reproduces an image group for a predetermined period based on the unit image extracted by the extracting unit. 画像処理装置における画像処理方法であって、
一連の動作をする被写体が撮像された動画像を取得する取得ステップと、
前記取得ステップにより取得された動画像中の前記一連の動作を解析する解析ステップと、
前記解析ステップによる解析結果に基づいて、所定の単位画像を特定する特定ステップと、
前記特定ステップにより特定された所定の単位画像に基づいて、前記動画像の中から特定の画像を抽出する抽出ステップと、
を含む画像処理方法。
An image processing method in an image processing apparatus,
An acquisition step of acquiring a moving image in which a subject performing a series of operations is captured;
An analysis step for analyzing the series of operations in the moving image acquired by the acquisition step;
A specific step of specifying a predetermined unit image based on the analysis result of the analysis step;
An extracting step of extracting a specific image from the moving image based on the predetermined unit image specified by the specifying step;
An image processing method including:
コンピュータを、
一連の動作をする被写体が撮像された動画像を取得する取得手段、
前記取得手段により取得された動画像中の前記一連の動作を解析する解析手段、
前記解析手段による解析結果に基づいて、所定の単位画像を特定する特定手段、
前記特定手段により特定された所定の単位画像に基づいて、前記動画像の中から特定の画像を抽出する抽出手段、
として機能させるためのプログラム。
Computer
An acquisition means for acquiring a moving image in which a subject performing a series of operations is captured;
Analyzing means for analyzing the series of operations in the moving image acquired by the acquiring means;
A specifying unit for specifying a predetermined unit image based on an analysis result by the analyzing unit;
Extracting means for extracting a specific image from the moving image based on the predetermined unit image specified by the specifying means;
Program to function as.
JP2012164098A 2012-07-24 2012-07-24 Image processing apparatus, image processing method, and program Active JP6064404B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012164098A JP6064404B2 (en) 2012-07-24 2012-07-24 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012164098A JP6064404B2 (en) 2012-07-24 2012-07-24 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2014027372A true JP2014027372A (en) 2014-02-06
JP2014027372A5 JP2014027372A5 (en) 2015-09-10
JP6064404B2 JP6064404B2 (en) 2017-01-25

Family

ID=50200673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012164098A Active JP6064404B2 (en) 2012-07-24 2012-07-24 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6064404B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133305A (en) * 1992-09-07 1994-05-13 Fujitsu Ltd Picture data coding method, picture data coder using the method, picture data decoding method, picture data decoder using the method, scene change detection method, scene change detection method, scene change detector, scene change recorder, and picture data scene change recording and reproducing device
JPH08257191A (en) * 1995-03-24 1996-10-08 Ii S S:Kk Golf swing diagnostic device and method
JP2008141282A (en) * 2006-11-30 2008-06-19 Sony Corp Imaging device, control method for the imaging device, program for controlling the method of the imaging device and recording medium with the program for controlling the method of imaging device stored
JP2011254232A (en) * 2010-06-01 2011-12-15 Sony Corp Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133305A (en) * 1992-09-07 1994-05-13 Fujitsu Ltd Picture data coding method, picture data coder using the method, picture data decoding method, picture data decoder using the method, scene change detection method, scene change detection method, scene change detector, scene change recorder, and picture data scene change recording and reproducing device
JPH08257191A (en) * 1995-03-24 1996-10-08 Ii S S:Kk Golf swing diagnostic device and method
JP2008141282A (en) * 2006-11-30 2008-06-19 Sony Corp Imaging device, control method for the imaging device, program for controlling the method of the imaging device and recording medium with the program for controlling the method of imaging device stored
JP2011254232A (en) * 2010-06-01 2011-12-15 Sony Corp Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6064404B2 (en) 2017-01-25

Similar Documents

Publication Publication Date Title
US10382704B2 (en) Image processing device that generates a composite image
JP4289326B2 (en) Information processing apparatus and method, photographing apparatus, and program
JP6439235B2 (en) Information notification apparatus, information notification method, and program
JP6676873B2 (en) Image processing apparatus, image processing method, and program
JP5648647B2 (en) Image processing apparatus, image processing method, and program
JP5794215B2 (en) Image processing apparatus, image processing method, and program
JP5754458B2 (en) Moving image extraction apparatus, moving image extraction method, and program
JP6149365B2 (en) Information generating apparatus, information generating method and program
JP5733298B2 (en) Display control apparatus, display control method, and program
JP2011085966A (en) Information processing device, information processing method, and program
JP6149891B2 (en) Display control apparatus, display control method, and program
JP6064404B2 (en) Image processing apparatus, image processing method, and program
JP4849330B2 (en) Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program
JP5147737B2 (en) Imaging device
JP6075356B2 (en) Image processing apparatus, image processing method, and program
JP6372176B2 (en) Image processing apparatus, image processing method, and program
JP2017041857A (en) Image processing system, control method of the same, program, and imaging apparatus
JP2015061237A (en) Device and method for image synthesis, and program
JP2014064125A (en) Image generation device, image generation method, and program
JP6115656B2 (en) Image processing apparatus, image processing method, and program
JP5560744B2 (en) Imaging apparatus, moving image imaging method, and program
JP2014138388A (en) Image pickup device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150722

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160617

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161005

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20161017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161205

R150 Certificate of patent or registration of utility model

Ref document number: 6064404

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150