JP2016123107A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2016123107A
JP2016123107A JP2016008458A JP2016008458A JP2016123107A JP 2016123107 A JP2016123107 A JP 2016123107A JP 2016008458 A JP2016008458 A JP 2016008458A JP 2016008458 A JP2016008458 A JP 2016008458A JP 2016123107 A JP2016123107 A JP 2016123107A
Authority
JP
Japan
Prior art keywords
image
partial
unit
subject
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016008458A
Other languages
Japanese (ja)
Other versions
JP6115656B2 (en
Inventor
河村 義裕
Yoshihiro Kawamura
義裕 河村
浩一 中込
Koichi Nakagome
浩一 中込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016008458A priority Critical patent/JP6115656B2/en
Publication of JP2016123107A publication Critical patent/JP2016123107A/en
Application granted granted Critical
Publication of JP6115656B2 publication Critical patent/JP6115656B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To enable a viewer to easily grasp a specific portion of subject movement.SOLUTION: An image pickup device 1 comprises an image acquisition unit 71, an image identification unit 72, an image selection unit 73, and a composite image generation unit 74. The image acquisition unit 71 acquires a plurality of image data showing a series of subject motions. The image identification unit 72 identifies from the plurality of images acquired by the image acquisition unit 71 a partial motion constituting the series of subject motions. On the basis of a result of identification by the image identification unit 72, the image selection unit 73 selects from among the plurality of image data a plurality of image data corresponding to a predetermined partial motion. The composite image generation unit 74 generates one composite image from the plurality of image data selected by the image selection unit 73.SELECTED DRAWING: Figure 2

Description

本発明は、被写体の動作を把握する画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for grasping a motion of a subject.

従来より、デジタルカメラ等の撮像装置で撮像された動画像に映った被写体の動作を事後的に確認することが行われている。例えば、ゴルフ等のスポーツにおいては、スイング動作を動画像として記録し、スイングの確認を行うことが行われている。   Conventionally, the operation of a subject reflected in a moving image captured by an imaging device such as a digital camera has been confirmed afterwards. For example, in sports such as golf, a swing operation is recorded as a moving image and a swing is confirmed.

このようなスイングのフォームの確認の技術として、特許文献1に記載の技術が知られている。特許文献1に記載の技術は、ゴルフヘッドの一連のスイング動作を1枚の静止画像に合成表示させる技術である。   As a technique for confirming such a swing form, a technique described in Patent Document 1 is known. The technique described in Patent Document 1 is a technique for combining and displaying a series of swing operations of a golf head on a single still image.

特開平11−98450号公報JP-A-11-98450

しかしながら、上述した特許文献1に記載の技術は、ゴルフヘッドの一連のスイング動作を1枚の静止画像に合成表示させることから、各スイングの動作(ダウンスイング、インパクト前後のスイング、フォロースイング等)の軌跡が重なり、どの部分がどのスイングの動作に対応するのかを把握することが困難になるという虞があった。   However, since the technique described in Patent Document 1 described above displays a series of swing operations of a golf head on a single still image, each swing operation (down swing, swing before and after impact, follow swing, etc.) There is a risk that it will be difficult to grasp which part corresponds to which swing motion.

本発明は、このような状況に鑑みてなされたものであり、被写体の動作を容易に把握することができることを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to easily grasp the motion of a subject.

上記目的を達成するため、本発明の一態様の画像処理装置は、
被写体の一連の動作を示す複数の画像のデータを取得する画像取得手段と、
入力部への所定の部分動作を選択する旨の入力が検出された場合に、前記被写体の一連の動作を構成する複数の部分動作から所定の部分動作を特定する特定手段と、
前記画像取得手段により取得された前記複数の画像のデータの中から、前記特定手段に
より特定された所定の部分動作に対応する画像のデータを複数選択する画像選択手段と、
前記画像選択手段により選択された複数の画像から前記被写体の画像において動作の特徴となる部分領域を複数抽出する抽出手段と、
前記抽出手段により抽出された複数の前記部分領域と、前記画像選択手段により選択された前記所定の部分動作時の画像のデータの何れか一つとを重畳するように合成させて合成画像を生成する合成画像生成手段と、を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
Image acquisition means for acquiring data of a plurality of images indicating a series of actions of the subject;
A specifying means for specifying a predetermined partial motion from a plurality of partial motions constituting a series of motions of the subject when an input for selecting a predetermined partial motion to the input unit is detected;
Image selecting means for selecting a plurality of image data corresponding to the predetermined partial motion specified by the specifying means from the plurality of image data acquired by the image acquiring means;
Extraction means for extracting a plurality of partial regions that are characteristic of the operation in the image of the subject from the plurality of images selected by the image selection means;
A plurality of the partial areas extracted by the extraction unit and the image data at the time of the predetermined partial operation selected by the image selection unit are combined so as to be superimposed to generate a composite image. And a synthesized image generating means.

本発明によれば、被写体の動作を容易に把握することができる。   According to the present invention, it is possible to easily grasp the motion of the subject.

本発明における画像処理装置の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of an imaging apparatus according to an embodiment of an image processing apparatus of the present invention. 図1の撮像装置の機能的構成のうち、合成画像生成処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a synthesized image generation process among the functional structures of the imaging device of FIG. 合成画像生成処理により生成された全合成画像の一例を示す模式図である。It is a schematic diagram which shows an example of all the synthesized images produced | generated by the synthesized image production | generation process. 部分合成画像の表示の一例を示す模式図である。It is a schematic diagram which shows an example of the display of a partial synthesized image. 撮像装置の表示部に表示される部分合成画像の選択画面の一例を示す図である。It is a figure which shows an example of the selection screen of the partial composite image displayed on the display part of an imaging device. 図2の機能的構成を有する図3の撮像装置が実行する合成画像生成処理の流れを説明するフローチャートである。4 is a flowchart for explaining a flow of composite image generation processing executed by the imaging apparatus of FIG. 3 having the functional configuration of FIG. 2.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明における画像処理装置の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a hardware configuration of an imaging apparatus according to an embodiment of the image processing apparatus of the present invention.

撮像装置1は、例えばデジタルカメラとして構成される。   The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、入力部18と、出力部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an imaging unit. 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12、RAM13及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、入力部18、出力部19、記憶部20、通信部21及びドライブ22が接続されている。   The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 16.

撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮像するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。   The optical lens unit is configured with a lens that collects light, such as a focus lens and a zoom lens, in order to capture an image of the subject.

フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。   The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.

光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。   The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。   The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.

光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。   The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.

AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。   The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.

このような撮像部17の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や画像処理部14等に適宜供給される。   Such an output signal of the imaging unit 17 is hereinafter referred to as “captured image data”. The captured image data is appropriately supplied to the CPU 11, the image processing unit 14, and the like.

入力部18は、各種ボタン等で構成され、ユーザの指示操作に応じて各種情報を入力する。   The input unit 18 is configured with various buttons and the like, and inputs various types of information according to user instruction operations.

出力部19は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。   The output unit 19 includes a display, a speaker, and the like, and outputs images and sounds.

記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。   The storage unit 20 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.

通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。   The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

図2は、図1の撮像装置の機能的構成のうち、合成画像生成処理を実行するための機能的構成を示す機能ブロック図である。   FIG. 2 is a functional block diagram illustrating a functional configuration for executing the composite image generation process among the functional configurations of the imaging apparatus in FIG. 1.

合成画像生成処理とは、取得した動画像のデータに基づいて、当該動画像を解析して、当該動画像に映り込んだ被写体の動作を特定し、特定した動作に対応した静止画像(後述する全合成画像や後述する部分合成画像)を合成して表示等をする一連の処理である。
本実施形態において、撮像装置1は、ゴルフのスイングを行っている対象を被写体として撮像する例について説明する。
なお、本実施形態においては、撮像された被写体の動作を、一連の動作(以下、「全体動作」とも呼ぶ。)と、一連の動作を構成する部分的な動作(以下、「部分動作」と呼ぶ。)として特定する。
即ち、ゴルフのスイングを撮像して合成画像を生成する本実施形態においては、全体動作がスイングの一連の動作であり、部分動作がスイングを構成する各動作(例えば、アドレス,バックスイング,トップ,ダウンスイング,インパクト,フォロースイング,フィニッシュ)である。
The composite image generation process is based on the acquired moving image data, analyzes the moving image, identifies the motion of the subject reflected in the moving image, and selects a still image (described later) corresponding to the identified motion. This is a series of processes for synthesizing and displaying a total synthesized image and a partially synthesized image (to be described later).
In the present embodiment, the imaging apparatus 1 will be described with respect to an example in which a subject performing a golf swing is imaged as a subject.
In the present embodiment, the motion of the imaged subject is a series of operations (hereinafter also referred to as “overall operations”) and partial operations constituting the series of operations (hereinafter “partial operations”). ).
That is, in the present embodiment in which a golf swing is imaged and a composite image is generated, the entire operation is a series of swing operations, and the partial operations are motions constituting the swing (for example, address, back swing, top, Down swing, impact, follow swing, finish).

合成画像生成処理が実行される場合には、図2に示すように、CPU11において、撮像制御部51と、出力制御部52とが機能し、画像処理部14において、画像取得部71と、画像特定部72と、画像選択部73と、合成画像生成部74とが機能する。   When the composite image generation process is executed, as illustrated in FIG. 2, the imaging control unit 51 and the output control unit 52 function in the CPU 11, and the image acquisition unit 71 and the image processing unit 14 in the image processing unit 14. The specifying unit 72, the image selecting unit 73, and the composite image generating unit 74 function.

ただし、図2は例示であり、CPU11の機能の少なくとも一部を画像処理部14に委譲してもよいし、逆に、画像処理部14の機能の少なくとも一部をCPU11に委譲してもよい。   However, FIG. 2 is an exemplification, and at least a part of the function of the CPU 11 may be delegated to the image processing unit 14. Conversely, at least a part of the function of the image processing unit 14 may be delegated to the CPU 11. .

この場合、記憶部20の一領域として設けられた取得画像記憶部91と、合成画像記憶部92と、が用いられる。
取得画像記憶部91においては、撮像部17から出力され、画像取得部71により取得された撮像画像のデータが記憶されている。
合成画像記憶部92においては、合成画像生成部74から出力された合成画像のデータが記憶されている。
In this case, an acquired image storage unit 91 and a composite image storage unit 92 provided as one area of the storage unit 20 are used.
In the acquired image storage unit 91, data of a captured image output from the imaging unit 17 and acquired by the image acquisition unit 71 is stored.
In the composite image storage unit 92, the composite image data output from the composite image generation unit 74 is stored.

撮像制御部51は、各種撮像条件を設定し、撮像部17における撮像の動作を制御する。
本実施形態においては、被写体の動作を撮像するため、撮像制御部51は、撮像部17により動画像を撮像させる。
The imaging control unit 51 sets various imaging conditions and controls the imaging operation in the imaging unit 17.
In the present embodiment, the imaging control unit 51 causes the imaging unit 17 to capture a moving image in order to image the motion of the subject.

出力制御部52は、合成画像記憶部92に記憶される合成画像(後述する全合成画像や後述する部分合成画像)を表示出力するように、出力部19を制御する。   The output control unit 52 controls the output unit 19 to display and output a composite image (a full composite image described later or a partial composite image described later) stored in the composite image storage unit 92.

画像取得部71は、撮像部17から出力された動画像のデータを、一連の動作を示す複数の画像のデータである複数の単一画像(静止画像)として取得可能なデータとして取得する。その後、画像取得部71は、取得した動画像のデータを取得画像記憶部91に記憶させる。   The image acquisition unit 71 acquires the moving image data output from the imaging unit 17 as data that can be acquired as a plurality of single images (still images) that are a plurality of image data indicating a series of operations. Thereafter, the image acquisition unit 71 stores the acquired moving image data in the acquired image storage unit 91.

画像特定部72は、単一画像に写り込んだ被写体の動作を特定する画像の特定を行う。また、画像特定部72は、特定した動作を単一画像に対応付ける。詳細には、画像特定部72は、取得画像記憶部91から動画像のデータを取得し、当該動画像を構成する単一画像内に写り込んだ被写体の動作を特定する。そして、画像特定部72は、特定した被写体の動作を、対応する単一画像に対応付けて、取得画像記憶部91に記憶させる。本実施形態においては、画像特定部72は、全体動作となるスイングの動作と、スイングを構成する動作(例えば、(アドレス,バックスイング,トップ,ダウンスイング,インパクト,フォロースイング,フィニッシュ))を人の動作、クラブの動作(特に、クラブヘッドの動作)から特定する。   The image specifying unit 72 specifies an image that specifies the action of the subject in the single image. In addition, the image specifying unit 72 associates the specified operation with a single image. Specifically, the image specifying unit 72 acquires moving image data from the acquired image storage unit 91, and specifies the motion of the subject reflected in the single image that forms the moving image. Then, the image specifying unit 72 stores the action of the specified subject in the acquired image storage unit 91 in association with the corresponding single image. In the present embodiment, the image specifying unit 72 performs a swing operation as an overall operation and an operation (for example, (address, back swing, top, down swing, impact, follow swing, finish)) constituting the swing. And the club movement (particularly the club head movement).

被写体の動作に属する部分動作を特定する手法については、特に限定されないが、例えば、スイングの時間から判断して部分動作を推定して特定する手法を用いてもよく、基準となる画像との比較において、部分動作を特定する等の画像マッチング技術の手法を用いてもよい。また、画像からクラブやクラブヘッドを抽出して、抽出したクラブやクラブヘッドの位置関係から、スイングの部分動作を特定するような手法を用いてもよい。
このような被写体の動作に属する部分動作を特定する手法については、公知又は今後登場するであろう任意の手法、例えば特開2008−278386号公報,特開2009−53786号公報,特許第4415198号等に開示されている手法等を採用することができる。
The method for identifying the partial motion belonging to the motion of the subject is not particularly limited. For example, a method for estimating and identifying the partial motion based on the swing time may be used, and comparison with a reference image may be used. In this case, an image matching technique such as specifying a partial motion may be used. Alternatively, a method may be used in which a club or club head is extracted from the image, and the partial motion of the swing is specified from the positional relationship of the extracted club or club head.
As for a method for specifying the partial motion belonging to the motion of the subject, any method known or will appear in the future, for example, Japanese Patent Application Laid-Open No. 2008-278386, Japanese Patent Application Laid-Open No. 2009-53786, and Japanese Patent No. 4415198. The method etc. currently disclosed by these etc. are employable.

画像選択部73は、入力部18からの画像の合成指示に基づいて、特定された単一画像を複数選択する。詳細には、画像選択部73は、入力部18からの、後述する全合成画像や後述する部分合成画像の合成指示に基づいて、取得画像記憶部91に記憶される動画像を構成する、指定された動作に対応する単一画像のデータを選択する。   The image selection unit 73 selects a plurality of specified single images based on an image synthesis instruction from the input unit 18. Specifically, the image selection unit 73 configures a moving image stored in the acquired image storage unit 91 based on a synthesis instruction of a later-described total synthesized image or a later-described partially synthesized image from the input unit 18. Single image data corresponding to the operated motion is selected.

合成画像生成部74は、画像選択部73により選択された単一画像を合成し、合成画像のデータを生成する。
合成画像生成部74は、画像選択部73により、スイングの一連の動作となる全体動作に対応する単一画像が選択された場合には、スイングを写した単一画像を全て1枚の静止画像として合成した画像(以下、「全合成画像」と呼ぶ。)のデータを生成する。
また、合成画像生成部74は、画像選択部73により、スイングの部分動作に対応する単一画像が選択された場合(例えば、ダウンスイング)には、ダウンスイングを写した単一画像を全て1枚の静止画像として合成した画像(以下、「部分合成画像」と呼ぶ。)のデータを生成する。なお、本実施形態において、部分合成画像は、部分動作に対応する単一画像と、部分動作と時間的に前後に位置する単一画像とが含めて合成される。即ち、ダウンスイングの部分動作で、部分合成画像のデータを生成する場合には、ダウンスイングの前後(トップとダウンスイングとの間の動作と、ダウンスイングからインパクトとの間の動作)の動作が写り込んだ単一画像を合成する。
また、合成画像生成部74は、部分合成画像の生成に際し、動作の主体となる部分(例えば、クラブヘッドやボール)のみを合成することができる。即ち、合成画像生成部74は、選択された動作を最もよく表す画像に動作の軌道がわかるように、当該動作を最もよく表す画像の前後に動きのある部分を合成することができる。
このように部分合成画像のデータを生成することで、煩雑でなく、被写体の動作を容易に把握可能な画像を提供することができる。
つまり、合成画像生成部74は、入力部18により、全合成画像の合成指示に基づいて、全合成画像のデータを生成し、所定の動作を指定することによる部分合成画像の合成指示に基づいて、部分合成画像のデータを生成する。
The composite image generation unit 74 combines the single images selected by the image selection unit 73 and generates composite image data.
When the image selection unit 73 selects a single image corresponding to the entire motion that is a series of swing operations, the composite image generation unit 74 converts all the single images showing the swing into one still image. As described above, data of an image synthesized (hereinafter referred to as “total synthesized image”) is generated.
Further, when a single image corresponding to the partial motion of the swing is selected by the image selection unit 73 (for example, downswing), the composite image generation unit 74 sets all the single images showing the downswing to 1 Data of an image synthesized as a single still image (hereinafter referred to as “partial synthesized image”) is generated. In the present embodiment, the partially synthesized image is synthesized by including a single image corresponding to the partial motion and a single image positioned before and after the partial motion. That is, in the case of generating partial composite image data in the partial motion of the downswing, the operation before and after the downswing (the operation between the top and the downswing and the operation between the downswing and the impact) is performed. Synthesize a single image.
In addition, the composite image generation unit 74 can synthesize only a portion (for example, a club head or a ball) that is the main subject of the operation when generating the partial composite image. In other words, the composite image generation unit 74 can synthesize a moving part before and after the image that best represents the motion so that the trajectory of the motion can be seen in the image that best represents the selected motion.
By generating the partial composite image data in this way, it is possible to provide an image that can be easily grasped and not complicated.
That is, the composite image generation unit 74 generates data of the total composite image based on the composite instruction of the total composite image by the input unit 18, and based on the composite instruction of the partial composite image by designating a predetermined operation. Then, partial composite image data is generated.

次に、合成画像生成処理により生成された全合成画像の例について、図3を参照して説明する。
図3は、合成画像生成処理により生成された全合成画像の例を示す模式図である。
図3の例では、スイングをしている対象を背後から撮像した動画像のデータから全体画像のデータを生成している。
全合成画像は、スイングの一連の動作に対応する動作が全て写り込んだ画像により構成されるために、スイングを構成する部分動作が残像のように写り込んだ画像となる。即ち、全合成画像は、本実施形態においては、動作のある被写体(スイング対象者100やクラブヘッド101、クラブシャフト102含むクラブ等)の全てが合成された画像となる。
ゴルフのスイングの場合、アドレスからフィニッシュまでの動作の間の、アドレスからバックスイングと、トップからダウンスイングを経てインパクトに至るまでの間のクラブの動作(軌道)がほぼ同一となる。
また、スイングをしている対象を背後から撮像した場合には、アドレスからインパクトまでと、インパクトからフィニッシュまでの動作も、ほぼ似たような軌道をたどることになる。
従って、全合成画像を見たユーザは、スイング全体動作のイメージはつかめるものの、部分的な動作がどれに対応するものなのかが把握することが困難になる。
そこで、本実施形態の撮像装置1は、部分合成画像として、部分的な動作のみをピックアップして表示可能な画像を生成する。
Next, an example of the total composite image generated by the composite image generation process will be described with reference to FIG.
FIG. 3 is a schematic diagram illustrating an example of a total composite image generated by the composite image generation process.
In the example of FIG. 3, data of the entire image is generated from moving image data obtained by imaging a swinging target from behind.
Since the total composite image is composed of an image in which all the operations corresponding to a series of motions of the swing are reflected, it becomes an image in which the partial motions constituting the swing are reflected like an afterimage. In other words, in the present embodiment, the total composite image is an image in which all the moving subjects (such as the swing target person 100, the club head 101, and the club including the club shaft 102) are combined.
In the case of a golf swing, the movement (track) of the club from the address to the back swing during the movement from the address to the finish and from the top to the impact through the down swing is almost the same.
In addition, when an image of a swinging object is taken from behind, the operations from the address to the impact and from the impact to the finish follow a substantially similar trajectory.
Therefore, although the user who sees the total synthesized image can grasp the image of the entire swing motion, it is difficult to grasp which partial motion corresponds to.
Therefore, the imaging device 1 of the present embodiment generates an image that can be displayed by picking up only a partial operation as a partial composite image.

次に、合成画像生成処理により生成された部分合成画像の例について、図4を参照して説明する。
図4は、合成画像生成処理により生成された部分合成画像の例を示す模式図である。
図4(a)〜(c)は、スイング対象者100の背面側からスイングの動作を撮像した場合のダウンスイング、インパクト及びフォロースイングに対応した部分合成画像の例を示す模式図である。
図4(a)〜(c)の例は、スイングの動作が画像の奥行き方向に変化する図3の例に比べて、スイングの動作が、スイング対象者100の平面方向のために変化が把握しやすいものとなっている。
また、図4(a)〜(c)の例は、指定した動作の前後の動作を含めて合成しており、主にクラブヘッド101及びボール103のみの動作を含めて合成している。即ち、スイング対象者100自体は、指定した動作(例えば、図3(b)の場合にはインパクトの動作)のみが合成される。このように合成することにより、部分動作における流れの把握を可能にしながらも、指定した部分動作自体の確認も容易に行うことができる。
このように部分動作のみを合成することで、重複する軌道を描く動作の場合には、繁雑な画像とならない。
Next, an example of a partial composite image generated by the composite image generation process will be described with reference to FIG.
FIG. 4 is a schematic diagram illustrating an example of a partial composite image generated by the composite image generation process.
4A to 4C are schematic diagrams illustrating examples of partial composite images corresponding to the downswing, the impact, and the follow swing when the swing motion is imaged from the back side of the swing target person 100. FIG.
4 (a) to 4 (c), the swing operation is grasped due to the plane direction of the swing target person 100 as compared with the example of FIG. 3 in which the swing operation changes in the depth direction of the image. It is easy to do.
In the example of FIGS. 4A to 4C, synthesis is performed including the operations before and after the designated operation, and the synthesis is performed mainly including the operations of only the club head 101 and the ball 103. That is, the swing target person 100 itself synthesizes only the designated action (for example, the impact action in the case of FIG. 3B). By synthesizing in this way, it is possible to easily check the designated partial motion itself while allowing the flow in the partial motion to be grasped.
By combining only partial motions in this way, in the case of motions that draw overlapping trajectories, a complicated image is not generated.

また、図4(d)〜(f)は、スイング対象者100の正面側からスイングの動作を撮像した場合のダウンスイング、インパクト及びフォロースイングに対応した部分合成画像の例を示す模式図である。
図4(d)〜(f)の例は、図4(a)〜(c)に対応する部分動作を部分合成画像として合成している。
FIGS. 4D to 4F are schematic diagrams illustrating examples of partial composite images corresponding to the downswing, the impact, and the follow swing when the swing operation is imaged from the front side of the swing target person 100. .
In the example of FIGS. 4D to 4F, the partial operations corresponding to FIGS. 4A to 4C are combined as a partially combined image.

なお、図4の例においては、主に、クラブヘッド101とボール103の動きに主眼が置かれており、クラブヘッド101とボール103以外の軌道は、極力表示させないように構成される。即ち、図4の例では、スイング対象者100、クラブシャフト102等は所定の1の動作部分のみが極力表示されるように構成され、クラブヘッド101とボール103は、部分動作全てが表示されるように構成される。即ち、所定の動作が選択された場合には、所定の動作を構成する1の画像に写り込んだスイング対象者100とクラブシャフト102等を採用し、クラブヘッド101やボール103等に関しては、所定の動作全てが写り込んだ画像を採用する。即ち、スイング対象者100やクラブシャフト102や背景は動きがなく、クラブヘッド101やボール103に関しては複数合成され動きがある画像が生成される。
具体的な手法としては、種々の公知の手法が採用可能であるが、例えば、画像内において、スイング対象者100、クラブ(クラブヘッド101、クラブシャフト102)、ボール103をオブジェクトとして抽出し、スイング対象者100やクラブシャフト102等のみを1の画像から採用し、その他のクラブヘッド101やボール103等を所定の動作範囲の画像から採用することができる。
また、図4の例においては、均等の間隔で、単一画像を合成したがこれに限られず、動作の速さや指定した部分に対応して、合成する画像の間隔を変更してもよい。
In the example of FIG. 4, the main focus is on the movement of the club head 101 and the ball 103, and the trajectory other than the club head 101 and the ball 103 is configured so as not to be displayed as much as possible. That is, in the example of FIG. 4, the swing target person 100, the club shaft 102, and the like are configured so that only a predetermined one motion part is displayed as much as possible, and the club head 101 and the ball 103 display all the partial motions. Configured as follows. That is, when a predetermined motion is selected, the swing target person 100 and the club shaft 102 shown in one image constituting the predetermined motion are employed, and the club head 101, the ball 103, etc. Adopt an image that includes all of the actions. That is, the swing target person 100, the club shaft 102, and the background do not move, and the club head 101 and the ball 103 are combined to generate an image with movement.
As a specific method, various known methods can be adopted. For example, in the image, the swing target person 100, the club (club head 101, club shaft 102), and the ball 103 are extracted as objects, and the swing is performed. Only the subject 100, the club shaft 102, and the like can be adopted from one image, and the other club head 101, the ball 103, and the like can be adopted from an image in a predetermined operation range.
In the example of FIG. 4, a single image is synthesized at an equal interval, but the present invention is not limited to this, and the interval between images to be synthesized may be changed according to the speed of operation or a designated portion.

次に、全合成画像から部分合成画像への表示の切り替えの一例を、図5を参照しながら説明する。
図5は、撮像装置の表示部に表示される部分合成画像の選択画面の一例を示す図である。
本実施形態の撮像装置1においては、全合成画像の表示の後に、図5に示すような部分画像を選択可能なソフトウェアボタンB1〜B3が出現し、ソフトウェアボタンB1〜B3のいずれかを選択すると、選択されたソフトウェアボタンB1〜B3に対応する部分合成画像を生成し、表示することができるようになっている。
図5の例は、全合成画像の上にソフトウェアボタン(「FS」ボタン,「IP」ボタン,「DS」ボタン)が表示される。ユーザがいずれかのソフトウェアボタンをタッチ操作又は入力部18を操作して選択することで、撮像装置1は、選択されたソフトウェアボタンに対応する部分合成画像を生成して、表示する。
なお、「FS」ボタンは、フォローの動作に対応する部分合成画像を生成し、表示する指示を行うソフトウェアボタンである。「IP」ボタンは、インパクトの動作に対応する部分合成画像を生成し、表示する指示を行うソフトウェアボタンである。「DS」ボタンは、ダウンスイングの動作に対応する部分合成画像を生成し、表示する指示を行うソフトウェアボタンである。
対象をタッチや選択することで、対応する動作の部分画像を生成してもよい。
Next, an example of display switching from a fully synthesized image to a partially synthesized image will be described with reference to FIG.
FIG. 5 is a diagram illustrating an example of a partial composite image selection screen displayed on the display unit of the imaging apparatus.
In the imaging apparatus 1 of the present embodiment, after displaying all synthesized images, software buttons B1 to B3 capable of selecting partial images as shown in FIG. 5 appear, and when any of the software buttons B1 to B3 is selected. A partial composite image corresponding to the selected software buttons B1 to B3 can be generated and displayed.
In the example of FIG. 5, software buttons (“FS” button, “IP” button, “DS” button) are displayed on the entire composite image. When the user selects any software button by touching or operating the input unit 18, the imaging apparatus 1 generates and displays a partial composite image corresponding to the selected software button.
The “FS” button is a software button for instructing to generate and display a partial composite image corresponding to the follow operation. The “IP” button is a software button for instructing to generate and display a partial composite image corresponding to the impact operation. The “DS” button is a software button for instructing to generate and display a partial composite image corresponding to the downswing operation.
A partial image of a corresponding action may be generated by touching or selecting a target.

次に、図6のフローチャートを参照して、図2の機能的構成を有する図1の撮像装置1が実行する合成画像生成処理について説明する。なお、本例では、全合成画像のデータを生成し、表示した後に、フォロースイングの部分合成画像のデータを生成し、表示する例について説明する。
図6は、図2の機能構成を有する図1の撮像装置1が実行する合成画像生成処理の流れの一例を示すフローチャートである。
Next, a composite image generation process executed by the imaging apparatus 1 in FIG. 1 having the functional configuration in FIG. 2 will be described with reference to the flowchart in FIG. In this example, a description will be given of an example in which data of a fully synthesized image is generated and displayed, and then data of a partially synthesized image of a follow swing is generated and displayed.
FIG. 6 is a flowchart illustrating an example of the flow of a composite image generation process executed by the imaging apparatus 1 of FIG. 1 having the functional configuration of FIG.

ユーザの入力部18に対する所定の操作により、合成画像生成処理の開始が指示されると、合成画像生成処理が開始されて、次のような処理が実行される。   When the start of the composite image generation process is instructed by a predetermined operation on the input unit 18 by the user, the composite image generation process is started and the following process is executed.

ステップS1において、画像取得部71は、一連の動作を示す複数の画像のデータとして動画像のデータを取得する。詳細には、入力部18からの撮像開始の入力を受けて、撮像制御部51は、撮像部17において撮像を開始する。そして、画像取得部71は、撮像部17によって撮像された動画像のデータを取得する。また、画像取得部71は、取得した動画像のデータを撮像画像記憶部62に格納する。   In step S1, the image acquisition unit 71 acquires moving image data as data of a plurality of images indicating a series of operations. Specifically, the imaging control unit 51 starts imaging in the imaging unit 17 in response to an input of imaging start from the input unit 18. Then, the image acquisition unit 71 acquires moving image data captured by the imaging unit 17. The image acquisition unit 71 stores the acquired moving image data in the captured image storage unit 62.

ステップS2において、画像特定部72は、動画像のデータを解析する。即ち、画像特定部72は、動画像のデータを構成する単一画像のデータを解析する。単一画像のデータの解析は、単一画像内に写り込んだ被写体の動作を特定することにより行う。   In step S2, the image specifying unit 72 analyzes moving image data. That is, the image specifying unit 72 analyzes data of a single image that constitutes moving image data. The analysis of single image data is performed by specifying the motion of the subject in the single image.

具体的には、画像特定部72は、動画を構成する単一画像に写り込んだ被写体の動作が例えば、ダウンスイングに属していることを特定する。   Specifically, the image specifying unit 72 specifies that the action of the subject reflected in the single image constituting the moving image belongs to, for example, a downswing.

ステップS3において、画像特定部72は、特定結果と単一画像との対応付けを行う。
詳細には、画像特定部72は、ステップS2で特定された部分動作であることを示すデータと、単一画像のデータとを対応付けて、取得画像記憶部91に記憶させる。
In step S3, the image specifying unit 72 associates the specifying result with a single image.
Specifically, the image specifying unit 72 associates the data indicating the partial motion specified in step S2 with the single image data and causes the acquired image storage unit 91 to store the data.

ステップS4において、合成画像生成部74は、全ての単一画像を合成し、全合成画像のデータを生成する。詳細には、画像選択部73により全ての単一画像が選択され、合成画像生成部74は、選択された単一画像の全てを1つの静止画像として合成し、全合成画像のデータを生成する。   In step S4, the synthesized image generation unit 74 synthesizes all the single images and generates data of all synthesized images. Specifically, all single images are selected by the image selection unit 73, and the composite image generation unit 74 combines all of the selected single images as one still image, and generates data of all composite images. .

ステップS5において、出力部19は、全合成画像を表示する。詳細には、出力部19は、出力制御部52により全合成画像を表示出力するように制御される。その結果、出力部19においては、図3に示すような動画を構成する全ての単一画像を合成した全合成画像が表示される。   In step S5, the output unit 19 displays the total composite image. Specifically, the output unit 19 is controlled by the output control unit 52 to display and output the total composite image. As a result, the output unit 19 displays a total synthesized image obtained by synthesizing all the single images constituting the moving image as shown in FIG.

ステップS6において、画像選択部73は、指定された部分動作に対応する単一画像のデータを選択する。詳細には、画像選択部73は、ユーザにより入力部18が操作されることにより、図5に示すように部分動作が指定された場合には、取得画像記憶部91に記憶された指定された部分動作に対応する単一画像のデータを、記憶される取得画像記憶部91から選択する。
この際、図5に示す例では、「FS」のソフトウェアボタンB1がタッチ操作されて、「FS」のソフトウェアボタンB1に対応するフォロースイングに対応する単一画像が選択される。
In step S <b> 6, the image selection unit 73 selects single image data corresponding to the designated partial motion. More specifically, the image selection unit 73, when the operation of the input unit 18 is operated by the user and a partial operation is specified as shown in FIG. Single image data corresponding to the partial operation is selected from the stored acquired image storage unit 91.
In this case, in the example shown in FIG. 5, the “FS” software button B1 is touched, and a single image corresponding to the follow swing corresponding to the “FS” software button B1 is selected.

ステップS7において、合成画像生成部74は、選択された単一画像を合成し、部分合成画像のデータを生成する。詳細には、画像選択部73により全ての単一画像が選択され、合成画像生成部74は、選択された単一画像の全てを1つの静止画像として合成し、全合成画像のデータを生成する。
合成画像生成部74は、選択されたフォロースイングに対応する単一画像を取得画像記憶部91から取得して、フォロースイングに対応する単一画像の全てを合成して、フォロースイングの部分動作に対応する部分合成画像のデータを生成する。
この際、指定されたフォロースイングに対応する単一画像の全てを取得したが、さらに、フォロースイングの前後の部分動作に対応する単一画像を取得する。
In step S7, the composite image generation unit 74 combines the selected single images and generates partial composite image data. Specifically, all single images are selected by the image selection unit 73, and the composite image generation unit 74 combines all of the selected single images as one still image, and generates data of all composite images. .
The composite image generation unit 74 acquires a single image corresponding to the selected follow swing from the acquired image storage unit 91, combines all the single images corresponding to the follow swing, and performs a partial operation of the follow swing. Corresponding partial composite image data is generated.
At this time, all of the single images corresponding to the designated follow swing are acquired, but further, a single image corresponding to the partial motion before and after the follow swing is acquired.

ステップS8において、出力部19は、部分合成画像を表示する。詳細には、出力部19は、出力制御部52により部分合成画像を表示出力するように制御される。その結果、出力部19においては、図4(c)に示すような、フォロースイングの動作に対応する単一画像を合成した部分合成画像が表示される。
また、ステップS6において、部分動作の指定を変更することにより、例えば、「IP」のソフトウェアボタンB2がタッチ操作されることにより、結果として、図4(b)に示すようなインパクトの動作に対応する部分合成画像が表示される。
撮像方向を被写体の正面側から行うことで、例えば、図4(d)のようなダウンスイングに対応する動作の部分合成画像、図4(e)のようなインパクトに対応する動作の部分合成画像、図4(f)のようなフォロースイングに対応する動作の部分合成画像等を生成し、表示可能となる。
このようにして、ステップS8の処理で部分合成画像の表示が行われると、合成画像生成処理は終了する。
In step S8, the output unit 19 displays the partial composite image. Specifically, the output unit 19 is controlled by the output control unit 52 to display and output the partial composite image. As a result, the output unit 19 displays a partially synthesized image obtained by synthesizing a single image corresponding to the follow swing operation as shown in FIG.
Also, in step S6, by changing the designation of the partial action, for example, when the “IP” software button B2 is touched, the result is an impact action as shown in FIG. 4B. A partial composite image is displayed.
By performing the imaging direction from the front side of the subject, for example, a partial composite image of an operation corresponding to a downswing as shown in FIG. 4D, or a partial composite image of an operation corresponding to an impact as shown in FIG. Then, a partial composite image or the like of the operation corresponding to the follow swing as shown in FIG. 4F can be generated and displayed.
In this way, when the partial composite image is displayed in the process of step S8, the composite image generation process ends.

以上のような合成画像生成処理を実行する撮像装置1は、画像取得部71と、画像特定部72と、画像選択部73と、合成画像生成部74と、を備える。
画像取得部71は、被写体の動作を示す複数の画像のデータを取得する。
画像特定部72は、画像取得部71により取得された複数の画像から、被写体の動作を構成する部分動作を特定する。
画像選択部73は、画像特定部72による特定結果に基づいて、複数の画像のデータの中から、所定の部分動作に対応する画像のデータを選択する。
合成画像生成部74は、画像選択部73選択された複数の画像のデータから1つの合成画像を生成する。
このため撮像装置1においては、画像特定部72による特定結果に基づいて選択された複数の画像のデータの中から、所定の部分動作に対応する画像のデータから1つの合成画像を生成する。
従って、撮像装置1においては、被写体の動作における特定部分動作を容易に把握する画像を生成することができる。また、生成された画像は、特定部分動作のみが含まれたものになるため、煩雑な画像とならない。
The imaging device 1 that executes the above-described composite image generation process includes an image acquisition unit 71, an image specification unit 72, an image selection unit 73, and a composite image generation unit 74.
The image acquisition unit 71 acquires data of a plurality of images indicating the motion of the subject.
The image specifying unit 72 specifies a partial motion that constitutes the motion of the subject from the plurality of images acquired by the image acquiring unit 71.
The image selection unit 73 selects image data corresponding to a predetermined partial operation from a plurality of image data based on the identification result by the image identification unit 72.
The composite image generation unit 74 generates one composite image from the data of the plurality of images selected by the image selection unit 73.
For this reason, in the imaging device 1, one composite image is generated from image data corresponding to a predetermined partial operation from among a plurality of image data selected based on the identification result by the image identification unit 72.
Therefore, the imaging apparatus 1 can generate an image that easily grasps the specific partial motion in the motion of the subject. Further, since the generated image includes only the specific partial operation, the image is not complicated.

また、画像選択部73は、所定の部分動作に対応する画像のデータに加えて、当該所定の部分動作の、少なくとも前又は後のいずれかの動作に対応する画像のデータを選択する。
このため撮像装置1においては、単に所定の部分動作に対応する部分の前又は後の動作も含んで画像を合成するために、所定の部分動作に至るまでの軌跡や所定の部分のどう以降の軌跡も含めた画像となるために、部分動作の軌跡を容易に把握することができる。
In addition to the image data corresponding to the predetermined partial operation, the image selection unit 73 selects image data corresponding to at least one operation before or after the predetermined partial operation.
For this reason, in the imaging apparatus 1, in order to synthesize an image including the operation before or after the portion corresponding to the predetermined partial motion, the trajectory leading to the predetermined partial motion and the subsequent portion of the predetermined portion Since the image includes the locus, the locus of the partial motion can be easily grasped.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、撮像装置1により撮像した被写体の動作を含んだ複数の画像を動画像のデータとして、画像取得部71により取得したが、これに限られない。取得される画像のデータは、例えば、一連の動作を含んだ複数の画像であればよく、動画像に限らず、静止画像でもよく、また、撮像部によって撮像された画像でなく外部から取得した画像でもよい。   In the above-described embodiment, the image acquisition unit 71 acquires a plurality of images including the motion of the subject imaged by the imaging device 1 as moving image data. However, the present invention is not limited to this. The acquired image data may be a plurality of images including a series of operations, for example, not only a moving image but also a still image, and is acquired from the outside instead of an image captured by an imaging unit. It may be an image.

また、上述の実施形態では、合成画像(全合成画像及び部分合成画像)は、動作の速度に関係なく合成していたがこれに限られない。例えば、合成画像は、動作の遅い部分については、画像を間引いて合成したり、動作の速い部分については捉えられた画像と画像との間を補間したりするように構成してもよい。このように構成することにより、部分動作の軌道が把握しやすい画像を提供することができる。   Further, in the above-described embodiment, the synthesized image (full synthesized image and partially synthesized image) is synthesized regardless of the operation speed, but is not limited thereto. For example, the synthesized image may be configured to thin out and synthesize an image for a slow motion part, or to interpolate between captured images for a fast motion part. With this configuration, it is possible to provide an image in which the trajectory of the partial motion can be easily grasped.

また、上述の実施形態では、一連の動作として、ゴルフのスイングを例に説明したがこれに限られない。例えば、一連の動作として、特に往復運動を含んだ動作が好ましく、野球、テニス、野球等の球技のスポーツや、剣道や柔道等の武術の動作にも限られず、また、一連の規則的に定められた動作にも限られない。一連の動きの一部分動作を抽出することで、合成した画像において一部分動作が容易に把握しやすくなったり、画像自体が煩雑にならなかったりするものであればよい。   In the above-described embodiment, the golf swing is described as an example of a series of operations, but the present invention is not limited to this. For example, a series of movements including a reciprocating movement is particularly preferable, and is not limited to ball sports such as baseball, tennis, and baseball, and martial arts movements such as kendo and judo. It is not limited to the performed operation. By extracting a partial motion of a series of motions, it is only necessary that the partial motion in the synthesized image can be easily grasped or the image itself does not become complicated.

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、合成画像生成機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a composite image generation function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
被写体の一連の動作を示す複数の画像のデータを取得する画像取得手段と、
前記画像取得手段により取得された前記複数の画像から、前記被写体の一連の動作を構成する部分動作を特定する画像特定手段と、
前記画像特定手段による特定結果に基づいて、前記複数の画像のデータの中から、所定の部分動作に対応する画像のデータを複数選択する画像選択手段と、
前記画像選択手段により選択された複数の画像のデータから1つの合成画像を生成する合成画像生成手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記画像選択手段は、前記所定の部分動作に対応する画像のデータに加えて、当該所定の部分動作の少なくとも前又は後のいずれかの動作に対応する画像のデータを選択する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記画像取得手段は、前記被写体の動作として、ゴルフのスイングが写り込んだ画像のデータを取得すること、
を特徴とする付記1又は2に記載の画像処理装置。
[付記4]
前記画像取得手段は、前記複数の画像のデータを動画像のデータで取得すること、
を特徴とする付記1乃至3のいずれか1つに記載の画像処理装置。
[付記5]
画像処理装置が実行する画像処理方法であって、
被写体の一連の動作を示す複数の画像のデータを取得する画像取得ステップと、
前記画像取得ステップにより取得された前記複数の画像から、前記被写体の一連の動作を構成する部分動作を特定する画像特定ステップと、
前記画像特定ステップによる特定結果に基づいて、前記複数の画像のデータの中から、所定の部分動作に対応する画像のデータを複数選択する画像選択ステップと、
前記画像選択ステップにより選択された複数の画像のデータから1つの合成画像を生成する合成画像生成ステップと、
を含むことを特徴とする画像処理方法。
[付記6]
コンピュータを、
被写体の一連の動作を示す複数の画像のデータを取得する画像取得手段、
前記画像取得手段により取得された前記複数の画像から、前記被写体の一連の動作を構成する部分動作を特定する画像特定手段、
前記画像特定手段による特定結果に基づいて、前記複数の画像のデータの中から、所定の部分動作に対応する画像のデータを複数選択する画像選択手段、
前記画像選択手段により選択された複数の画像のデータから1つの合成画像を生成する合成画像生成手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Image acquisition means for acquiring data of a plurality of images indicating a series of actions of the subject;
Image specifying means for specifying partial motions constituting a series of motions of the subject from the plurality of images acquired by the image acquisition means;
Image selecting means for selecting a plurality of image data corresponding to a predetermined partial operation from among the plurality of image data based on the identification result by the image identifying means;
Combined image generating means for generating one combined image from data of a plurality of images selected by the image selecting means;
An image processing apparatus comprising:
[Appendix 2]
The image selecting means selects, in addition to image data corresponding to the predetermined partial motion, image data corresponding to at least one of the motions before or after the predetermined partial motion;
The image processing apparatus according to appendix 1, wherein:
[Appendix 3]
The image acquiring means acquires data of an image in which a golf swing is reflected as the movement of the subject;
The image processing apparatus according to appendix 1 or 2, wherein:
[Appendix 4]
The image acquisition means acquires the data of the plurality of images as moving image data;
The image processing apparatus according to any one of appendices 1 to 3, wherein:
[Appendix 5]
An image processing method executed by an image processing apparatus,
An image acquisition step of acquiring data of a plurality of images indicating a series of actions of the subject;
An image specifying step for specifying a partial motion constituting a series of motions of the subject from the plurality of images acquired by the image acquiring step;
An image selection step of selecting a plurality of image data corresponding to a predetermined partial motion from the plurality of image data based on the identification result of the image identification step;
A composite image generation step of generating one composite image from data of a plurality of images selected by the image selection step;
An image processing method comprising:
[Appendix 6]
Computer
Image acquisition means for acquiring data of a plurality of images indicating a series of movements of a subject;
Image specifying means for specifying partial motions constituting a series of motions of the subject from the plurality of images acquired by the image acquisition means;
An image selecting means for selecting a plurality of image data corresponding to a predetermined partial operation from the plurality of image data based on a result of the identification by the image specifying means;
Composite image generation means for generating one composite image from data of a plurality of images selected by the image selection means;
A program characterized by functioning as

1・・・画像処理装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・画像処理部,15・・・バス,16・・・入出力インターフェース,17・・・撮像部,18・・・入力部,19・・・出力部,20・・・記憶部,21・・・通信部,22・・・ドライブ,31・・・リムーバブルメディア,51・・・撮像制御部,52・・・出力制御部,71・・・画像取得部,72・・・画像特定部,73・・・画像選択部73・・・合成画像生成部,91・・・取得画像記憶部,92・・・合成画像記憶部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 15 ... Bus, 16 ... Input / output interface, 17 ..Imaging unit, 18 ... input unit, 19 ... output unit, 20 ... storage unit, 21 ... communication unit, 22 ... drive, 31 ... removable media, 51 ... Imaging control unit, 52 ... Output control unit, 71 ... Image acquisition unit, 72 ... Image identification unit, 73 ... Image selection unit 73 ... Composite image generation unit, 91 ... Acquisition image Storage unit, 92 ... composite image storage unit

上記目的を達成するため、本発明の一態様の画像処理装置は、
被写体の一連の動作を示す複数の画像のデータを取得する画像取得手段と、
前記被写体の一連の動作を構成する複数の部分動作から第1の部分動作を特定する特定手段と、
前記画像取得手段により取得された前記複数の画像の中から、前記特定手段により特定された前記第1の部分動作に対応する画像を複数選択する画像選択手段と、
前記画像選択手段により選択された前記第1の部分動作に対応する画像を1つの画像に合成させて合成画像を生成する合成画像生成手段と、を備え、
さらに、前記特定手段は、前記合成画像生成手段により合成画像が生成された後、前記被写体の一連の動作から第2の部分動作を特定し、
前記画像選択手段は、前記第2の部分動作に対応する画像を前記複数の画像から選択し、
前記合成画像生成手段は、前記画像選択手段により選択された画像を1つの画像に合成する、ことを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
Image acquisition means for acquiring data of a plurality of images indicating a series of actions of the subject;
Identifying means for identifying a first partial motion from a plurality of partial motions constituting a series of motions of the subject;
Image selecting means for selecting a plurality of images corresponding to the first partial motion specified by the specifying means from the plurality of images acquired by the image acquiring means;
Composite image generation means for generating a composite image by combining an image corresponding to the first partial motion selected by the image selection means into one image;
Further, the specifying means specifies a second partial motion from a series of motions of the subject after the composite image is generated by the composite image generation means,
The image selecting means selects an image corresponding to the second partial operation from the plurality of images,
The synthesized image generating means synthesizes the images selected by the image selecting means into one image .

Claims (7)

被写体の一連の動作を示す複数の画像のデータを取得する画像取得手段と、
入力部への所定の部分動作を選択する旨の入力が検出された場合に、前記被写体の一連の動作を構成する複数の部分動作から所定の部分動作を特定する特定手段と、
前記画像取得手段により取得された前記複数の画像のデータの中から、前記特定手段により特定された所定の部分動作に対応する画像のデータを複数選択する画像選択手段と、
前記画像選択手段により選択された複数の画像から前記被写体の画像において動作の特徴となる部分領域を抽出する抽出手段と、
前記抽出手段により抽出された複数の前記部分領域と、前記画像選択手段により選択された前記所定の部分動作時の画像のデータの何れか一つとを重畳するように合成させて合成画像を生成する合成画像生成手段と、
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring data of a plurality of images indicating a series of actions of the subject;
A specifying means for specifying a predetermined partial motion from a plurality of partial motions constituting a series of motions of the subject when an input for selecting a predetermined partial motion to the input unit is detected;
Image selecting means for selecting a plurality of image data corresponding to the predetermined partial motion specified by the specifying means from the plurality of image data acquired by the image acquiring means;
Extraction means for extracting a partial region that is characteristic of the operation in the image of the subject from a plurality of images selected by the image selection means;
A plurality of the partial areas extracted by the extraction unit and the image data at the time of the predetermined partial operation selected by the image selection unit are combined so as to be superimposed to generate a composite image. A composite image generating means;
An image processing apparatus comprising:
前記画像選択手段は、前記所定の部分動作時の単一の画像のデータに加えて、当該所定の部分動作から前又は後の時点のいずれかの動作に対応する画像のデータを選択する、
ことを特徴とする請求項1に記載の画像処理装置。
The image selection means selects, in addition to single image data at the time of the predetermined partial operation, image data corresponding to an operation at any time before or after the predetermined partial operation.
The image processing apparatus according to claim 1.
前記画像取得手段は、前記被写体の動作として、ゴルフのスイングが撮影された画像のデータを取得すること、
を特徴とする請求項1又は2に記載の画像処理装置。
The image acquisition means acquires data of an image of a golf swing photographed as the movement of the subject;
The image processing apparatus according to claim 1, wherein:
前記特定手段は、前記被写体の動作がゴルフのスイングの場合、部分動作として、アドレス、バックスイング、トップ、ダウンスイング、インパクト、フォロースイング、フィニッシュの中の少なくとも一つの動作を部分動作として特定すること、
を特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
The specifying means specifies at least one of address, back swing, top, down swing, impact, follow swing, and finish as a partial motion as a partial motion when the subject motion is a golf swing. ,
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記画像取得手段は、前記複数の画像のデータを動画像のデータで取得すること、
を特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
The image acquisition means acquires the data of the plurality of images as moving image data;
The image processing apparatus according to claim 1, wherein:
入力部を備える画像処理装置が実行する画像処理方法であって、
被写体の一連の動作を示す複数の画像のデータを取得する画像取得ステップと、
入力部への所定の部分動作を選択する旨の入力が検出された場合に、前記被写体の一連の動作を構成する複数の部分動作から所定の部分動作を特定する特定ステップと、
前記画像取得ステップにより取得された前記複数の画像のデータの中から、前記特定ステップにより特定された所定の部分動作に対応する画像のデータを複数選択する画像選択ステップと、
前記画像選択ステップにより選択された複数の画像から前記被写体の画像において動作の特徴となる部分領域を複数抽出する抽出ステップと、
前記抽出ステップにより抽出された複数の前記部分領域と、前記画像選択ステップにより選択された前記所定の部分動作時の画像のデータの何れか一つとを重畳するように合成させて合成画像を生成する合成画像生成ステップと、
を含むことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus including an input unit,
An image acquisition step of acquiring data of a plurality of images indicating a series of actions of the subject;
A specific step of identifying a predetermined partial motion from a plurality of partial motions constituting a series of motions of the subject when an input to select a predetermined partial motion to the input unit is detected;
An image selection step of selecting a plurality of image data corresponding to the predetermined partial motion identified by the identification step from the plurality of image data obtained by the image acquisition step;
An extraction step of extracting a plurality of partial regions that are characteristic of the operation in the image of the subject from the plurality of images selected in the image selection step;
A composite image is generated by combining the plurality of partial regions extracted in the extraction step and any one of the image data at the time of the predetermined partial operation selected in the image selection step so as to overlap each other. A composite image generation step;
An image processing method comprising:
コンピュータを、
被写体の一連の動作を示す複数の画像のデータを取得する画像取得手段、
入力部への所定の部分動作を選択する旨の入力が検出された場合に、前記被写体の一連の動作を構成する複数の部分動作から所定の部分動作を特定する特定手段、
前記画像取得手段により取得された前記複数の画像のデータの中から、前記特定手段により特定された所定の部分動作に対応する画像のデータを複数選択する画像選択手段、
前記画像選択手段により選択された複数の画像から前記被写体の画像において動作の特徴となる部分領域を複数抽出する抽出手段、
前記抽出手段により抽出された複数の前記部分領域と、前記画像選択手段により選択された前記所定の部分動作時の画像のデータの何れか一つとを重畳するように合成させて合成画像を生成する合成画像生成手段、
として機能させることを特徴とするプログラム。
Computer
Image acquisition means for acquiring data of a plurality of images indicating a series of movements of a subject;
A specifying means for specifying a predetermined partial motion from a plurality of partial motions constituting a series of motions of the subject when an input for selecting the predetermined partial motion to the input unit is detected;
Image selecting means for selecting a plurality of image data corresponding to the predetermined partial motion specified by the specifying means from the plurality of image data acquired by the image acquiring means;
Extraction means for extracting a plurality of partial regions that are characteristic of the operation in the image of the subject from the plurality of images selected by the image selection means;
A plurality of the partial areas extracted by the extraction unit and the image data at the time of the predetermined partial operation selected by the image selection unit are combined so as to be superimposed to generate a composite image. Synthetic image generating means,
A program characterized by functioning as
JP2016008458A 2016-01-20 2016-01-20 Image processing apparatus, image processing method, and program Active JP6115656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016008458A JP6115656B2 (en) 2016-01-20 2016-01-20 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016008458A JP6115656B2 (en) 2016-01-20 2016-01-20 Image processing apparatus, image processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012064529A Division JP5874476B2 (en) 2012-03-21 2012-03-21 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2016123107A true JP2016123107A (en) 2016-07-07
JP6115656B2 JP6115656B2 (en) 2017-04-19

Family

ID=56329186

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016008458A Active JP6115656B2 (en) 2016-01-20 2016-01-20 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6115656B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04130882A (en) * 1990-09-21 1992-05-01 Hitachi Ltd Video printer
JP2002027398A (en) * 2000-07-12 2002-01-25 Kodera Electronics Co Ltd Image recorder/reproducer
JP2003117045A (en) * 2001-10-18 2003-04-22 Takasago Electric Ind Co Ltd Swing form diagnosing device
JP2004186994A (en) * 2002-12-03 2004-07-02 Toshiba Corp Method, device, and program for compositing object image
JP2005270500A (en) * 2004-03-26 2005-10-06 Sri Sports Ltd Golf swing diagnostic system
JP2006203443A (en) * 2005-01-19 2006-08-03 Inc Corp Image synthesizer and synthesization program
JP2008104509A (en) * 2006-10-23 2008-05-08 Win System:Kk Golf swing form photographing apparatus
JP2010124884A (en) * 2008-11-25 2010-06-10 Casio Computer Co Ltd Image processor and program
JP2011109557A (en) * 2009-11-20 2011-06-02 Sony Corp Image processing apparatus, image processing method, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04130882A (en) * 1990-09-21 1992-05-01 Hitachi Ltd Video printer
JP2002027398A (en) * 2000-07-12 2002-01-25 Kodera Electronics Co Ltd Image recorder/reproducer
JP2003117045A (en) * 2001-10-18 2003-04-22 Takasago Electric Ind Co Ltd Swing form diagnosing device
JP2004186994A (en) * 2002-12-03 2004-07-02 Toshiba Corp Method, device, and program for compositing object image
JP2005270500A (en) * 2004-03-26 2005-10-06 Sri Sports Ltd Golf swing diagnostic system
JP2006203443A (en) * 2005-01-19 2006-08-03 Inc Corp Image synthesizer and synthesization program
JP2008104509A (en) * 2006-10-23 2008-05-08 Win System:Kk Golf swing form photographing apparatus
JP2010124884A (en) * 2008-11-25 2010-06-10 Casio Computer Co Ltd Image processor and program
JP2011109557A (en) * 2009-11-20 2011-06-02 Sony Corp Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP6115656B2 (en) 2017-04-19

Similar Documents

Publication Publication Date Title
JP5874476B2 (en) Image processing apparatus, image processing method, and program
JP5754439B2 (en) Information notification apparatus, information notification method, and program
JP5648647B2 (en) Image processing apparatus, image processing method, and program
CN105450911B (en) Image processing apparatus, image processing method
JP6439235B2 (en) Information notification apparatus, information notification method, and program
JP5794215B2 (en) Image processing apparatus, image processing method, and program
JP2011139282A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5941736B2 (en) Photography equipment
JP6149365B2 (en) Information generating apparatus, information generating method and program
JP2017173252A (en) Image processing apparatus, image processing method, and image processing program
JP5733298B2 (en) Display control apparatus, display control method, and program
JP2013074572A (en) Image processing apparatus, image processing method, and program
JP2014187551A (en) Image acquisition device, image acquisition method and program
JP6115656B2 (en) Image processing apparatus, image processing method, and program
JP6149891B2 (en) Display control apparatus, display control method, and program
JP4849330B2 (en) Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program
JP6372176B2 (en) Image processing apparatus, image processing method, and program
JP2014064125A (en) Image generation device, image generation method, and program
JP6075356B2 (en) Image processing apparatus, image processing method, and program
JP6384564B2 (en) Image processing apparatus, image processing method, and program
JP2015061237A (en) Device and method for image synthesis, and program
JP2016123637A (en) Image processor, image processing method and program
JP2013078037A (en) Image processing device, image processing method, and program
JP5741062B2 (en) Image processing apparatus, image processing method, and program
JP6064404B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170306

R150 Certificate of patent or registration of utility model

Ref document number: 6115656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150