JP2017059893A - Image processing apparatus, shooting guide device, imaging device, image processing method and image processing program - Google Patents

Image processing apparatus, shooting guide device, imaging device, image processing method and image processing program Download PDF

Info

Publication number
JP2017059893A
JP2017059893A JP2015181011A JP2015181011A JP2017059893A JP 2017059893 A JP2017059893 A JP 2017059893A JP 2015181011 A JP2015181011 A JP 2015181011A JP 2015181011 A JP2015181011 A JP 2015181011A JP 2017059893 A JP2017059893 A JP 2017059893A
Authority
JP
Japan
Prior art keywords
image
time difference
moving object
difference
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015181011A
Other languages
Japanese (ja)
Other versions
JP6543147B2 (en
Inventor
和彦 志村
Kazuhiko Shimura
和彦 志村
佳之 福谷
Yoshiyuki Fukutani
佳之 福谷
和男 神田
Kazuo Kanda
和男 神田
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015181011A priority Critical patent/JP6543147B2/en
Publication of JP2017059893A publication Critical patent/JP2017059893A/en
Application granted granted Critical
Publication of JP6543147B2 publication Critical patent/JP6543147B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve such a problem of a conventional image processing apparatus, built in an imaging device while included in a central control circuit, that the image effect cannot be confirmed easily in frame imaging in advance, although the travel from the previously captured image to the next image is known.SOLUTION: An image processing apparatus 114 includes a positional difference determination unit 114a, a time difference setting unit 114b, and an auxiliary image generation unit 114c. The positional difference determination unit determines the positional difference of a moving object from at least two images having common moving object and background, and the time difference setting unit sets a time difference in the frame advance of an image and a time difference of image reproduction corresponding to the positional difference. The auxiliary image generation unit generates at least one auxiliary image, becoming a frame image where the moving object moves on the background, in accordance with the positional difference determined in the positional difference determination unit, the difference in frame advance set in the time difference setting unit and the time difference of reproduction.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、撮影ガイド装置、撮像装置、画像処理方法および画像処理プログラム、特に、アニメーション動画を制作するに適した画像処理装置、撮影ガイド装置、撮像装置、画像処理方法および画像処理プログラムに関する。   The present invention relates to an image processing device, an imaging guide device, an imaging device, an image processing method, and an image processing program, and in particular, an image processing device, an imaging guide device, an imaging device, an image processing method, and an image processing suitable for producing an animation movie. Regarding the program.

デジタルカメラ、デジタルビデオカメラだけでなく、携帯電話(スマートフォン(多機能携帯電話)を含む)、タブレット端末(タブレットPCを含む)などに代表される携帯情報端末機器も撮影機能(カメラ機能)を持ち、これらは撮像装置と総称される。   In addition to digital cameras and digital video cameras, mobile information terminal devices such as mobile phones (including smartphones (including multi-function mobile phones)) and tablet terminals (including tablet PCs) also have shooting functions (camera functions). These are collectively referred to as an imaging device.

デジタルカメラ、デジタルビデオカメラ、携帯情報端末機器などの撮像装置において、被写体からの像(被写体像)は撮影レンズを介して撮像素子に結像され、光電変換されてデジタル化される。デジタル化された画像は、中央制御回路に出力され、中央制御回路で色や階調の補正や圧縮処理などの必要な画像処理が施される。たとえば静止画ではJPEG形式、動画ではH.264形式等の画像ファイルに変換されてフラッシュメモリなどの記録部に記録される。
なお、撮影レンズ、撮像素子などから撮像装置の撮像部が構成される。
In an imaging apparatus such as a digital camera, a digital video camera, or a portable information terminal device, an image from a subject (subject image) is formed on an image sensor via a photographing lens, and is photoelectrically converted and digitized. The digitized image is output to the central control circuit, and necessary image processing such as color and gradation correction and compression processing is performed in the central control circuit. For example, JPEG format for still images and H.264 for moving images. It is converted into an image file in the H.264 format and recorded in a recording unit such as a flash memory.
Note that an imaging unit of the imaging apparatus is configured by the imaging lens, the imaging element, and the like.

撮影に先立って撮影の構図やタイミングを確認するために、撮像部からの画像信号は、表示部にライブビュー画像(スルー動画像)として表示される。表示部には、撮影前のライブビュー画像だけでなく、記録部に記録された画像信号も中央制御回路で伸長されて表示(再生)される。表示部は液晶ディスプレイ(LCD)などから形成される。中央制御回路は、画像を処理するだけでなく、撮像装置の構成部材、たとえば、記録部、表示部、一連のスイッチ(たとえば、レリーズスイッチ、パワースイッチ、メニューキーなど)などの動作を制御する。
被写体像はライブビュー画像で確認され、レリーズスイッチの操作のもとで撮影され、デジタル画像を連続して撮影してコマ間圧縮を行えば動画が得られ、連続撮影しなければ静止画が得られる。
In order to confirm the composition and timing of shooting prior to shooting, the image signal from the imaging unit is displayed as a live view image (through moving image) on the display unit. On the display unit, not only the live view image before photographing but also the image signal recorded in the recording unit is expanded and displayed (reproduced) by the central control circuit. The display unit is formed from a liquid crystal display (LCD) or the like. The central control circuit not only processes the image, but also controls the operation of the components of the imaging device, such as a recording unit, a display unit, and a series of switches (for example, a release switch, a power switch, a menu key, etc.).
The subject image is confirmed with the live view image, shot under the operation of the release switch, a digital image is continuously shot and a frame-by-frame compression is performed, and a moving image is obtained. It is done.

キャラクター(移動物)を被写体として背景の中を少しずつ動かして撮影(コマ撮り)すれば、キャラクターが移動するアニメーション動画(アニメ動画)が制作される。アニメ動画は、通常、複数のシーンの動画を組合せて作成される。キャラクターは、たとえば粘土から成形される粘土成型物とされる。しかし、粘土成型物に限定されず、粘土以外のものから成形してもよい。   If you take a character (moving object) as a subject and move it in the background little by little, you can create an animated movie (animated movie) that moves the character. An animation moving image is usually created by combining moving images of a plurality of scenes. The character is, for example, a clay molding formed from clay. However, it is not limited to a clay molding, and may be molded from a material other than clay.

特開2008−060661号公報には、アニメ動画のためのファイル(動画ファイル)を作成し、動画ファイルの作成時にコマ撮りごとのキャラクター(被写体)の移動距離を示唆する電子カメラ(撮像装置)が記載されている。   Japanese Patent Application Laid-Open No. 2008-060661 discloses an electronic camera (imaging device) that creates a file (moving image file) for an animation moving image and suggests a moving distance of a character (subject) for each time-lapse shooting when the moving image file is created. Have been described.

特開2008−060661号公報JP 2008-060661 A

特開2008−060661号公報では、前撮影コマの画像(前撮影画像)、ライブビュー画像が液晶ディスプレイ(表示部)に重ね合わせて表示される。そのため、前撮影画像、ライブビュー画像のそれぞれの位置が液晶ディスプレイで確認され、前撮影画像からライブビュー画像までの移動距離(コマ撮りごとの移動量)がわかる。被写体がキャラクターであれば、アニメ動画が撮影される。   In Japanese Patent Laid-Open No. 2008-060661, an image of a previous shot frame (previous shot image) and a live view image are displayed superimposed on a liquid crystal display (display unit). For this reason, the positions of the previously captured image and the live view image are confirmed on the liquid crystal display, and the moving distance from the previously captured image to the live view image (the amount of movement for each time-lapse shooting) is known. If the subject is a character, an animated movie is shot.

この構成では、前撮影画像から次の画像までの移動距離がわかるとはいえ、コマ撮りにおける画像効果を事前に手軽に確認できない。   In this configuration, although the moving distance from the previous photographed image to the next image can be known, the image effect in the time-lapse photography cannot be easily confirmed in advance.

本発明は、コマ撮りにおける画像効果を事前に手軽に確認できる画像処理装置、撮影ガイド装置、撮像装置、画像処理方法および画像処理プログラムの提供を目的としている。   An object of the present invention is to provide an image processing apparatus, an imaging guide apparatus, an imaging apparatus, an image processing method, and an image processing program that can easily check an image effect in time-lapse photography in advance.

本発明では、コマ送りにおける撮影(撮像)を補助する画像を作成している。
すなわち、請求項1記載の本発明によれば、画像処理装置は、共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定する位置差判定部と、前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定する時間差設定部と、前記位置差判定部で判定された前記位置差と前記時間差設定部で設定された前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が前記背景上を移動するコマ画像となる少なくとも1つの補助画像を作成する補助画像作成部とを備えている。
請求項9記載の本発明によれば、撮影ガイド装置は、共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定する位置差判定部と、前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定する時間差設定部と、前記位置差判定部で判定された前記位置差と前記時間差設定部で設定された前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が半透明状に表示されて画面内に配置された少なくとも1つの補助画像を作成する補助画像作成部とを備えている。
請求項11記載の本発明によれば、撮像装置は、画像の表示される表示部と、画像を処理し、処理された画像が表示部に表示される画像処理装置とを具備し、当該画像処理装置が、共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定する位置差判定部と、前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定する時間差設定部と、前記位置差判定部で判定された前記位置差と前記時間差設定部で設定された前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が前記背景上を移動するコマ画像となる少なくとも1つの補助画像を作成する補助画像作成部とを備えている。
請求項12記載の本発明によれば、画像処理方法は、共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定するステップと、前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定するステップと、前記判定された位置差と前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が前記背景上を移動するコマ画像となる少なくとも1つの補助画像を作成するステップとを備えている。
請求項13記載の本発明によれば、画像処理プログラムは、共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定する機能と、前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定する機能と、前記判定された位置差と前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が前記背景上を移動するコマ画像となる少なくとも1つの補助画像を作成する機能とをコンピュータに実現させるように構成されている。
In the present invention, an image assisting shooting (imaging) in frame advance is created.
That is, according to the first aspect of the present invention, the image processing apparatus includes a position difference determination unit that determines a position difference of a moving object from at least two images having a common moving object and a background, and a frame of the image. A time difference setting unit that sets a time difference in feeding and a time difference in reproduction of the image corresponding to the position difference, and a time difference in the frame feeding set in the time difference setting unit and the position difference determined in the position difference determining unit. And an auxiliary image creating unit that creates at least one auxiliary image that is a frame image in which the moving object moves on the background according to the time difference of reproduction.
According to the present invention, the photographing guide device includes a position difference determination unit that determines a position difference of a moving object from at least two images having a common moving object and a background, and frame advance of the image. A time difference setting unit that sets a time difference and a time difference of reproduction of the image corresponding to the position difference; and the time difference and reproduction in the position difference determined by the position difference determination unit and the frame advance set by the time difference setting unit According to the time difference, the moving object is displayed in a semi-transparent manner and includes an auxiliary image creating unit that creates at least one auxiliary image arranged in the screen.
According to the present invention described in claim 11, the imaging apparatus includes a display unit that displays an image, and an image processing device that processes the image and displays the processed image on the display unit. A processing apparatus determines a position difference of a moving object from at least two images having a common moving object and a background, and reproduces the image corresponding to the time difference and the position difference in frame advancement of the image. The moving object is the background according to the time difference setting unit for setting the time difference, the position difference determined by the position difference determination unit, and the time difference in the frame advance and the reproduction time difference set by the time difference setting unit. And an auxiliary image creation unit that creates at least one auxiliary image to be a frame image moving up.
According to the invention of claim 12, the image processing method includes a step of determining a position difference of a moving object from at least two images having a common moving object and a background, a time difference in frame advance of the image, and the A step of setting a reproduction time difference of the image corresponding to the position difference, and a frame image in which the moving object moves on the background according to the determined position difference, a time difference in the frame advance and a reproduction time difference, and And creating at least one auxiliary image.
According to the present invention of claim 13, the image processing program has a function of determining a position difference of a moving object from at least two images having a common moving object and a background, a time difference in frame advance of the image, and the A function of setting a reproduction time difference of the image corresponding to a position difference, and a frame image in which the moving object moves on the background according to the determined position difference, a time difference in the frame advance and a reproduction time difference, and The computer is configured to realize a function of creating at least one auxiliary image.

本発明では、コマ送りにおける撮影(撮像)を補助(ガイド)する補助画像を作成しているため、コマ送りにおける画像効果を手軽に確認できる。   In the present invention, since an auxiliary image that assists (guides) shooting (imaging) in frame advance is created, the image effect in frame advance can be easily confirmed.

本発明の一実施例に係る画像処理部(画像処理装置)の概念ブロック図を示す。1 is a conceptual block diagram of an image processing unit (image processing apparatus) according to an embodiment of the present invention. レンズ型デジタルカメラとスマートフォンとを無線接続した組み合わせからなる本発明の一実施例に係る撮像装置の模式図を示す。The schematic diagram of the imaging device which concerns on one Example of this invention which consists of a combination which wirelessly connected the lens type digital camera and the smart phone is shown. (A)〜(D)は本発明による補助画像作成の模式図を示す。(A)-(D) show the schematic diagram of auxiliary image preparation by this invention. (A)〜(C)はスマートフォンの画面をそれぞれ示す。(A)-(C) show the screen of a smart phone, respectively. 図4(C)の画面で「なめらかさ」を選択したときのスマートフォンの画面を示す。The screen of the smart phone when “smoothness” is selected on the screen of FIG. (A)〜(D)は図4(C)の画面で「時間差」を選択したときのスマートフォンの画面を示す。(A)-(D) show the screen of a smart phone when “time difference” is selected on the screen of FIG. (A)〜(C)は図6(A)の画面で「楽曲指定」を選択したときのスマートフォンの画面を示す。(A)-(C) show the screen of the smart phone when “music selection” is selected on the screen of FIG. 6 (A). (A)(B)は図4(C)の画面で「位置差」を選択したときのスマートフォンの画面を示す。FIGS. 4A and 4B show smartphone screens when “positional difference” is selected on the screen of FIG. (A)〜(D)は図4(C)の画面で「ガイド」を選択したときのスマートフォンの画面を示す。FIGS. 4A to 4D show smartphone screens when “Guide” is selected on the screen of FIG. 図9(A)の画面で「予測」を選択したときのスマートフォンの画面を示す。The screen of the smart phone when “prediction” is selected on the screen of FIG. 本発明の一実施例におけるアニメーション動画のための動画作成のフローチャートを示す。6 shows a flowchart of creating a moving image for an animated moving image according to an embodiment of the present invention. 補助画像作成のサブルーチンを示す。The subroutine of auxiliary image creation is shown. (A)〜(C)は補間画像の作成における始点、終点でのキャラクターの画像、キャラクターの存在しないライブビュー画像(背景のライブビュー画像)をそれぞれ示す。(A) to (C) show a character image at the start point and end point in the creation of an interpolation image, and a live view image (background live view image) where no character exists, respectively.

画像処理装置は、位置差判定部と、時間差設定部と、補助画像作成部とを有している。位置差判定部は共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定し、時間差設定部は画像のコマ送りにおける時間差および位置差に対応する画像の再生の時間差を設定している。補助画像作成部は、位置差判定部で判定された位置差と時間差設定部で設定されたコマ送りにおける時間差および再生の時間差とにしたがって、移動物が背景上を移動するコマ画像となる少なくとも1つの補助画像を作成している。   The image processing apparatus includes a position difference determination unit, a time difference setting unit, and an auxiliary image creation unit. The position difference determination unit determines the position difference of the moving object from at least two images having a common moving object and background, and the time difference setting unit determines the time difference in image frame advance and the time difference of image reproduction corresponding to the position difference. It is set. The auxiliary image creating unit has at least one frame image in which the moving object moves on the background according to the position difference determined by the position difference determination unit and the time difference in frame advance and the reproduction time difference set by the time difference setting unit. Two auxiliary images are created.

以下、図面を参照しながら本発明の一実施例を詳細に説明する。
図1は本発明の一実施例に係る画像処理部(画像処理装置)の概念ブロック図を示す。図2はレンズ型デジタルカメラとスマートフォンとを無線接続した組み合わせからなる本発明の一実施例に係る撮像装置の模式図を示す。
なお、画像処理装置10は、コマ送りにおける撮影(撮像)を補助する画像を作成して撮影のガイドをしており、撮影ガイド装置といい換えることもできる。
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a conceptual block diagram of an image processing unit (image processing apparatus) according to an embodiment of the present invention. FIG. 2 is a schematic diagram of an imaging apparatus according to an embodiment of the present invention, which is a combination of a lens-type digital camera and a smartphone wirelessly connected.
Note that the image processing apparatus 10 creates an image that assists shooting (imaging) in frame advance and guides shooting, and can be called an imaging guide apparatus.

本発明は、アニメ動画撮影の素材となる補助画像を作成する画像処理部(画像処理装置)を要部としている。そのため、画像処理部以外の撮像装置の構成部材、たとえば、撮像部などを別体にして発明の説明を簡略化している。画像処理部(画像処理装置)の組み込まれたこの発明の一実施例に係る撮像装置は、たとえば、レンズ型デジタルカメラをスマートフォンに組み合わせて構成できる。   The main part of the present invention is an image processing unit (image processing apparatus) that creates an auxiliary image as a material for shooting an animated moving image. For this reason, the description of the invention is simplified by separating the constituent members of the imaging apparatus other than the image processing unit, for example, the imaging unit. An imaging apparatus according to an embodiment of the present invention in which an image processing unit (image processing apparatus) is incorporated can be configured by combining, for example, a lens-type digital camera with a smartphone.

図2では、撮像装置10は、レンズ型デジタルカメラ10aとスマートフォン10bとを無線接続して構成され、スマートフォンが撮像装置の本体部、デジタルカメラが撮像部としてそれぞれ機能している。ここで、レンズ型デジタルカメラ10aはレンズマウントを搭載しているため、レンズマウントを利用してレンズ型デジタルカメラをスマートフォン10bに組み込んで一体化してもよい。   In FIG. 2, the imaging device 10 is configured by wirelessly connecting a lens-type digital camera 10a and a smartphone 10b, and the smartphone functions as a main body of the imaging device and the digital camera functions as an imaging unit. Here, since the lens-type digital camera 10a is equipped with a lens mount, the lens-type digital camera may be integrated into the smartphone 10b using the lens mount.

スマートフォンは、様々な通信回線を利用してのコンテンツの送受信が可能であり、作成動画の外部サイトなどへのアップロード、また、外部サイトなどからの鑑賞用画像、素材用画像のダウンロードなどが容易に行える。もちろん、タブレットパソコンやパソコンなども同様の理由で代用できる。また、後述のように、音楽データのダウンロードなどのサービスも利用できる。   Smartphones can send and receive content using various communication lines, making it easy to upload created videos to external sites and to download viewing images and material images from external sites. Yes. Of course, tablet computers and computers can be substituted for the same reason. Also, as will be described later, services such as music data download can be used.

図1に示すように、撮像装置10は、撮像部12、中央制御回路14、操作部16、表示部18、記録部20、通信部22、計時部24を備えている。
撮像部12は複数の画像を撮像し、図2に示す実施例では、スマートフォン10bと別体のレンズ型デジタルカメラ10aが撮像部12として機能し、中央制御回路14〜計時部24は、スマートフォン(撮像装置の本体部)10bに設けられている。中央制御回路14は、コマ送りにおける撮影(撮像)の補助(ガイド)となる補助画像を作成する画像処理部(画像処理装置)114を包含している。
As shown in FIG. 1, the imaging device 10 includes an imaging unit 12, a central control circuit 14, an operation unit 16, a display unit 18, a recording unit 20, a communication unit 22, and a time measuring unit 24.
The imaging unit 12 captures a plurality of images, and in the embodiment shown in FIG. 2, the lens-type digital camera 10 a that is separate from the smartphone 10 b functions as the imaging unit 12, and the central control circuit 14 to the timing unit 24 are connected to the smartphone ( (Main body part) 10b of the image pickup apparatus. The central control circuit 14 includes an image processing unit (image processing device) 114 that creates an auxiliary image serving as an assist (guide) for shooting (imaging) in frame advance.

以下においては、操作部16、表示部18、記録部20、通信部22、計時部24は、スマートフォン10bが当然に装備しているものであるため、簡単に説明し、画像処理部(画像処理装置)114について詳細に説明する。また、撮像部12は、レンズ型デジタルカメラに設けられているが、その構成は公知のものと同じであるため、ここでは簡単に説明する。   In the following, the operation unit 16, the display unit 18, the recording unit 20, the communication unit 22, and the time measuring unit 24 are naturally equipped with the smartphone 10b. Device) 114 will be described in detail. The imaging unit 12 is provided in a lens-type digital camera, but since its configuration is the same as a known one, it will be briefly described here.

撮像部12は、撮影レンズやCCD、CMOSセンサなどの撮像素子などを内部に持ち、被写体からの像は撮影レンズを介して撮像素子に結像され、光電変換されデジタル化されて中央制御回路14に出力される。そして、中央制御回路14で色や階調の補正や圧縮処理などの必要な画像処理が施され、たとえば、静止画ではJPEG形式、動画ではH.264形式等の画像ファイルに変換されてフラッシュメモリなどの記録部(メモリ)20に記録される。
計時部(クロック)24は撮影日時を計時し、その日時情報が撮影画像(撮像画像)とともにメモリ20に記録されることにより、撮像画像は順序よく記録され、検索も容易に行える。
The imaging unit 12 includes an imaging element such as a photographing lens, a CCD, and a CMOS sensor, and an image from a subject is formed on the imaging element via the photographing lens, photoelectrically converted, digitized, and the central control circuit 14. Is output. The central control circuit 14 performs necessary image processing such as color and gradation correction and compression processing. For example, the JPEG format is used for still images, and H.264 is used for moving images. It is converted into an image file in the H.264 format and recorded in a recording unit (memory) 20 such as a flash memory.
The timekeeping unit (clock) 24 measures the shooting date and time, and the date and time information is recorded in the memory 20 together with the shot image (captured image), so that the captured image is recorded in order and can be easily searched.

表示部18は画像を表示し、撮影(撮像)に先立って撮影の構図やタイミングを確認するために、撮像部12からの画像信号がライブビュー画像(スルー動画像)として表示される。表示部18には、撮影前のライブビュー画像だけでなく、メモリ20に記録された画像信号も中央制御回路14で再生用に伸長されて表示される。表示部18は液晶ディスプレイ(LCD)などから形成され、スマートフォン10bの上面に設けられる。   The display unit 18 displays an image, and an image signal from the imaging unit 12 is displayed as a live view image (through moving image) in order to confirm the composition and timing of the shooting prior to shooting (imaging). On the display unit 18, not only the live view image before photographing but also the image signal recorded in the memory 20 is expanded and displayed for reproduction by the central control circuit 14. The display unit 18 is formed of a liquid crystal display (LCD) or the like, and is provided on the upper surface of the smartphone 10b.

撮像部12からの撮像画像を画像処理する中央制御回路14は、画像処理部(画像処理装置)114を包含し、たとえばCPU、MPUなどからなる。アニメモードで撮影されたキャラクターの画像は、メモリ20に記録され、中央制御回路14で再生処理されて液晶ディスプレイ(表示部)18に表示されて、撮影された結果が直ちに確認される。   The central control circuit 14 that processes the captured image from the imaging unit 12 includes an image processing unit (image processing apparatus) 114, and includes, for example, a CPU and an MPU. An image of the character photographed in the animation mode is recorded in the memory 20, reproduced by the central control circuit 14, displayed on the liquid crystal display (display unit) 18, and the photographed result is immediately confirmed.

通信部22はUSB接続や無線などによってデータの送受信を行う送受信部などからなり、メモリ20に記録された撮影画像のデータは、通信部を介してTVなどの外部の表示部、別の撮像装置などにスマートフォン10bから出力できる。また、別の撮像装置に記録された撮影画像のデータが通信部22を介してスマートフォン10bに入力できる。   The communication unit 22 includes a transmission / reception unit that transmits and receives data by USB connection, wireless communication, and the like. The captured image data recorded in the memory 20 is transmitted to an external display unit such as a TV or another imaging device via the communication unit. Can be output from the smartphone 10b. Moreover, the data of the picked-up image recorded on another imaging device can be input into the smart phone 10b via the communication part 22. FIG.

画像データ24a、楽曲データ24bなどは、たとえば、外部のデータベース(DB)24に保存されており、通信部22は、インターネット、通信ケーブルなどを介して外部のデータベースに通じている。そのため、外部のデータベース24から画像データ24a、楽曲データ24bなどの情報が通信部22を介してスマートフォン10bにダウンロード(保存)できる。また、楽曲データを組み込んだ撮影画像のデータが、通信部22を介して外部のデータベースにアップロード(保存)される。
もちろん、画像データ24a、楽曲データ24bなどのデータベース24は、撮像装置10に内蔵されていてもよく、この場合にはメモリ20に画像データなどが保存される。
Image data 24a, music data 24b, and the like are stored in, for example, an external database (DB) 24, and the communication unit 22 communicates with an external database via the Internet, a communication cable, or the like. Therefore, information such as image data 24 a and music data 24 b can be downloaded (saved) from the external database 24 to the smartphone 10 b via the communication unit 22. Also, photographed image data incorporating the music data is uploaded (saved) to an external database via the communication unit 22.
Of course, the database 24 such as the image data 24 a and the music data 24 b may be built in the imaging apparatus 10. In this case, the image data and the like are stored in the memory 20.

スマートフォン10bでは、撮影者の指によるタッチ(タップ)操作を認識する層(導電層)が液晶ディスプレイ18の全面に配置され、パワースイッチ、レリーズスイッチ、モードキーなどのスイッチは、たとえば、液晶ディスプレイ上に表示される。もちろん、物理的な専用スイッチを設けてもよい。たとえば、よく使うレリーズスイッチはスマートフォン10bの周面側にも設けるとよい。
操作部16は、液晶ディスプレイ上のアイコンのタッチによるパワースイッチ、レリーズスイッチ、モードキーなどにおける撮影者のスイッチ操作を検出し、その検出結果が中央制御回路14に出力され、中央制御回路で撮影操作が制御される。
In the smartphone 10b, a layer (conductive layer) that recognizes a touch (tap) operation by a photographer's finger is disposed on the entire surface of the liquid crystal display 18, and switches such as a power switch, a release switch, and a mode key are, for example, on the liquid crystal display. Is displayed. Of course, a physical dedicated switch may be provided. For example, a frequently used release switch may be provided on the peripheral surface side of the smartphone 10b.
The operation unit 16 detects a photographer's switch operation by a power switch, a release switch, a mode key, and the like by touching an icon on the liquid crystal display, and the detection result is output to the central control circuit 14, and the central control circuit performs a photographing operation. Is controlled.

画像処理部(画像処理装置)114は、中央制御回路14に包含されて撮像装置10に組み込まれている。
画像処理部114は、位置差判定部114a、時間差設定部114b、補助画像作成部114cを有している。
位置差判定部114aは、共通の移動物、背景を有する複数の画像から、移動物の位置差を比較して判定し、時間差設定部114bは、その複数の画像の時間差(コマ送りの時間差および再生の時間差)を設定している。また後述するように、位置差判定部114aは、対象とする画像から移動物、背景を判別し、判定(決定)することもできる。補助画像作成部114cは、位置差判定部114aで判定された位置差と時間差設定部114bで設定されたコマ送りにおける時間差および再生の時間差とにしたがって、移動物、背景を有する少なくとも1つの補助画像を作成している。ここで、移動物は、被写体としてのキャラクターをいう。
たとえば、補助画像作成部114cは、対象画像から移動物と背景を必要に応じてそれぞれ画像処理してから補助画像を作成している。
An image processing unit (image processing apparatus) 114 is included in the central control circuit 14 and incorporated in the imaging apparatus 10.
The image processing unit 114 includes a position difference determination unit 114a, a time difference setting unit 114b, and an auxiliary image creation unit 114c.
The position difference determination unit 114a makes a determination by comparing the position difference of the moving object from a plurality of images having a common moving object and background, and the time difference setting unit 114b determines a time difference between the plurality of images (time difference of frame advance and time difference). Playback time difference) is set. As will be described later, the position difference determination unit 114a can also determine (determine) the moving object and the background from the target image. The auxiliary image creation unit 114c has at least one auxiliary image having a moving object and a background in accordance with the position difference determined by the position difference determination unit 114a, the time difference in frame advance and the reproduction time difference set by the time difference setting unit 114b. Have created. Here, the moving object refers to a character as a subject.
For example, the auxiliary image creation unit 114c creates an auxiliary image after subjecting the moving object and the background to image processing from the target image as necessary.

画像処理部114は、操作制御部114d、通信制御部114e、画像取り込み部114fをさらに有している。
操作制御部114dは、操作部16で検出されて中央制御回路14に出力された操作結果を制御して、位置差判定部114a、時間差設定部114bに出力する。
通信制御部114eは、通信部22を介して入出力される画像データ、楽曲データなどの通信相手の設定やプロトコルを制御する。
The image processing unit 114 further includes an operation control unit 114d, a communication control unit 114e, and an image capturing unit 114f.
The operation control unit 114d controls the operation result detected by the operation unit 16 and output to the central control circuit 14, and outputs the result to the position difference determination unit 114a and the time difference setting unit 114b.
The communication control unit 114e controls settings and protocols of communication partners such as image data and music data input / output via the communication unit 22.

たとえば、インターネットを介して外部のデータベース24から通信部22を介して入力された楽曲データ24bが通信制御部114eで特定のサービスを行うサーバーなどにアクセス制御して取得され、楽曲データ、時間、音量などを解析した結果が取得される。なお、このような機能を、たとえば、時間差設定部114bが持つことができる。
画像取り込み部114fには、外部のデータベース24から画像データが通信制御部114eで制御されて、取り込まれる。そのため、撮像部12で撮影された画像だけでなく、外部の画像を利用してアニメ動画のもとなる動画のコマが作成できる。
For example, music data 24b input from an external database 24 via the Internet via the communication unit 22 is acquired by controlling access to a server or the like that performs a specific service using the communication control unit 114e. The result of analyzing is obtained. Note that such a function can be provided by the time difference setting unit 114b, for example.
Image data from the external database 24 is captured by the image capturing unit 114f as controlled by the communication control unit 114e. Therefore, not only the image photographed by the imaging unit 12 but also an external image can be used to create a moving image frame that is the basis of the animated movie.

図3(A)〜(D)は本発明による補助画像作成の模式図を示す。
図3においては、撮像装置10は、レンズ型デジタルカメラ10aをスマートフォン10bに組み込んで一体化され、スマートフォンは三脚10cで支持されている。
3A to 3D are schematic views of auxiliary image creation according to the present invention.
In FIG. 3, the imaging device 10 is integrated by incorporating a lens-type digital camera 10a into a smartphone 10b, and the smartphone is supported by a tripod 10c.

図3(A)(B)はキャラクターが始点、終点に置かれた状態をそれぞれ示す。
まず、図3(A)に示すように、被写体であるキャラクターCaが動画の始点(始点位置)に置かれ、たとえば、スマートフォンの周面側のレリーズスイッチを押して始点の画像が撮影(撮像)される。それから、キャラクターCaが始点から終点まで移動される。そして、図3(B)に示すように、キャラクターCaが動画の終点(終点位置)に置かれ、スマートフォンの周面側のレリーズスイッチを押して終点の画像が撮影される。
FIGS. 3A and 3B show a state where the character is placed at the start point and the end point, respectively.
First, as shown in FIG. 3A, the subject character Ca is placed at the start point (start point position) of the moving image, and for example, the release switch on the peripheral surface side of the smartphone is pressed to capture (capture) the start point image. The Then, the character Ca is moved from the start point to the end point. Then, as shown in FIG. 3B, the character Ca is placed at the end point (end point position) of the moving image, and the release switch on the peripheral surface side of the smartphone is pressed to take the end point image.

図3(C)(D)は補助画像作成における画像をそれぞれ示す。
たとえば、撮影された始点の画像Im−s、終点の画像Im−fの画像を撮影して、その位置差(始点、終点間での被写体の位置変化つまり始点、終点間の距離)をDmとする。そして、コマ送りの時間差2秒(=F)および再生の時間差(始点から終点までの時間)6秒(=Tm)で、キャラクターがその位置差Dmを移動すると考える。すると、Tm/F=6/2=3で三分割の細かさでキャラクターが始点、終点間を移動すればよい。
FIGS. 3C and 3D respectively show images in auxiliary image creation.
For example, the images of the captured start point image Im-s and end point image Im-f are taken, and the positional difference (the change in the position of the subject between the start point and the end point, that is, the distance between the start point and the end point) is Dm. To do. Then, it is assumed that the character moves the position difference Dm with a frame advance time difference of 2 seconds (= F) and a reproduction time difference (time from the start point to the end point) of 6 seconds (= Tm). Then, it is only necessary to move the character between the start point and the end point with Tm / F = 6/2 = 3 and finely divided into three parts.

たとえば、図3(C)において、キャラクターがその動く方向で画面の2/3(=Dm)の距離を移動するとすれば、(2/3)/3=2/9から、コマ送りでの間隔ΔDmは画面上で2/9となる。そのため、始点、終点の間でこの分割位置にガイドとなる2つの画像(補助画像)を配置すれば、コマ送りでの間隔がΔDmで、位置差がDmのシーン(シーン1)が得られる。   For example, in FIG. 3C, if the character moves a distance of 2/3 (= Dm) on the screen in the moving direction, the interval for frame advance from (2/3) / 3 = 2/9. ΔDm is 2/9 on the screen. Therefore, if two images (auxiliary images) serving as guides are arranged between the start point and the end point at this division position, a scene (scene 1) having a frame advance interval of ΔDm and a position difference of Dm is obtained.

始点、終点でキャラクターを撮影する代わりに、図3(D)に示すように、始点を含む2つの位置でキャラクターを撮影すれば、キャラクターの動く方向でその動きをガイドする画像を予測してシーンが作成できる。背景設定を容易にするために、2画像が重複しないように撮影するとよい。ガイドする画像(補助画像)は無限に作成可能であるため、終点の画像の位置が、時間差(コマ送りの時間差および再生の時間差)から決められる。   Instead of shooting a character at the start and end points, as shown in FIG. 3D, if a character is shot at two positions including the start point, an image that guides the movement in the direction of the character's movement is predicted and the scene is predicted. Can be created. In order to facilitate background setting, it is preferable to shoot so that two images do not overlap. Since the image to be guided (auxiliary image) can be created infinitely, the position of the image at the end point is determined from the time difference (the frame advance time difference and the reproduction time difference).

たとえば、図3(D)において、図3(C)と同様に、撮影された始点と次の位置の画像の間隔(コマ送りでの間隔)をΔDm、始点の画像と終点の画像との位置差(始点、終点の画像の位置変化)をDm、コマ送りの時間差(1コマに要する時間)が2秒で再生の時間(動画(シーン)の再生時間)6秒をかけて移動すると仮定する。すると、始点の次の位置から終点位置までの間に2つの画像(終点位置の画像を含む)が予測され、始点と次の位置の画像の間隔ΔDmがキャラクターの動く方向で画面の2/9であれば、位置差Dmは画面の2/3となる。   For example, in FIG. 3 (D), as in FIG. 3 (C), the distance between the captured start point and the next position image (interval in frame advance) is ΔDm, and the position between the start point image and the end point image. It is assumed that the difference (position change of the image at the start point and end point) is Dm, the time difference of frame advance (time required for one frame) is 2 seconds, and the playback time (video (scene) playback time) takes 6 seconds. . Then, two images (including the image at the end point position) are predicted between the position after the start point and the end point position, and the distance ΔDm between the image at the start point and the next position is 2/9 on the screen in the direction in which the character moves. If so, the position difference Dm is 2/3 of the screen.

このように、アニメ動画作成のためのガイドとして、始点、終点でのキャラクターを撮影してその画像の間を補間する図3(C)に示す補間ガイドと、最初の2つ位置でのキャラクターを撮影して終点までの画像を予測する図3(D)に示す予測ガイドとが考えられる。そして、複数の画像の位置差を判定し、コマ送りの時間差および再生の時間差を設定すれば、補助画像として、補間ガイドでは補間画像、予測ガイドでは予測画像がそれぞれ作成される。たとえば、図3(C)(D)の実施例では、位置差はDm(画面の2/3)、コマ送りの時間差はF(2秒)、再生の時間差はTm(6秒)で、1シーン(1動画)が判定、設定される。   In this manner, as a guide for creating animation animation, an interpolation guide shown in FIG. 3 (C) for capturing characters at the start and end points and interpolating between the images, and characters at the first two positions are used. A prediction guide shown in FIG. 3 (D) that captures an image up to the end point can be considered. Then, by determining the position difference between a plurality of images and setting the frame advance time difference and the reproduction time difference, an interpolation image is created in the interpolation guide and a prediction image is created in the prediction guide, respectively. For example, in the embodiment of FIGS. 3C and 3D, the position difference is Dm (2/3 of the screen), the frame advance time difference is F (2 seconds), and the playback time difference is Tm (6 seconds). A scene (one moving image) is determined and set.

図示しないが、シーン1に続くシーン2・・・・が同様の方法で順次作成される。そして、たとえば、補助画像(補間画像、予測画像)の位置にキャラクターを置いて撮影したり、補助画像に撮影済みの画像を拡大・縮小して重ねたりして、シーン1、2・・・・の画像(動画)が順次作成される。
補助画像(補間画像、予測画像)が作成されて動画撮影の素材となるため、コマ撮りにおける画像を事前に手軽に知ることができ、アニメ動画のもととなる動画(シーン1、2・・・・の画像)が手軽に作成できる。
Although not shown, the scenes 2... Following the scene 1 are sequentially created by the same method. Then, for example, a character is placed at the position of the auxiliary image (interpolated image, predicted image), or the captured image is enlarged and reduced and superimposed on the auxiliary image. Images (moving images) are sequentially created.
Auxiliary images (interpolated images, predicted images) are created and used as the material for video shooting, so you can easily know in advance the images in time-lapse shooting, and the video that is the basis of the animation video (scenes 1, 2,.・ ・) Can be created easily.

なお、以下においては補間ガイドにおける操作を主として説明する。
図4(A)〜(C)はスマートフォンの画面をそれぞれ示す。
撮像部(レンズ型デジタルカメラ)10aと無線接続(図2)されたスマートフォン10bのアプリケーションの初期画面は、たとえば、図4(A)の画面とされる。
まず、図4(A)の画面で「外部カメラ」をタッチすると、図4(B)の画面がスマートフォン10bに表示され、「カメラ」が選択される。そして、たとえば、補間ガイドでは始点、終点の画像、予測ガイドでは始点と次の画像が、事前にそれぞれ撮影される。
In the following, operations in the interpolation guide will be mainly described.
4A to 4C show smartphone screens, respectively.
The initial screen of the application of the smartphone 10b wirelessly connected to the imaging unit (lens type digital camera) 10a (FIG. 2) is, for example, the screen of FIG.
First, when “external camera” is touched on the screen of FIG. 4A, the screen of FIG. 4B is displayed on the smartphone 10b, and “camera” is selected. Then, for example, the start and end images are taken in advance in the interpolation guide, and the start and next images are taken in advance in the prediction guide.

もちろん、実施例において、レンズ型デジタルカメラ10aでなくスマートフォン内蔵のカメラを使ってもよい。しかし、カメラと被写体との関係を一定に保って固定するには、スマートフォン内蔵のカメラとは別のカメラ(外部カメラ、レンズ型デジタルカメラ)の方が、スマートフォンで操作がしやすい。また、外部カメラであれば、マクロ撮影用、望遠撮影用などの専用の光学系を選ぶことが可能で、応用範囲が広がるメリットがある。   Of course, in the embodiment, a camera with a built-in smartphone may be used instead of the lens-type digital camera 10a. However, in order to keep the relationship between the camera and the subject constant, a camera (external camera, lens type digital camera) other than the camera built in the smartphone is easier to operate with the smartphone. Also, with an external camera, it is possible to select a dedicated optical system for macro photography, telephoto photography, etc., and there is an advantage that the application range is expanded.

それから、図4(B)の画面に戻って、「アニメモード」をタッチすると、図4(C)に示すアニメモードのメニューが表示される。図4(C)には、「位置差」「時間差」「なめらかさ」「ガイド」という4つのメニューが表示されている。   Then, returning to the screen of FIG. 4B and touching “animation mode”, an animation mode menu shown in FIG. 4C is displayed. In FIG. 4C, four menus “position difference”, “time difference”, “smoothness”, and “guide” are displayed.

図5は図4(C)の画面で「なめらかさ」を選択したときのスマートフォンの画面を示す。
実施例では、動画表現であるキャラクターの動きの「なめらかさ」として「なめらか」「ふつう」「ぱらぱら」が設定されている。「なめらかさ」はコマ数に対応し、コマ数が少なければキャラクターの動きは「ぱらぱら」、つまり、なめらかでない(ぱらぱら感のある)コマ撮りの動きとなり、コマ数が多ければ「なめらか」となり、「ふつう」はそれらの中間の動きをする。たとえば、「ぱらぱら感」を表現したければ、「なめらかさ」として「ぱらぱら」が設定される。
FIG. 5 shows a smartphone screen when “smoothness” is selected on the screen of FIG.
In the embodiment, “smooth”, “normal”, and “parala” are set as the “smoothness” of the movement of the character, which is a moving image expression. “Smoothness” corresponds to the number of frames, and if the number of frames is small, the movement of the character is “ParaPara”, that is, it is a smooth (patter-like) frame-taking movement, and if the number of frames is large, it becomes “Smooth”. “Normal” moves between them. For example, if the user wants to express “feeling of happiness”, “smoothness” is set to “smoothness”.

「なめらかさ」の設定のために、画像処理装置(画像処理部)114は「なめらかさ設定部」を有してもよい。しかし、位置差判定部114a、時間設定部114bのいずれかで「なめらか」「ふつう」「ぱらぱら」といった「なめらかさ」を設定可能として「なめらかさ設定部」を兼ねる構成としてもよい。
また、楽曲データのリズム、テンポ、音量などを解析し、その解析結果から「なめらかさ」を自動的に設定する構成としてもよい。
In order to set “smoothness”, the image processing apparatus (image processing unit) 114 may include a “smoothness setting unit”. However, the position difference determination unit 114a and the time setting unit 114b may be configured to be able to set “smoothness” such as “smooth”, “normal”, and “parala” and also to function as a “smoothness setting unit”.
Alternatively, the rhythm, tempo, volume, and the like of the music data may be analyzed, and “smoothness” may be automatically set from the analysis result.

「なめらかさ」を設定すれば、一層なめらかな動きの動画(シーン1、2・・・・の画像)が得られるとはいえ、「なめらかさ」の設定は必須でなく、その設定を省略してもよい。
ユーザ(撮影者)の好みが一定のなめらかさである場合や、動画のなめらかさを音楽に自動的に合わせる場合は、ユーザによる「なめらかさ」の設定が省略できる。そして、「なめらかさ」の設定を省略すれば、設定の手順が少なくなり、ユーザの負担が軽減される。
If you set “Smoothness”, you can get a smoother motion video (images of scenes 1, 2,...), But the “Smoothness” setting is not essential and you can skip that setting. May be.
When the preference of the user (photographer) is constant smoothness, or when the smoothness of a moving image is automatically adjusted to music, the “smoothness” setting by the user can be omitted. If the “smoothness” setting is omitted, the setting procedure is reduced and the burden on the user is reduced.

図5の画面で「なめらか」「ふつう」「ぱらぱら」のいずれかをタッチし、「なめらかさ」を設定してから「戻る」をタッチすると、設定した「なめらかさ」を保存して図4(C)の画面に切り換えられる。   Touch any of “Smooth”, “Normal” or “Parapara” on the screen of FIG. 5, set “Smoothness”, and then touch “Return” to save the set “Smoothness” and save FIG. C) screen is displayed.

図6(A)〜(D)は図4(C)の画面で「時間差」を選択したときのスマートフォンの画面を示す。図6(C)(D)において、横軸はコマ送りの時間差、縦軸は始点から終点に向かう距離を示す。   6A to 6D show smartphone screens when “time difference” is selected on the screen of FIG. 4C. 6 (C) and 6 (D), the horizontal axis indicates the frame feed time difference, and the vertical axis indicates the distance from the start point to the end point.

「なめらかさ」を保存して切り換えられた図4(C)の画面で「時間差」をタッチして選択すると、図6(A)に示す「時間差」の初期画面が表示され、この初期画面では「時間差」「楽曲指定」の2つのメニューが表示されている。そして、「時間差」をタッチして選択すると、図6(B)に示す画面が表示される。ここではコマ送りの時間差(1コマに要する時間)として2秒が初期設定されている。しかし、上向きの三角マーク(△)、下向きの三角マーク(▽)をタッチすれば、たとえば0.5秒刻みに時間差が増減して、時間差を変更できる。図6(B)の画面で「パターン入力」をタッチすると、図6(C)に示すキャラクターの動きのパターンの画面が表示される。   When “Time difference” is touched and selected on the screen shown in FIG. 4C where the “smoothness” is saved and switched, the initial screen of “Time difference” shown in FIG. 6A is displayed. Two menus of “time difference” and “specify music” are displayed. When “time difference” is selected by touching, a screen shown in FIG. 6B is displayed. Here, 2 seconds is initially set as the time difference between frames (time required for one frame). However, if the upward triangle mark (Δ) or the downward triangle mark (▽) is touched, the time difference can be increased or decreased in 0.5 second increments, for example. When “Pattern input” is touched on the screen of FIG. 6B, a character movement pattern screen shown in FIG. 6C is displayed.

図6(C)の画面ではキャラクターの動きのパターンは、たとえば、始点から終点に向かってキャラクターが一定に変化する直線に初期設定され、キャラクターは同じ動きで(強弱のアクセントのない動きで)移動している。
しかし、たとえば、図6(C)でパターンの直線の一部を指でタッチしたまま、画面上で指をスライドさせれば、その箇所でパターンを変えることができる。たとえば、パターンの直線の一部を指でタッチしたまま、図6(D)の矢印のように、指を下向きにスライドさせると、タッチされたパターンの直線の箇所が指のスライドに合わせて下方に湾曲される。そして、その箇所でキャラクターの動きが部分的に遅くなり、図6(D)に示すような強弱のアクセントのある動きのパターンが設定される。
なお、このような操作を応用すれば、動きの速さ、スピードのみならず、キャラクターの位置を左右にずらせたりすることも可能となる。
In the screen of FIG. 6 (C), for example, the character movement pattern is initially set to a straight line where the character changes constantly from the start point to the end point, and the character moves with the same movement (with no strong or weak accent). doing.
However, for example, if the finger is slid on the screen while part of the straight line of the pattern is touched with the finger in FIG. 6C, the pattern can be changed at that point. For example, if the finger is slid downward as shown by the arrow in FIG. 6D while touching a part of the straight line of the pattern with the finger, the straight part of the touched pattern is lowered along with the finger slide. To be curved. Then, the character's movement partially slows down at that point, and a movement pattern with strong and weak accents as shown in FIG. 6D is set.
If such an operation is applied, not only the speed and speed of movement, but also the position of the character can be shifted left and right.

また、楽曲データのリズム、テンポからキャラクターの動きのパターンを自動的に変更する構成としてもよい。たとえば、楽曲データのリズム、テンポの遅速、強弱に対応してキャラクターを早く動かしたり、遅く動かすことができる。
これは、楽曲を判定し、音の強弱の変化や周波数の時間変化をモニタして、繰り返しの特徴やパターンの形状などを検出する機能を、時間差設定部114bが有していれば簡単に実現できる。このような繰り返しは、強弱の変化の時間が何度も現れてほぼ同じ時間であれば容易に判定できる。リズムはだんだん速くなったり、だんだん遅くなったりする場合もあるため、リズムの変化の規則を判定し、リズムを正確に判定すればなおよい。以下、代表例で説明する。
Alternatively, the character movement pattern may be automatically changed based on the rhythm and tempo of the music data. For example, the character can be moved quickly or slowly according to the rhythm, tempo slowness, and strength of the music data.
This is easily realized if the time difference setting unit 114b has a function of determining a music piece, monitoring a change in sound intensity and a time change in frequency, and detecting a repetitive feature, a pattern shape, and the like. it can. Such repetition can be easily determined if the time of strength change appears many times and is approximately the same time. Since the rhythm may become faster or slower, it is better to determine the rhythm change rule and accurately determine the rhythm. Hereinafter, a representative example will be described.

たとえば、図6(B)で「戻る」をタッチすると図6(A)の画面に戻る。また、図6(C)(D)で「戻る」をタッチするとその動きのパターンが保存されて図6(A)の画面にそれぞれ戻る。   For example, touching “Return” in FIG. 6B returns to the screen in FIG. Further, when “Return” is touched in FIGS. 6C and 6D, the movement pattern is saved and the screen returns to the screen of FIG.

図7(A)〜(C)は図6(A)の画面で「楽曲指定」を選択したときのスマートフォンの画面を示す。「楽曲」は複数のフレーズ(旋律の一区切り、楽句)に自動点に分断され、楽曲の初めから順にフレーズ1、2・・・・・とされる。「楽曲指定」では、それぞれのシーンの位置差(コマ送りでの位置変化、始点、終点の画像の位置変化、1シーンにおける移動距離)において流される楽曲、いいかえれば、キャラクターが始点から終点に至る区間に流れる楽曲(区間楽曲)が、シーンごとに楽曲のフレーズを選択して設定される。   FIGS. 7A to 7C show smartphone screens when “music selection” is selected on the screen of FIG. The “music” is divided into a plurality of phrases (one melody break, musical phrase) at automatic points, and the phrases 1, 2,. In “music specification”, music played in the position difference of each scene (position change by frame advance, position change of start and end images, movement distance in one scene), in other words, the character reaches from the start point to the end point. The music flowing in the section (section music) is set by selecting the phrase of the music for each scene.

図6(A)で「楽曲指定」をタッチして選択すると、図7(A)に示す「楽曲指定」の初期画面がスマートフォンに表示される。
図7(A)の初期画面では、メモリ20や外部のデータベース24に保存された「楽曲1」「楽曲2」の2つの楽曲データが表示されている。下向きの三角マーク(▽)をタッチすれば「楽曲3」以降が繰り上がって表示され、上向きの三角マーク(△)をタッチすれば楽曲番号の若い「楽曲」が表示される。
たとえば、「楽曲1」をタッチすると、図7(B)に示すように、横軸を楽曲の時間、縦軸を楽曲の音量とした楽曲1のフレーズ1の波形(音量)が表示される。
When “music designation” is selected by touching in FIG. 6A, an initial screen of “music designation” shown in FIG. 7A is displayed on the smartphone.
In the initial screen of FIG. 7A, two music data “music 1” and “music 2” stored in the memory 20 and the external database 24 are displayed. If the downward triangle mark (▽) is touched, “Song 3” and the subsequent parts are displayed, and if the upward triangle mark (Δ) is touched, “Song” having a young song number is displayed.
For example, when “music 1” is touched, the waveform (volume) of phrase 1 of music 1 is displayed with the horizontal axis representing the music time and the vertical axis representing the music volume, as shown in FIG. 7B.

図7(B)において、フレーズ1の波形上で画面をタッチして始点、終点を決めると、フレーズ1のどの部分を始点から終点に至る区間で流す楽曲(区間楽曲)が選択され、指定される。ここで、フレーズ1の波形上で画面をタッチして始点、終点を決めると、始点から終点までに要する時間差(再生の時間差つまり1シーンに要する時間)が対応して確定し、設定される。このように、「楽曲指定」で再生の時間差が設定される。   In FIG. 7B, when the start point and the end point are determined by touching the screen on the waveform of phrase 1, the music (section music) to be played in the section from the start point to the end point is selected and specified. The Here, when the start point and end point are determined by touching the screen on the waveform of phrase 1, the time difference required from the start point to the end point (reproduction time difference, that is, the time required for one scene) is determined and set correspondingly. In this way, the reproduction time difference is set by “music specification”.

区間楽曲を設定してから、「試聴」をタッチすると、フレーズ1の選択、設定された部分の区間楽曲が流れる。設定された区間楽曲が気に入らなければ、始点、終点の位置を変えて選択される区間楽曲が変更される。たとえば、フレーズ1の波形上で始点、終点をタッチして画面上で左右にスライドさせれば、フレーズ1から採用される区間楽曲が変更される。
なお、始点、終点の位置を変えれば、それに伴って再生の時間差(1シーンに要する時間)も変更される。
Touching “trial” after setting the segment music will select the phrase 1 and the segment music of the set part will flow. If the set section music is not liked, the section music selected by changing the positions of the start point and end point is changed. For example, if the start point and end point of the phrase 1 waveform are touched and slid left and right on the screen, the segment music adopted from the phrase 1 is changed.
If the positions of the start point and end point are changed, the reproduction time difference (time required for one scene) is also changed accordingly.

図7(B)のフレーズ1に気に入った楽曲(区間楽曲)がなければ、図7(B)で右向きの三角マークをタッチして次のフレーズ(フレーズ2)の画面に切り換える(図7(C))。図7(B)におけるフレーズ1の区間楽曲の指定と同じ動作を図7(C)においても繰り返してフレーズ2から区間楽曲を指定する。   If there is no favorite music (section music) in phrase 1 in FIG. 7B, touch the triangle pointing to the right in FIG. 7B to switch to the next phrase (phrase 2) screen (FIG. 7C )). The same operation as the designation of the section music of phrase 1 in FIG. 7B is repeated also in FIG. 7C to designate the section music from phrase 2.

フレーズ2に気に入った区間楽曲がなければ、図7(B)で右向きの三角マークをタッチするとフレーズ2からフレーズ3の画面に切り換えられ、フレーズ3の波形上で画面をタッチして始点、終点を決めて、フレーズ3から区間楽曲が選択、指定される。図7(C)で左向きの三角マークをタッチするとフレーズ2からフレーズ1に戻され、フレーズ1からの区間楽曲の選択、指定が再度検討される。このようにして、始点から終点に至る区間で流す区間楽曲がフレーズから選択される。
なお、図7(B)(C)で「OK」をタッチすると画面の設定が保存され、「戻る」をタッチする図7(A)の初期画面に戻る。
If there is no favorite song in phrase 2, touch the triangle pointing to the right in Fig. 7 (B) to switch from phrase 2 to phrase 3, and touch the screen on the phrase 3 waveform to set the start and end points. Decide and select the segment music from phrase 3. When the left triangle mark in FIG. 7C is touched, the phrase 2 is returned to the phrase 1, and the selection and designation of the segment music from the phrase 1 are examined again. In this way, the section music played in the section from the start point to the end point is selected from the phrase.
Note that when “OK” is touched in FIGS. 7B and 7C, the screen settings are saved, and the screen returns to the initial screen in FIG. 7A where “Return” is touched.

ある楽曲のフレーズから区間楽曲をとりあえず設定してから、別のフレーズ、別の楽曲のフレーズからの区間楽曲の設定を繰り返して、より好みの区間楽曲を設定して置き換える(上書きする)構成としてもよい。つまり、最終的に「OK」のタッチされた画面の区間楽曲が、区間楽曲として確定し、設定される構成としてもよい。   It is possible to set the section music from the phrase of a certain song for the time being, then repeat the setting of the section music from another phrase and the phrase of another music to set and replace (overwrite) the favorite section music. Good. That is, the section music on the screen where “OK” is finally touched may be determined and set as the section music.

図8(A)(B)は図4(C)の画面で「位置差」を選択したときのスマートフォンの画面を示す。
図4(C)で「位置差」をタッチして選択すると、たとえば、補間ガイドにおける始点、終点の画像が図8(A)に示すようにスマートフォン10bに表示される。たとえば、補間ガイドでのシーン1の始点でのキャラクターの撮影画像(撮像画像)が画面の上半部に表示されるとともに、終点での画像がライブビュー画像として画面に下半部に表示される。
FIGS. 8A and 8B show smartphone screens when “positional difference” is selected on the screen of FIG.
When “positional difference” is touched and selected in FIG. 4C, for example, images of the start point and end point in the interpolation guide are displayed on the smartphone 10b as shown in FIG. 8A. For example, a captured image (captured image) of the character at the start point of scene 1 in the interpolation guide is displayed in the upper half of the screen, and an image at the end point is displayed as a live view image in the lower half of the screen. .

ユーザ(撮影者)は、キャラクターを動かして始点位置との関係から好ましい位置にキャラクターを置いて終点位置を決める。また、始点のキャラクターの位置は仮に定めた位置であり、好ましくないと思えばキャラクターを動かして始点位置を変え、好ましいと思われる始点位置にキャラクターを置いて検討する。   The user (photographer) moves the character and places the character at a preferred position from the relationship with the start point position to determine the end point position. In addition, the position of the character at the starting point is a predetermined position. If it is not preferable, the character is moved to change the starting point position, and the character is placed at the starting point position considered to be preferable.

始点、終点の位置を種々検討し、始点、終点が最終的に決まれば、始点、終点でキャラクターを撮影して始点、終点における画像を確定する。それから、たとえば、背景を基準にして2つの画像を重ねることによって、位置差(1シーンにおける移動距離、図3(C)のDm)が位置差判定部114aで読み取られ(計算され)、たとえば、画面上で2/3が判定(指定)される。   Various positions of the start point and end point are examined, and when the start point and end point are finally determined, a character is photographed at the start point and end point, and images at the start point and end point are determined. Then, for example, by superimposing two images on the basis of the background, the position difference (movement distance in one scene, Dm in FIG. 3C) is read (calculated) by the position difference determination unit 114a. 2/3 is judged (designated) on the screen.

楽曲1からフレーズ1が選択されていれば、補間ガイドにおけるシーン1の画面は図8(B)となり、図7で指定した区間楽曲が流れて、確認される。
図8(A)(B)で「戻る」をタッチすれば、位置差を保存して図4(C)の画面に切り換わる。
If phrase 1 is selected from music 1, the screen of scene 1 in the interpolation guide is shown in FIG. 8B, and the section music specified in FIG. 7 flows and is confirmed.
Touching “RETURN” in FIGS. 8A and 8B saves the positional difference and switches to the screen of FIG. 4C.

予測ガイドにおいても、補間ガイドと同様の方法で、始点の画像、次の位置の画像が撮影され、位置差が判定される。
すなわち、予測ガイドでは、シーン1の始点でのキャラクターの撮影画像が図8(A)の画面の上半部に表示されるとともに、始点の次の画像がライブビュー画像として画面の下半部に表示される。撮影者はキャラクターを動かして始点との関係から好ましい位置にキャラクターを置いて次の位置を決める。また、始点のキャラクターの位置は仮に定めた位置であり、好ましくないと感じればキャラクターを動かして始点の位置を変える。
始点、次の位置を種々検討し、始点、次の位置が最終的に決まれば、始点、次の位置でキャラクターを撮影して、始点、次の位置における画像を確定する。
Also in the prediction guide, the image of the start point and the image of the next position are photographed in the same manner as the interpolation guide, and the position difference is determined.
That is, in the prediction guide, the captured image of the character at the start point of scene 1 is displayed in the upper half of the screen of FIG. 8A, and the next image of the start point is displayed as a live view image in the lower half of the screen. Is displayed. The photographer moves the character and places the character at a preferred position based on the relationship with the starting point, and determines the next position. Also, the position of the starting point character is a tentatively determined position, and if it is not desirable, the character is moved to change the starting point position.
The starting point and the next position are examined in various ways. When the starting point and the next position are finally determined, the character is photographed at the starting point and the next position, and the images at the starting point and the next position are determined.

予測ガイドでは、キャラクターの終点の位置は未定であり、位置差(1シーンにおける移動距離、図3(D)のDm)は確定していない。
しかし、図6の「時間差」の設定で時間差が2秒に、図7の「楽曲指定」での区間楽曲の指定によって、区間楽曲の時間つまり再生時間が設定されている。たとえば、再生時間が6秒であれば、次の位置の画像から終点の画像まで2つの画像(終点位置の画像を含む)が予測される。そのため、位置差は、始点、次の画像の位置変化(図3(D)のΔDm)の3倍となり、位置差(Dm=ΔDmX3)が確定し、判定(指定)される。また、位置差の判定に伴って、終点の画像の位置が指定される。
In the prediction guide, the position of the end point of the character is undecided, and the position difference (movement distance in one scene, Dm in FIG. 3D) is not fixed.
However, the time difference is set to 2 seconds with the setting of “time difference” in FIG. 6, and the section music time, that is, the playback time is set by specifying the section music with “music specification” in FIG. 7. For example, if the reproduction time is 6 seconds, two images (including the image at the end point) are predicted from the image at the next position to the image at the end point. Therefore, the position difference is three times the start point and the position change of the next image (ΔDm in FIG. 3D), and the position difference (Dm = ΔDmX3) is determined and determined (designated). Further, the position of the end point image is designated along with the determination of the position difference.

そして、図8(A)で「シーン1」をタッチすれば、楽曲データ1のフレーズ1が組み込まれたシーン1の画面が図8(B)に表示されて、図7で指定した区間楽曲が流れて、確認される。   Then, if “scene 1” is touched in FIG. 8A, the screen of scene 1 in which phrase 1 of music data 1 is incorporated is displayed in FIG. 8B, and the section music specified in FIG. Flows and is confirmed.

図9(A)〜(D)は図4(C)の画面で「ガイド」を選択したときのスマートフォンの画面を示す。
図4(C)で「ガイド」をタッチして選択すると、図9(A)に示す画面が表示される。図9(A)で「補間」をタッチすると、図9(B)に示す補間ガイドの画面が表示される。
FIGS. 9A to 9D show smartphone screens when “Guide” is selected on the screen of FIG. 4C.
When “Guide” is selected by touching in FIG. 4C, the screen shown in FIG. 9A is displayed. When “Interpolation” is touched in FIG. 9A, an interpolation guide screen shown in FIG. 9B is displayed.

図9(B)には、図7で設定した画面、「シーン1」と「シーン1」で設定されたフレーズが表示される。たとえば、「シーン1」の区間楽曲として「フレーズ1」が設定されていれば、つまり、図7(B)の画面が設定されていれば、「シーン1」「フレーズ1」が表示される。また、図7(B)の画面でなく、「シーン1」の区間楽曲として「フレーズ2」が設定されていれば、つまり、図7(C)の画面のように設定されていれば、「シーン1」、「フレーズ2」が表示される。   In FIG. 9B, the screen set in FIG. 7, the phrases set in “Scene 1” and “Scene 1” are displayed. For example, if “phrase 1” is set as the section music of “scene 1”, that is, if the screen of FIG. 7B is set, “scene 1” and “phrase 1” are displayed. If “Phrase 2” is set as the section music of “Scene 1” instead of the screen of FIG. 7B, that is, if it is set as shown in the screen of FIG. “Scene 1” and “Phrase 2” are displayed.

図9(B)の「シーン1」、「フレーズ1」の表示画面で「OK」をタッチすれば、図9(C)に切り換わり、図7(B)で設定した区間楽曲、再生の時間差、図8で判定した位置差の画像が、図9(C)に表示される。また、図5で「なめらかさ」を選択して、たとえば、「なめらかさ」として「ぱらぱら」が選択されていれば、「ぱらぱら」も図9(C)に表示される。図9(C)で、位置差、時間差、区間楽曲、なめらかさなどが確認される。   If “OK” is touched on the display screen of “Scene 1” and “Phrase 1” in FIG. 9B, the screen changes to FIG. 9C, and the section music set in FIG. The image of the positional difference determined in FIG. 8 is displayed in FIG. In addition, if “smoothness” is selected in FIG. 5 and “smoothness” is selected as “smoothness”, for example, “smoothness” is also displayed in FIG. 9C. In FIG. 9C, a positional difference, a time difference, a piece of music, smoothness, etc. are confirmed.

図9(C)で「OK」をタッチすれば、図9(D)に切り換わる。
図9(D)では、図8で判定された位置差のもとで、始点、終点間を三分割した2つのガイドの画像(補間画像)を経て、始点から終点に至る補間ガイドにおけるキャラクターの画像が、楽曲1のフレーズ1の区間楽曲で「ぱらぱら」のなめらかさのもとでシーン1として模擬表示(シミュレーション)される。
図9(D)において、フレーズの波形上の4つの丸は、始点、終点の画像およびそれらの間の2つの補間画像を示す。
If “OK” is touched in FIG. 9C, the screen changes to FIG. 9D.
In FIG. 9D, the character of the interpolation guide from the start point to the end point passes through two guide images (interpolated images) obtained by dividing the start point and end point into three parts based on the position difference determined in FIG. The image is simulated and displayed as a scene 1 under the smoothness of “ParaPara” in the section 1 of the phrase 1 of the song 1.
In FIG. 9D, four circles on the phrase waveform indicate the start point, end point images, and two interpolated images between them.

シミュレーションされたキャラクターの画像でよければ、図9(D)で「採用」がタッチされて、シーン1を保存してから図9(B)に戻る。よくなければ、「戻る」をタッチして、図9(C)に戻る。それから、たとえば、図4(C)に戻って、「位置差」などの設定をやり直す。   If the image of the simulated character is acceptable, “Adopt” is touched in FIG. 9D, the scene 1 is saved, and the process returns to FIG. 9B. If not, touch “Return” to return to FIG. Then, for example, returning to FIG. 4C, settings such as “positional difference” are performed again.

なお、シミュレーションされたキャラクターの画像でよければ、図9(D)の「採用」をタッチする前に、シミュレーションにおける始点、終点の間の補助画像(補間画像)の位置にキャラクターを配置し、たとえば、スマートフォンの周面側のレリーズスイッチを押してキャラクターを撮影する。また、始点、終点の画像(撮影画像)を拡大・縮小し、補間画像に重ねて補間画像をコマ化してもよい。   If the simulated character image is acceptable, the character is placed at the position of the auxiliary image (interpolated image) between the start point and end point in the simulation before touching “Adopt” in FIG. , Press the release switch on the peripheral side of the smartphone to shoot the character. Alternatively, the start point and end point images (captured images) may be enlarged or reduced, and the interpolated image may be framed by overlapping the interpolated image.

図9(D)で「採用」をタッチしてシーン1を決定し、保存してから「戻る」をタッチすれば、図9(D)から図9(B)に戻る。
図9(B)で「シーン1」をタッチすると「シーン2」が図9(B)に表示されるとともに、「シーン2」で指定されたフレーズ、たとえば、フレーズ2が表示される。
In FIG. 9D, touch “recruit” to determine the scene 1, save it, and touch “return” to return from FIG. 9D to FIG. 9B.
When “Scene 1” is touched in FIG. 9B, “Scene 2” is displayed in FIG. 9B, and the phrase designated by “Scene 2”, for example, phrase 2 is displayed.

「シーン2」「フレーズ2」が表示された図9(B)の画面で「OK」をタッチし、切り換わった図9(C)の画面でも「OK」をタッチすると、図9(D)に画面に切り換わる。そして、シーン1と同様に、シーン2が図9(D)の画面でシミュレーションされて、その採否が判断される。シミュレーションの画像でよければ、補間画像を撮影してから、または、補間画像をコマ化してから、「採用」をタッチしてシーン2を決定、保存する。シミュレーションの画像でよくなければ、「戻る」をタッチして「位置差」などの設定をやり直す。
同様に、シーン3以降も判断されて、シーン1・・・・の画像(動画)が順次作成される。
When “OK” is touched on the screen of FIG. 9B on which “Scene 2” and “Phrase 2” are displayed, and “OK” is touched on the screen of FIG. 9C that has been switched, FIG. 9D is displayed. The screen switches to. Then, as in the case of the scene 1, the scene 2 is simulated on the screen of FIG. If the simulation image is acceptable, after the interpolated image is photographed or the interpolated image is framed, “Adopt” is touched to determine and save the scene 2. If the simulation image is not satisfactory, touch “Return” and redo settings such as “Position Difference”.
Similarly, scene 3 and subsequent scenes are also determined, and images (moving images) of scenes 1.

コマ送りにおける撮影を補助する補助画像を作成しているため、コマ送りにおける画像効果を手軽に確認できる。また、アニメ動画のもととなる画像が手軽に作成でき、さらに、楽曲のフレーズ付のシーンが容易に作成できる。   Since an auxiliary image for assisting shooting in frame advance is created, the image effect in frame advance can be easily confirmed. In addition, it is possible to easily create an image that is the basis of an animated movie, and it is also possible to easily create a scene with a song phrase.

なお、スマートフォン10bに内蔵されている楽曲データを利用してもよいとはいえ、ネットワークを利用して外部から楽曲データを取り込めば、多種、多様な楽曲データが利用でき、バラエティに富んだ区間楽曲が選択、設定できる。   In addition, although the music data built in the smartphone 10b may be used, if music data is imported from outside using a network, a variety of music data can be used. Can be selected and set.

図10は図9(A)の画面で「予測」を選択したときのスマートフォンの画面を示す。
図9(A)の画面で「予測」をタッチして選択すると、図10(A)に示す「予測」の画面が表示される。
FIG. 10 shows a smartphone screen when “prediction” is selected on the screen of FIG.
When “prediction” is touched and selected on the screen of FIG. 9A, a “prediction” screen shown in FIG. 10A is displayed.

「シーン1」と図7において「シーン1」で設定されたフレーズとが図10(A)に表示され、「シーン1」で「フレーズ1」から区間楽曲が設定されていれば、図10(A)には「シーン1」、「フレーズ1」が表示される。「シーン1」、「フレーズ1」でよければ、「OK」をタッチする。すると、図10(B)に切り換わる。予測ガイドにおいては、補間ガイドにおける始点、終点の画像に代わって、始点と次の画像を画面上部の左右にそれぞれ表示した画面が、シーン1、フレーズ1の画面として図10(B)に表示される。   If “scene 1” and the phrase set in “scene 1” in FIG. 7 are displayed in FIG. 10 (A), and if segment music is set from “phrase 1” in “scene 1”, FIG. “Scene 1” and “Phrase 1” are displayed in A). If “scene 1” or “phrase 1” is acceptable, touch “OK”. Then, the screen is switched to FIG. In the prediction guide, instead of the images at the start and end points in the interpolation guide, a screen displaying the start point and the next image on the left and right at the top of the screen is displayed as the scene 1 and phrase 1 screen in FIG. The

また、図7(B)で設定した区間楽曲、再生の時間差、図8で判定した位置差の画像が、図10(B)に表示される。また、図5で選択された「なめらかさ」、たとえば、「ぱらぱら」も図10(B)に表示される。図10(B)で、位置差、時間差、区間楽曲、なめらかさなどが確認される。   Also, images of the section music set in FIG. 7B, the time difference of reproduction, and the position difference determined in FIG. 8 are displayed in FIG. Further, “smoothness” selected in FIG. 5, for example, “Parapara” is also displayed in FIG. 10B. In FIG. 10B, position difference, time difference, segment music, smoothness, etc. are confirmed.

図10(B)で「OK」をタッチすれば、図10(C)に切り換わる。
図10(C)では、図8で判定された位置差のもとで、始点と、(始点の)次の画像と、(始点の)次の画像から終点の画像までの2つの画像(2つ目の予測画像は終点の画像)という4つのキャラクターの画像が、楽曲データ1のフレーズ1の区間楽曲で「ぱらぱら」のなめらかさのもとでシーン1として模擬表示(シミュレーション)される。
Touching “OK” in FIG. 10B switches to FIG.
In FIG. 10C, based on the position difference determined in FIG. 8, the start point, the next image (from the start point), and the two images (from the next image from the start point) to the end point image (2 The image of the four characters (the predicted image is the end image) is simulated and displayed as the scene 1 with the smoothness of “Parapara” in the section music of the phrase 1 of the music data 1.

図10(C)において、フレーズの波形上の4つの丸は、始点、次の画像および2つの予測画像を示す。終点位置の予測画像に対応する右端の丸をタッチして画面上で左右にスライドすると、区間楽曲が延長または短縮される。ここで、左にスライドすれば、区間楽曲が短縮されて予測画像の数が減り、右にスライドすれば、区間楽曲が延長されて予測画像の数が増える。
終点位置の予測画像に対応する右端の丸をタッチして画面上で右にスライドした図10(D)では、区間楽曲が延長されて予測画像の数が2から4に増えて6つの画像が表示され、区間楽曲の波形上の丸の数も4から6になっている。
In FIG. 10C, the four circles on the phrase waveform indicate the start point, the next image, and two predicted images. When the circle at the right end corresponding to the predicted image at the end point position is touched and slid left or right on the screen, the segment music is extended or shortened. Here, if it slides to the left, a section music will be shortened and the number of prediction images will decrease, and if it slides to the right, a section music will be extended and the number of prediction images will increase.
In FIG. 10D in which the rightmost circle corresponding to the predicted image at the end point position is touched and slid to the right on the screen, the section music is extended and the number of predicted images is increased from 2 to 4, and 6 images are displayed. The number of circles on the waveform of the section music is also changed from 4 to 6.

シミュレーションの画像でよければ、予測画像を撮影してから、「採用」をタッチしてシーン1を決定し、保存する。シミュレーションの画像でよくなければ、「戻る」をタッチして「位置差」などの設定をやり直す。
同様に、シーン2以降も判断されて、シーン1・・・・の画像(動画)が順次作成される。
If a simulation image is acceptable, a predicted image is taken, and then “adopt” is touched to determine scene 1 and save it. If the simulation image is not satisfactory, touch “Return” and redo settings such as “Position Difference”.
Similarly, scenes 2 and after are also determined, and images (moving images) of scenes 1.

図11は本発明の一実施例におけるアニメーション動画のための動画作成のフローチャートを示す。
まず、図4(A)のスマートフォンの初期画面で「外部カメラ」が選択され、図4(B)で「カメラ」を選択して、補間ガイドでは始点、終点の画像、予測ガイドでは始点と次の画像が、事前にそれぞれ撮影される。
FIG. 11 is a flowchart for creating a moving image for an animated moving image according to an embodiment of the present invention.
First, “external camera” is selected on the initial screen of the smartphone shown in FIG. 4A, “camera” is selected in FIG. 4B, the start point and end point images in the interpolation guide, and the start point and next in the prediction guide. Images are taken in advance.

それから、図4(B)で「アニメモード」が選択されて、S1でアニメモードのメニュー(図4(C))が表示される。そして、S2でアニメモードのすべてのメニューが選択(設定)されているかが判断される。すべてのメニューが選択されていない場合は、S2からS21に分岐する。なお、S2のメニュー選択で選択されるメニューの数は「位置差」「時間差」「なめらかさ」の3つとされ、この順序で判断される。
上記のように、位置差は始点、終点間での被写体の位置変化(1シーンにおける移動距離)、時間差はコマ送りの時間差(1コマに要する時間)および再生の時間差(1シーンに要する時間)をいう。
Then, “animation mode” is selected in FIG. 4B, and the animation mode menu (FIG. 4C) is displayed in S1. In S2, it is determined whether all menus in the animation mode have been selected (set). If all the menus are not selected, the process branches from S2 to S21. Note that the number of menus selected by the menu selection in S2 is “positional difference”, “time difference”, and “smoothness”, and these are determined in this order.
As described above, the position difference is the subject position change between the start point and the end point (movement distance in one scene), the time difference is the frame feed time difference (time required for one frame) and the playback time difference (time required for one scene). Say.

まず、S21で「位置差」の判定が判断される。「位置差」が位置差判定部114aで読み取られて判定(図8)されている場合は、S23に進んで「時間差」の設定が判断される。撮影者が図8での位置差判定部114aによる読み取り、判定を忘れている場合は、S22に分岐して「位置差」が判定されて(図8)、S1に戻る。   First, determination of “positional difference” is made in S21. When the “positional difference” is read and determined by the positional difference determination unit 114a (FIG. 8), the process proceeds to S23 and the setting of the “time difference” is determined. If the photographer forgets reading and determination by the position difference determination unit 114a in FIG. 8, the process branches to S22, where “position difference” is determined (FIG. 8), and the process returns to S1.

なお、「位置差」「時間差」「なめらかさ」が判定、設定されると、スマートフォンの初期画面(図4(A))に戻り、図4(B)を経て図4(C)のメニュー画面に至ってS1に戻されるが、複雑化を避けるために、スマートフォンの初期画面に戻るフローは省略されている。   When the “positional difference”, “time difference”, and “smoothness” are determined and set, the screen returns to the initial screen of the smartphone (FIG. 4A), and the menu screen of FIG. However, in order to avoid complication, the flow for returning to the initial screen of the smartphone is omitted.

S23で「時間差」を設定する場合は、S24に分岐して「時間差」が設定されて(図6)、S1に戻る。
S24からS1に戻ると、S2でメニューが選択されているかが再び判断されて、選択されていないメニューがあって選択する場合は、S21に分岐してS21で「位置差」を判定するかが判断される。「位置差」が判定されている場合は、S21からS23に進んで「時間差」の設定が判断される。「時間差」が設定されている場合は、S25で「なめらかさ」の設定が判断される。
When “time difference” is set in S23, the process branches to S24, where “time difference” is set (FIG. 6), and the process returns to S1.
When returning from S24 to S1, it is determined again whether the menu is selected in S2, and if there is a menu that has not been selected, the process branches to S21 to determine "positional difference" in S21. To be judged. When the “positional difference” is determined, the process proceeds from S21 to S23, and the setting of the “time difference” is determined. If “time difference” is set, the setting of “smoothness” is determined in S25.

S25で「なめらかさ」の設定が判断され、「なめらかさ」を設定する場合はS26で「なめらかさ」が設定されて(図5)、S1に戻り、設定しない場合はS25からS1に戻る。   The setting of “smoothness” is determined in S25. If “smoothness” is set, “smoothness” is set in S26 (FIG. 5), and the process returns to S1. If not, the process returns from S25 to S1.

S25、または、S26からS1に戻され、S2でメニューが選択(判定、設定)されているかが判断されるが、「位置差」「時間差」「なめらかさ」が選択されている場合はS3に進んでS3で「条件OK」が判断される。つまり、S3で「位置差」「時間差」「なめらかさ」の3つのメニュー(条件)が判定、設定されているか否かが判断される。判定、設定されていないものがある場合は、S4に分岐して未入力(未判定、未設定)が警告されてS1に戻る。そして、「位置差」「時間差」「なめらかさ」がすべて入力(判定、設定)されるまで、S1〜S4、S21〜S26が繰り返される。   Returning to S1 from S25 or S26, it is determined whether the menu is selected (determined or set) in S2, but if “positional difference”, “time difference”, or “smoothness” is selected, the process proceeds to S3. In step S3, “condition OK” is determined. That is, in S3, it is determined whether or not three menus (conditions) “positional difference”, “time difference”, and “smoothness” are determined and set. If there is something that has not been determined or set, the process branches to S4, a warning is given of no input (not determined, not set), and the process returns to S1. Then, S1 to S4 and S21 to S26 are repeated until “positional difference”, “time difference”, and “smoothness” are all input (determination, setting).

「位置差」「時間差」「なめらかさ」の3つのメニューがすべて判定、設定されて、S3で「条件OK」と判断されると、S11に進んで補助画像が作成される。
図12は補助画像作成のサブルーチンを示す。また、図13(A)〜(C)は補助画像の作成における始点、終点でのキャラクターの画像、キャラクターの存在しないライブビュー画像(背景のライブビュー画像)をそれぞれ示す。
When all three menus of “positional difference”, “time difference”, and “smoothness” are determined and set, and “condition OK” is determined in S3, the process proceeds to S11 and an auxiliary image is created.
FIG. 12 shows a subroutine for creating an auxiliary image. FIGS. 13A to 13C show a character image at a start point and an end point in creation of an auxiliary image, and a live view image (background live view image) where no character exists.

補助画像作成のサブルーチンでは、S101で2画像の差異が判定される。つまり、撮影された2画像のうち、どちらが始点のキャラクターの画像で、他がそれ以外の画像(補間ガイドでは終点のキャラクターの画像、予測ガイドでは、始点の次のキャラクターの画像)かが判別され、判定される。たとえば、キャラクターが撮影者の方向に向かって移動するシーンであれば、2画像のうち、相対的に小さなキャラクターの画像が始点の画像、相対的に大きなキャラクターの画像が終点の画像または始点の次の画像と判定される。
図13は補間ガイドの画像であるため、図13(A)の画像が始点の画像、図13(B)の画像は終点の画像と判定される。
In the auxiliary image creation subroutine, the difference between the two images is determined in S101. That is, it is determined which of the two captured images is the image of the character at the start point and the other is the other image (image of the character at the end point in the interpolation guide, image of the character next to the start point in the prediction guide). Is determined. For example, in a scene where the character moves in the direction of the photographer, of the two images, the relatively small character image is the start point image, the relatively large character image is the end point image, or the next to the start point. It is determined as an image.
Since FIG. 13 is an interpolation guide image, it is determined that the image of FIG. 13A is the start point image and the image of FIG. 13B is the end point image.

S101で2画像の差異が判定されると、S102に進んで変化部が判定される。図13(A)(B)でキャラクターを破線で囲んだ部分が部位とされ、2つの部位の変化が変化部として判定、認識される。   When the difference between the two images is determined in S101, the process proceeds to S102 to determine the changed portion. In FIGS. 13A and 13B, the part surrounded by the broken line of the character is the part, and the change of the two parts is determined and recognized as the change part.

それからS103に進んで移動物が判定される。2つの部位の変化(変化部)において、或る部位にあったものがなくなり、或る部位になかったものがその部位にあれば、そのものは移動物と判定される。図13(A)の部位において存在したキャラクターは、図13(B)の部位ではもとの部位に存在せず、図13(B)の部位に存在するキャラクターは図13(A)の部位ではもとの部位に存在しない。したがって、図13(A)(B)の部位におけるキャラクターが移動物として判定される。
具体的には、たとえば、複数の画像を重ねて位置ごとに一致度が高いところを背景と判定する。また、重ねて一致度が低い画像部分の位置、大きさを変えたり、位置をずらしたりして一致度が高いところ移動物(キャラクター)と判定する。
Then, the process proceeds to S103 where a moving object is determined. In the change (change part) of two parts, if there is nothing in a certain part and there is not in a certain part in that part, it is determined as a moving object. The character that exists in the region of FIG. 13A does not exist in the original region in the region of FIG. 13B, and the character that exists in the region of FIG. 13B does not exist in the region of FIG. It does not exist in the original site. Accordingly, the character at the site in FIGS. 13A and 13B is determined as a moving object.
Specifically, for example, a place where a plurality of images are overlapped and the degree of coincidence is high for each position is determined as the background. In addition, it is determined that a moving object (character) has a high degree of coincidence by changing the position and size of the image portion with low coincidence or by shifting the position.

そして、S104で背景画像が作成される。背景画像は移動物(キャラクター)が存在しない部位を利用して作成される。図13(A)(B)では、破線で囲む部位にはキャラクターが存在するために利用されず、たとえば、図13(A)の破線で囲む部位を利用して図13(C)のような背景画像が作成される。   In step S104, a background image is created. The background image is created using a part where there is no moving object (character). In FIGS. 13A and 13B, a character is present in a part surrounded by a broken line, so that it is not used. For example, a part surrounded by a broken line in FIG. 13A is used as shown in FIG. A background image is created.

S104で背景画像が作成されると、S105で補助画像として補間画像、予測画像のいずれを作成するかが判断される。たとえば、2つの画像のうち、始点でない画像が終点の画像であれば補間画像が作成され、始点の次の画像であれば予測画像が作成される。   When a background image is created in S104, it is determined in S105 whether an interpolation image or a predicted image is created as an auxiliary image. For example, if the image that is not the start point of the two images is the end point image, an interpolated image is created, and if the image is the next image after the start point, a predicted image is created.

S105で補間画像の作成が選択されると、S106で2画像(始点、終点の画像)の差異を内分(分割)し、移動物(キャラクター)の2画像のうちいずれか1つを選択して拡大・縮小することで補間画像が作成されて背景画像に合成される。
S105で予測画像の作成が選択されると、S107で2画像(始点の画像、次の画像)の差異を強調して、移動物(キャラクター)の予測画像がその予測位置で背景画像に合成される。
S106、S107で補助画像が背景画像に合成されると、図11のメインルーチンに戻ってS12に進む。
When the creation of an interpolation image is selected in S105, the difference between the two images (start point and end point images) is internally divided (divided) in S106, and one of the two images of the moving object (character) is selected. By enlarging / reducing, an interpolated image is created and combined with the background image.
When the creation of the predicted image is selected in S105, the difference between the two images (start image and next image) is emphasized in S107, and the predicted image of the moving object (character) is synthesized with the background image at the predicted position. The
When the auxiliary image is combined with the background image in S106 and S107, the process returns to the main routine of FIG. 11 and proceeds to S12.

図11のメインルーチンに戻ってS12に進むと、背景画像に合成された補助画像の採用がS12で判断される。補助画像を採用しないなら、S14で撮影して撮影画像を採用する。撮影は、被写体(キャラクター)が補助画像の位置に入ったとき(置かれたとき)行なわれる。必要なコマでの撮影が終了したかがS15で判断され、必要なコマでの撮影がすべて終了するまで、S14に戻って撮影が繰り返される。必要なコマでの撮影がすべて終了すると、S15からS16に進む。   Returning to the main routine of FIG. 11 and proceeding to S12, it is determined in S12 that the auxiliary image combined with the background image is adopted. If the auxiliary image is not adopted, the photographed image is adopted by photographing at S14. Shooting is performed when the subject (character) enters the position of the auxiliary image (when placed). It is determined in S15 whether or not shooting with the necessary frames has been completed, and the shooting is repeated by returning to S14 until all shooting with the required frames is completed. When all the necessary frames have been shot, the process proceeds from S15 to S16.

また、S12で補助画像を採用すると判断すると、S13で補助画像がコマ化されてS16に進む。
予め撮影された2画像(始点、終点の画像、または、始点の画像、次の画像)に、コマ化された補助画像がS16で組み込まれて、動画のシーン(連写画像)が作成、記録され、それらを組合せてアニメ画像が制作される。
If it is determined in S12 that the auxiliary image is adopted, the auxiliary image is framed in S13 and the process proceeds to S16.
A framed auxiliary image is incorporated in S16 into two images (start point, end point image, start point image, and next image) taken in advance to create and record a moving image scene (continuous shot image). These are combined to produce an animation image.

本発明の画像処理装置(画像処理部)114は、アニメ動画撮影の素材となる補助画像を作成すれば足りる。つまり、動画のシーンを作成したり、それらを組合せてアニメ画像を制作してもよいとはいえ、必ずしも必要でない。
動画のシーンを作成したり、アニメ動画を制作するステップを画像処理装置以外で処理すれば、機能が特化されて構成が簡単化されるため、画像処理装置が安価に得られる。
The image processing apparatus (image processing unit) 114 according to the present invention only needs to create an auxiliary image as a material for animation moving image shooting. That is, although it is possible to create a moving image scene or combine them to produce an animation image, it is not always necessary.
If the steps of creating a moving image scene or producing an animated movie are processed by a device other than the image processing device, the function is specialized and the configuration is simplified, so that the image processing device can be obtained at a low cost.

たとえば、画像処理装置114で作成した動画撮影の素材である補助画像を組み込んで動画のシーンを作成したり、アニメ動画を制作するステップは、画像処理装置以外の中央制御回路14で通常の動画の処理と同様になされてもよい。また、画像処理装置114で作成した補助画像を通信制御部114eから外部に出力し、外部で動画のシーンを作成し、それらを組合せてアニメ動画を制作して、それらを画像処理装置114または撮像装置10に戻してもよい。つまり、アニメ動画の制作を外注に出してもよい。   For example, a step of creating a moving image scene by incorporating an auxiliary image that is a material for moving image shooting created by the image processing device 114 or a step of creating an animation moving image is performed by a central control circuit 14 other than the image processing device. It may be made in the same manner as the processing. In addition, the auxiliary image created by the image processing device 114 is output from the communication control unit 114e to the outside, a moving image scene is created outside, an animation moving image is produced by combining them, and these are processed by the image processing device 114 or imaging. You may return to the apparatus 10. In other words, you may outsource the production of animated videos.

しかし、補助画像処理部114cが補助画像を作成するだけでなく、動画のシーンを作成し、それらを組合せてアニメ画像を制作する動画作成部を兼ねてもよい。また、画像処理装置114が独立した部材としての動画作成部を備えていても。   However, the auxiliary image processing unit 114c may not only create an auxiliary image, but may also serve as a moving image creation unit that creates a moving image scene and combines them to produce an animation image. Moreover, even if the image processing apparatus 114 includes a moving image creation unit as an independent member.

制作されたアニメ画像は、動画のファイルとして記録してもよいし、撮影画像、補助画像からなる静止画のグループとして記録してもよい。ここで、撮影画像、補助画像からなる静止画のグループは、全体で一連の連写画像となるため、ばらばらにならないように一つのコンテナファイルとして記録してもよい。また、各静止画ファイルが関連づけられる情報を画像ファイルに埋め込んで記録してもよい。
そして、実際の撮影に伴って移動物が背景上を移動するコマ画像となる補助画像を補助画像作成部114cが作成すると、補助画像を関連づけて記録する記録制御部を備えることが好ましく、補助画像作成部が記録制御部を兼ねてもよいし、画像処理装置114が独立した部材としての動画作成部を備えていてもよい。
The produced animation image may be recorded as a moving image file, or may be recorded as a group of still images including a photographed image and an auxiliary image. Here, since a group of still images including captured images and auxiliary images forms a series of continuous shot images as a whole, they may be recorded as one container file so as not to be separated. Further, information associated with each still image file may be embedded and recorded in the image file.
The auxiliary image creating unit 114c preferably includes a recording control unit that records the auxiliary image in association with each other when the auxiliary image creating unit 114c creates an auxiliary image that is a frame image in which a moving object moves on the background with actual shooting. The creation unit may also serve as the recording control unit, or the image processing device 114 may include a moving image creation unit as an independent member.

実施例において、補間ガイドでは始点、終点の2つの位置、予測ガイドでは始点、始点の次の2つの位置においてキャラクターが撮影され、2つの画像から補助画像(補間画像、予測画像)が作成されている。しかし、補助画像を作成するため用意される複数の画像は、補間ガイドでは始点の画像および終点の画像を含む少なくとも2画像以上、予測ガイドでは始点の画像および始点の次以降の画像を含む2画像以上であれば足りる。
たとえば、予測ガイドでは、始点と、始点に続く2つの位置でキャラクターを撮影し、3つの画像からキャラクター移動の近似曲線を求め、近似曲線に沿って予測画像を形成してもよい。
In the embodiment, a character is photographed at two positions of the start point and the end point in the interpolation guide, and at the two positions after the start point and the start point in the prediction guide, and an auxiliary image (interpolated image and predicted image) is created from the two images. Yes. However, the plurality of images prepared for creating the auxiliary image include at least two images including the start point image and the end point image in the interpolation guide, and two images including the start point image and the image after the start point in the prediction guide. That's enough.
For example, in the prediction guide, a character may be photographed at two positions following the start point and the start point, an approximate curve for character movement may be obtained from the three images, and a predicted image may be formed along the approximate curve.

さらに、補間ガイド、予測ガイドのいずれにおいても、図3(C)(D)に示すように、2つの補助画像が作成されている。しかし、作成される補助画像の数は2つに限定されず、少なくとも1つの補助画像を作成すれば足りる。   Further, in both the interpolation guide and the prediction guide, two auxiliary images are created as shown in FIGS. However, the number of auxiliary images to be created is not limited to two, and it is sufficient to create at least one auxiliary image.

S14でキャラクターを撮影しているときに、故意または偶然にキャラクターの位置が補助画像からずれたとき、「警告」を表示する構成とすればよい。また、終点の位置がずれて変われば、終点を新たに設定して表示するとよい。   When the character is photographed in S14, a “warning” may be displayed when the character position is deliberately or accidentally shifted from the auxiliary image. In addition, if the position of the end point shifts and changes, the end point may be newly set and displayed.

図9(C)(D)において、「なめらかさ」を楽曲から決定するとき、選択された楽曲のフレーズの中から、リズムやビートの時間間隔を判定して「なめらかさ」決定してもよい。たとえば、「じゃじゃじゃじゃーん」といったフレーズにおいて、前半の「じゃじゃじゃ」はビート、リズムは音量に対応しているが、後半の「じゃーん」は同じ音程を保持している部分が長いため、明解な前半の「じゃじゃじゃ」でリズムやビートを判定し、これを分割用の時間間隔としてもよい。   9 (C) and 9 (D), when “smoothness” is determined from a song, “smoothness” may be determined by determining a time interval between rhythms and beats from phrases of the selected song. . For example, in the phrase “Jajajajan”, the first half “Jajaja” corresponds to the beat and the rhythm corresponds to the volume, but the second half “Jaja” has the same pitch. Therefore, it is possible to determine the rhythm and beat with the clear “Jajaja” in the first half and use this as the time interval for division.

後半の「じゃーん」の音程保持部分は、前半のリズムで分割できるものとして画像の変化を処理してもよい。つまり、後半の「じゃーん」は、前半のリズムで画像変化させ、「じゃーん」の持続時間が終わるまで補間画像を出さないようにしてもよい。もちろん、後半の「じゃーん」を、前半の「じゃじゃじゃ」と同じ滑らかさとしてもよい。   The change in the image may be processed on the assumption that the pitch holding part of “Jan” in the latter half can be divided by the rhythm in the first half. In other words, “Jan” in the second half may change the image with the rhythm of the first half, and the interpolated image may not be output until the duration of “Jan” ends. Of course, “Jan” in the second half may be as smooth as “Jajaja” in the first half.

つまり、背景音楽となる音楽のリズムを検出し、時間差設定部がそのリズムに応じてコマ送りにおける時間差および再生の時間差を設定することができ、音楽のリズムとして、音楽のフレーズのリズムが利用できる。
そして、音楽のリズムに応じてコマ送りにおける時間差および再生の時間差を設定すれば、コマ送りにおける時間差および再生の時間差がリズムに対応して変化し、リズム感に即した自然な動画表現が得られる。
In other words, the rhythm of the music that is the background music can be detected, and the time difference setting unit can set the time difference in frame advance and the time difference of playback according to the rhythm, and the music phrase rhythm can be used as the music rhythm .
If the time difference in frame advance and the time difference in playback are set according to the rhythm of the music, the time difference in frame advance and the time difference in playback change according to the rhythm, and a natural video expression that matches the rhythm sense can be obtained .

また、音楽のリズムとして、音楽のフレーズのリズム、たとえば、そこに含まれるベースやドラムなど特定周波数の比較的大きなパルス音の周期などで、コマ送りにおける時間差および再生の時間差を設定するとよい。音楽のフレーズのリズムに含まれるベースやドラムなど特定周波数の比較的大きなパルス音の周期などは、人の耳にも明解で分かりやすい。そのため、時間差として判定するときにパルス音の間を利用すれば、フレーズに対応した自然な動画表現が得られ、より最適なコマ送りにおける時間差および再生の時間差が得られる。
また、フレーズデータ、またはファイルが、時間差としてのリズム情報を持っていてもよい。
In addition, as a music rhythm, it is preferable to set a time difference in frame advance and a reproduction time difference by a rhythm of a music phrase, for example, a cycle of a relatively large pulse sound having a specific frequency such as a bass or drum included therein. The period of a relatively large pulse sound of a specific frequency, such as a bass or drum, included in the rhythm of a musical phrase is clear and easy to understand for the human ear. Therefore, if the interval between pulse sounds is used when determining as a time difference, a natural moving picture expression corresponding to the phrase can be obtained, and a more optimal time difference in frame advance and reproduction time difference can be obtained.
The phrase data or file may have rhythm information as a time difference.

S103における移動物の判定について詳細に述べると、複数の画像(実施例では2画像)は移動物、背景を有して形成され、移動物、背景は判別されて判定(決定)される。そのため、画像処理装置114は、補助画像の移動物、背景の画像を判別し、判定する判定部を備えることができる。   The determination of the moving object in S103 will be described in detail. A plurality of images (two images in the embodiment) are formed having a moving object and a background, and the moving object and the background are determined and determined (determined). Therefore, the image processing apparatus 114 can include a determination unit that determines and determines the moving object and the background image of the auxiliary image.

粘土などで成形されたキャラクターにおいては、表情などを変えることがあるため、顔検出の技術でその表情の変化は無視して移動物を判定してもよい。また、画像の一致度に加え、距離変化などを参考に、距離が近づいて大きくなったものを移動物と判定するとよい。   A character molded with clay or the like may change an expression or the like. Therefore, a moving object may be determined by ignoring the change in the expression using a face detection technique. Further, in addition to the degree of coincidence of images, it is preferable to determine a moving object when the distance becomes closer with reference to a change in distance.

画像処理装置114が判定部を備えていれば、判定部によって、移動物、背景が自動的に判別、判定されて明確に区別され、移動物を簡単に判定できる。そのため、移動物が背景から明確に区別されて背景上を動くことができ、自然な合成画像が作成できる。
判定部を位置差判定部114aが兼ねて、移動物、背景の判定を自動で行うことにより、ユーザはキャラクターを簡単に判定できる。位置差判定部114aが判定部を兼ねることなく、画像処理装置114が独立した部材としての判定部を備えていてもよい。しかし、位置差判定部114aが判定部を兼ねる構成では、部材点数の増加が避けられる。
If the image processing apparatus 114 includes a determining unit, the moving unit and the background are automatically determined and determined by the determining unit and are clearly distinguished, and the moving object can be easily determined. Therefore, the moving object can be clearly distinguished from the background and moved on the background, and a natural composite image can be created.
The position difference determination unit 114a also serves as the determination unit, and by automatically determining the moving object and the background, the user can easily determine the character. The position difference determination unit 114a may also serve as a determination unit, and the image processing apparatus 114 may include a determination unit as an independent member. However, in the configuration in which the position difference determination unit 114a also serves as the determination unit, an increase in the number of members can be avoided.

さらに、図13(A)(B)に示すように、移動物の移動距離を大きくとれば、移動物の重なりが排除され、移動物、背景の区別が容易になる。そのため、移動物の大きさや位置の判定が誤りなく行われ、補助画像を正確に作成できる。
ユーザ(撮影者)はなるべく手間を省きたいと考えており、正確な補助画像が作成できれば、ユーザは補助画像をそのまま使うこととなり、再撮影の手間が省略される(S13)。また、従来においては、アニメ動画のためのコマ撮りにかなりの数の撮影が必要だったため煩雑さを感じていたユーザも、実施例の構成では最低2回の撮影だけでよいため、煩雑さを感じることなくコマ撮りを行える。
Furthermore, as shown in FIGS. 13A and 13B, if the moving distance of the moving object is increased, the overlapping of the moving objects is eliminated, and the moving object and the background can be easily distinguished. Therefore, the size and position of the moving object can be determined without error, and an auxiliary image can be created accurately.
The user (photographer) wants to save as much trouble as possible, and if an accurate auxiliary image can be created, the user uses the auxiliary image as it is, and the trouble of re-photographing is omitted (S13). In addition, in the past, a user who felt complicated because time-lapse photography for an animation video was necessary, the configuration of the embodiment requires only at least two shots. Time-lapse can be taken without feeling.

また、共通の背景に移動物が配置された複数の画像によって、移動物の画像部分が背景の画像部分から画像判定で自動的、簡単に区別されて判定されるため、各画像が適切に加工されて新しい画像表現となる利点もある。   In addition, since multiple moving images are placed on a common background, the image portion of the moving object is automatically and easily distinguished from the background image portion by image determination, so each image is processed appropriately. There is also an advantage of being a new image representation.

移動物、背景の区別、判定を確実にするために、画像判定時に、背景が画面内の比較的周辺部であることを補助的に判定するようにしてもよい。さらに、移動物の輪郭形状や色の配置が、移動時に拡大・縮小することで略一致することが好ましく、略一致しなければ警告がでる構成としてもよい。   In order to ensure the distinction and determination of the moving object and the background, it may be determined supplementarily that the background is a relatively peripheral part in the screen at the time of image determination. Furthermore, it is preferable that the contour shape and color arrangement of the moving object are substantially matched by enlarging / reducing when moving, and a warning may be issued if they do not substantially match.

撮影画像、補助画像を合成した画像(合成画像)の液晶ディスプレイ(表示部)18での再生は、必ずしも動画表現で行う必要はなく、合成画像を並べて静止画的、組み写真的に表現しても十分な趣向があって楽しめる。
また、補助画像のみを再生しても、補助画像は実際に撮影されていないものであるため、新しい価値のある画像表現が生み出される。
The reproduction of the image (composite image) obtained by synthesizing the captured image and the auxiliary image on the liquid crystal display (display unit) 18 is not necessarily performed by moving image expression, and may be expressed as a still image or a combined photograph by arranging the combined images. Have a good taste and enjoy it.
Further, even if only the auxiliary image is reproduced, the auxiliary image is not actually taken, so that a new valuable image expression is created.

さらに、補助画像が撮影ガイドとして半透明で液晶ディスプレイ18に表示する場合には、半透明の補助画像の移動物は、補助画像の移動物の位置で同じ背景上に並べて背景と合成画像して表示される。合成画像は撮影ガイドとして利用されるだけでなく、合成画像を最終画像として利用してもよい。また、この合成画像の取捨選択を液晶ディスプレイ18(スマートフォン画面)のタッチ(タップ)操作などで行うようにしてもよい。   Furthermore, when the auxiliary image is translucent and displayed on the liquid crystal display 18 as a photographing guide, the moving object of the semitransparent auxiliary image is arranged on the same background at the position of the moving object of the auxiliary image and is combined with the background. Is displayed. The composite image may be used not only as a photographing guide but also as a final image. Further, the selection of the composite image may be performed by a touch (tap) operation of the liquid crystal display 18 (smart phone screen).

補助画像は、動画ファイル化したり、静止画のグループとして一つの画像ファイル、コンテナに記録したりできる。静止画のグループとして一つの画像ファイル、コンテナに記録すれば、インターネット上などの異なる環境下での補助画像の加工、鑑賞が容易に行える。   The auxiliary image can be converted into a moving image file or recorded in a single image file or container as a group of still images. By recording a single image file as a group of still images in a container, it is possible to easily process and view auxiliary images in different environments such as on the Internet.

つまり、共通の移動物、背景を有する少なくとも2つの撮影画像から、移動物の位置差を判定する位置差判定部と、画像のコマ送りにおける時間差および前記位置差に対応する画像再生の時間差を設定する時間差設定部と、位置差判定部で判定された位置差と時間差設定部で設定されたコマ送りにおける時間差および再生の時間差とにしたがって、移動物が半透明状に表示されて画面内を配置された少なくとも1つの補助画像を作成する補助画像作成部とを備えた撮影ガイド装置(画像処理装置)が提供できる。   In other words, a position difference determination unit that determines a position difference of a moving object from at least two captured images having a common moving object and a background, a time difference in image frame advancement, and a time difference of image reproduction corresponding to the position difference are set. The moving object is displayed in a semi-transparent manner and arranged in the screen according to the position difference determined by the position difference determination section, the position difference determined by the position difference determination section, and the time difference in frame advance and playback time set by the time difference setting section. It is possible to provide a photographing guide device (image processing device) including an auxiliary image creation unit that creates at least one auxiliary image.

補助画像が半透明に表示された位置に移動物を配置して再撮影するとき、撮影された画像を半透明とは異なる識別可能な表示、たとえば、透明や黒塗りの表示に変えることができる。このように表示を変えておけば、ユーザは好きな表示で撮影できる。また、必要に応じて、撮影しなくてよい表示は抜いて撮影してもよく、撮影の自由度が高まる。さらに、再撮影時には露出を一定に揃えてもよいし、少しずつ変えて撮影してもよい。   When a moving object is placed at a position where an auxiliary image is displayed semi-transparently and re-photographed, the captured image can be changed to a distinguishable display different from translucent, for example, a transparent or black display. . If the display is changed in this way, the user can shoot with a favorite display. Further, if necessary, the display that does not have to be taken may be omitted, and the degree of freedom of photographing is increased. Furthermore, when re-photographing, the exposure may be set to a constant value or may be photographed while being changed little by little.

半透明状の移動物の表示として、移動物の輪郭のみを表示してもよい。ここで、移動物を配置する位置を示す矢印を輪郭内に表示するなどして、半透明状の移動物の位置を明示するとよい。   As the display of the translucent moving object, only the outline of the moving object may be displayed. Here, the position of the translucent moving object may be clearly indicated by displaying an arrow indicating the position where the moving object is arranged in the outline.

ガイド表示は、画像が順次更新して表示されるライブビュー画像(スルー動画)に撮影結果を重ねて表示すれば明解になる。そして、半透明状の移動物の画像をライブビュー画像上に表示し、その表示の近傍に移動物を配置して撮影したとき、半透明状の画像を半透明以外の別の表示、たとえば、透明や黒塗りの表示で画像表現してもよい。   The guide display is clarified by displaying the shooting result superimposed on a live view image (through moving image) in which images are sequentially updated and displayed. Then, when the image of the translucent moving object is displayed on the live view image and the moving object is arranged in the vicinity of the display and photographed, the translucent image is displayed in another display other than the translucent, for example, The image may be expressed by a transparent or black display.

少なくとも2つの補助画像を作成したとき、露出値やピント位置が変化すると移動物、背景の正しい区別、判定ができなくなる可能性がある。この場合、たとえば、いずれかの画像に露出値を合わせれば、移動物、背景の区別、判定が正しく行える。
また、ピントに関しては、通常、主体である移動物にピントが合わせられる。しかし、移動物が前後に動く場合には背景のぼけぐあいが変わり、移動物がユーザの近くに来ると、背景のぼけが目立つ。そのため、移動物でなく背景にピントを合わせてもよい。しかし、背景のぼけが許容範囲であれば、移動物にピントを合わせることが好ましい。
背景にピントを合わせたとき、移動物のぼけが許容範囲を超える場合には、(判定用の撮影とは別の)移動物にピントを合わせた撮影を促す構成、たとえば警告を出す構成にするとよい。また、絞りを絞って移動物のぼけを目立たなくしてもよい。
When at least two auxiliary images are created, if the exposure value or focus position changes, there is a possibility that the moving object and the background cannot be correctly distinguished and determined. In this case, for example, if the exposure value is matched with one of the images, the moving object and the background can be correctly distinguished and determined.
As for the focus, the focus is usually on the main moving object. However, when the moving object moves back and forth, the background blur changes, and when the moving object comes close to the user, the background blur becomes conspicuous. Therefore, you may focus on the background instead of the moving object. However, if the background blur is in an allowable range, it is preferable to focus on the moving object.
When the background is in focus and the blur of the moving object exceeds the allowable range, a configuration that encourages shooting with the moving object in focus (apart from shooting for judgment), for example, a configuration that issues a warning Good. In addition, the moving object may not be noticeable by reducing the aperture.

また、露出が変化する補助画像を作成してもよい。たとえば、判定用の2回の撮影のほかに、露出を変化させた撮影を別に行い、露出の変化を補助画像の作成時に反映させれば、露出を変化させた補助画像が得られる。そして、露出が変化する補助画像を使って撮影ガイドを行えば、ぼけの問題を考慮する必要をなくすこともできる。   Further, an auxiliary image whose exposure changes may be created. For example, in addition to the two shootings for determination, if the shooting with different exposure is performed separately and the change in exposure is reflected when the auxiliary image is created, an auxiliary image with changed exposure can be obtained. If the shooting guide is performed using an auxiliary image whose exposure changes, it is possible to eliminate the need to consider the problem of blur.

また、本発明は、共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定する機能と、前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定する機能と、前記判定された位置差と前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が前記背景上を移動するコマ画像となる少なくとも1つの補助画像を作成する機能と、をコンピュータに実現させるための画像処理プログラムに関するものということができる。
補助画像における移動物を半透明状に表示して画面内に配置してもよい。
In addition, the present invention provides a function for determining a position difference of a moving object from at least two images having a common moving object and a background, a time difference in frame advancement of the image, and reproduction of the image corresponding to the position difference. A function for setting a time difference, and a function for creating at least one auxiliary image that is a frame image in which the moving object moves on the background, according to the determined position difference, the time difference in frame advance, and the time difference in reproduction. Can be said to be related to an image processing program for causing a computer to realize the above.
The moving object in the auxiliary image may be displayed in a translucent manner and arranged in the screen.

画像処理プログラムは、ROMカードなどのメモリカード、CD−ROM、DVDなどの光ディスク、ハードディスクなどの磁気ディスクドディスクなどに記憶される。そして、画像処理プログラムによってコンピュータにそれぞれの機能を実現させて、補助画像が作成される。そのため、コマ送りにおける画像効果を事前に手軽に確認できる。
画像処理プログラムは、撮像装置の中央制御回路14に記憶してもよいし、ROMカードなどの外部のメモリから読み込んで利用してもよい。
The image processing program is stored in a memory card such as a ROM card, an optical disk such as a CD-ROM or DVD, or a magnetic disk disk such as a hard disk. Then, each function is realized in the computer by the image processing program, and an auxiliary image is created. Therefore, the image effect in frame advance can be easily confirmed in advance.
The image processing program may be stored in the central control circuit 14 of the imaging apparatus, or may be read from an external memory such as a ROM card and used.

上記のように、本発明では、補間画像が作成されて動画撮影の素材となるため、コマ撮りにおける画像を事前に手軽に知ることができる。そのため、なめらかな動きのアニメ画像を正確かつ容易に制作できる。   As described above, in the present invention, an interpolated image is created and used as a material for moving image shooting. Therefore, an image in time-lapse shooting can be easily known in advance. Therefore, it is possible to accurately and easily produce animated images with smooth movement.

上述した実施例は、本発明を説明するためのものであり、本発明を何等限定するものでなく、本発明の技術範囲内で変形、改造等の施されたものも全て本発明に包含されることはいうまでもない。
たとえば、基礎となる画像は、実際に撮影した画像である必要はなく、手書きやパソコン操作で移動物(キャラクター)、背景を描いた画像からも、本発明の補助画像を作成できる。また、手書きやパソコン操作で移動物、背景を描いた画像をラフスケッチにして撮影の補助画像にしてもよい。
The above-described embodiments are for explaining the present invention, and are not intended to limit the present invention in any way, and all modifications and alterations made within the technical scope of the present invention are included in the present invention. Needless to say.
For example, the basic image does not need to be an actually captured image, and an auxiliary image of the present invention can be created from an image depicting a moving object (character) or background by handwriting or a personal computer operation. Further, an image depicting a moving object or background by handwriting or a personal computer operation may be used as a rough sketch to be an auxiliary image for photographing.

本発明の画像処理装置、画像処理方法は、撮影された画像を画像処理するデジタルカメラ、ビデオカメラ、携帯情報端末機器などの撮像装置に広範囲に応用できる。
また、移動の予測などにも使えるので、様々な産業分野でのシミュレーション機器に応用が可能である。速い動きのものが、どのような動きで変化したかを分析するような検査用機器の用途にも応用できる。さらに、補助画像を表示して、それを見ながら撮影するという考え方にしたがえば、動画表示にかかわらず、レポートやドキュメント作成用の撮影案内などにも応用できる。
The image processing apparatus and the image processing method of the present invention can be widely applied to imaging apparatuses such as digital cameras, video cameras, and portable information terminal devices that perform image processing on captured images.
In addition, since it can be used for movement prediction, it can be applied to simulation equipment in various industrial fields. It can also be applied to the use of inspection equipment that analyzes how fast-moving things have changed. Furthermore, if you follow the idea of displaying an auxiliary image and shooting it while viewing it, you can apply it to reports and shooting guides for document creation, regardless of the video display.

10 撮像装置
10a レンズ型デジタルカメラ
10b スマートフォン
12 撮像部
14 中央制御回路
16 操作部
18 表示部
20 記録部
22 通信部
114 画像処理部(画像処理装置)
114a 位置差判定部
114b 時間差設定部
114c 補助画像作成部
114d 操作制御部
114e 通信制御部
114f 画像取り込み部
DESCRIPTION OF SYMBOLS 10 Imaging device 10a Lens type digital camera 10b Smartphone 12 Imaging part 14 Central control circuit 16 Operation part 18 Display part 20 Recording part 22 Communication part 114 Image processing part (image processing apparatus)
114a Position difference determination unit 114b Time difference setting unit 114c Auxiliary image creation unit 114d Operation control unit 114e Communication control unit 114f Image capturing unit

Claims (13)

共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定する位置差判定部と、
前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定する時間差設定部と、
前記位置差判定部で判定された前記位置差と前記時間差設定部で設定された前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が前記背景上を移動するコマ画像となる少なくとも1つの補助画像を作成する補助画像作成部と、
を備える画像処理装置。
A position difference determination unit that determines a position difference of the moving object from at least two images having a common moving object and a background;
A time difference setting unit for setting a time difference in frame advance of the image and a time difference in reproduction of the image corresponding to the position difference;
According to the position difference determined by the position difference determination unit and the time difference in the frame advance and the time difference of reproduction set by the time difference setting unit, the moving object becomes at least one frame image that moves on the background. An auxiliary image creation unit for creating two auxiliary images;
An image processing apparatus comprising:
前記補助画像の移動物、背景の画像を判別し、判定する判定部と、
をさらに備える請求項1の画像処理装置。
A determination unit for determining and determining a moving object of the auxiliary image and a background image;
The image processing apparatus according to claim 1, further comprising:
前記位置差判定部が前記判定部を兼ねる請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the position difference determination unit also serves as the determination unit. 背景音楽となる音楽のリズムを検出し、前記時間差設定部がそのリズムに応じて前記コマ送りにおける時間差および再生の時間差を設定する請求項1〜3のいずれか記載の画像処理装置。   The image processing apparatus according to claim 1, wherein a rhythm of music serving as background music is detected, and the time difference setting unit sets a time difference in the frame advance and a reproduction time difference according to the rhythm. 前記音楽のリズムが、音楽のフレーズのリズムである請求項4記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the music rhythm is a music phrase rhythm. 前記複数の画像が始点の画像および終点の画像を含み、始点、終点の画像の間を補間して補助画像が作成された請求項1〜5のいずれか記載の記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of images include a start point image and an end point image, and an auxiliary image is created by interpolating between the start point and end point images. 前記複数の画像が始点の画像および始点の次以降の画像を含み、始点の画像、始点の次以降の画像から予測して補助画像が作成された請求項1〜5のいずれか記載の画像処理装置。   The image processing according to any one of claims 1 to 5, wherein the plurality of images include an image of a start point and an image subsequent to the start point, and an auxiliary image is created by prediction from the image of the start point and images subsequent to the start point. apparatus. 前記複数の画像に、コマ送りした補助画像を組み合わせて動画を作成する動画作成部をさらに有する請求項1〜7のいずれか記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a moving image creating unit that creates a moving image by combining the plurality of images with the auxiliary image that is frame-advanced. 共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定する位置差判定部と、
前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定する時間差設定部と、
前記位置差判定部で判定された前記位置差と前記時間差設定部で設定された前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が半透明状に表示されて画面内に配置された少なくとも1つの補助画像を作成する補助画像作成部と、
を備えた撮影ガイド装置。
A position difference determination unit that determines a position difference of the moving object from at least two images having a common moving object and a background;
A time difference setting unit for setting a time difference in frame advance of the image and a time difference in reproduction of the image corresponding to the position difference;
In accordance with the position difference determined by the position difference determination unit and the time difference in frame advance and playback time set by the time difference setting unit, the moving object is displayed in a translucent manner and arranged in the screen. An auxiliary image creation unit for creating at least one auxiliary image;
An imaging guide device comprising:
前記補助画像における前記半透明状の移動物の画像をライブビュー画像上に表示し、半透明の表示部に移動物が配置されて撮影されるときと、前記半透明状の移動物の画像が半透明とは異なる判別可能な表示に変えられる請求項9記載の撮影ガイド装置。   When the image of the translucent moving object in the auxiliary image is displayed on a live view image, and the moving object is arranged on the translucent display unit and photographed, the image of the translucent moving object is displayed. The photographing guide device according to claim 9, wherein the photographing guide device is changed to a distinguishable display different from translucent. 画像の表示される表示部と、
画像を処理し、処理された画像が表示部に表示される画像処理装置と、
を具備し、
当該画像処理装置が、
共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定する位置差判定部と、
前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定する時間差設定部と、
前記位置差判定部で判定された前記位置差と前記時間差設定部で設定された前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が前記背景上を移動するコマ画像となる少なくとも1つの補助画像を作成する補助画像作成部と、
を備える撮像装置。
A display part for displaying an image;
An image processing apparatus that processes the image and displays the processed image on the display unit;
Comprising
The image processing apparatus is
A position difference determination unit that determines a position difference of the moving object from at least two images having a common moving object and a background;
A time difference setting unit for setting a time difference in frame advance of the image and a time difference in reproduction of the image corresponding to the position difference;
According to the position difference determined by the position difference determination unit and the time difference in the frame advance and the time difference of reproduction set by the time difference setting unit, the moving object becomes at least one frame image that moves on the background. An auxiliary image creation unit for creating two auxiliary images;
An imaging apparatus comprising:
共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定するステップと、
前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定するステップと、
前記判定された位置差と前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が前記背景上を移動するコマ画像となる少なくとも1つの補助画像を作成するステップと、
を備える画像処理方法。
Determining a position difference of the moving object from at least two images having a common moving object and a background;
Setting a time difference in the frame advance of the image and a time difference in reproducing the image corresponding to the position difference;
Creating at least one auxiliary image to be a frame image in which the moving object moves on the background according to the determined position difference and a time difference in the frame advance and a reproduction time difference;
An image processing method comprising:
共通の移動物、背景を有する少なくとも2つの画像から、移動物の位置差を判定する機能と、
前記画像のコマ送りにおける時間差および前記位置差に対応する前記画像の再生の時間差を設定する機能と、
前記判定された位置差と前記コマ送りにおける時間差および再生の時間差とにしたがって、前記移動物が前記背景上を移動するコマ画像となる少なくとも1つの補助画像を作成する機能と、
をコンピュータに実現させるための画像処理プログラム。
A function of determining a position difference of a moving object from at least two images having a common moving object and a background;
A function of setting a time difference in the frame advance of the image and a time difference in reproducing the image corresponding to the position difference;
A function of creating at least one auxiliary image that is a frame image in which the moving object moves on the background according to the determined position difference, a time difference in the frame advance, and a time difference in reproduction;
An image processing program for realizing a computer.
JP2015181011A 2015-09-14 2015-09-14 Image processing apparatus, photographing guide apparatus, imaging apparatus, image processing method and image processing program Active JP6543147B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015181011A JP6543147B2 (en) 2015-09-14 2015-09-14 Image processing apparatus, photographing guide apparatus, imaging apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015181011A JP6543147B2 (en) 2015-09-14 2015-09-14 Image processing apparatus, photographing guide apparatus, imaging apparatus, image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2017059893A true JP2017059893A (en) 2017-03-23
JP6543147B2 JP6543147B2 (en) 2019-07-10

Family

ID=58391798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015181011A Active JP6543147B2 (en) 2015-09-14 2015-09-14 Image processing apparatus, photographing guide apparatus, imaging apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP6543147B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7424911B2 (en) 2020-05-19 2024-01-30 株式会社バイキング Game programs and information processing devices

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116575A (en) * 2007-11-06 2009-05-28 Olympus Imaging Corp Image synthesizing apparatus and image synthesizing method
JP2012175243A (en) * 2011-02-18 2012-09-10 Nikon Corp Image processing apparatus
JP2014072539A (en) * 2012-09-27 2014-04-21 Nikon Corp Imaging apparatus

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116575A (en) * 2007-11-06 2009-05-28 Olympus Imaging Corp Image synthesizing apparatus and image synthesizing method
JP2012175243A (en) * 2011-02-18 2012-09-10 Nikon Corp Image processing apparatus
JP2014072539A (en) * 2012-09-27 2014-04-21 Nikon Corp Imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7424911B2 (en) 2020-05-19 2024-01-30 株式会社バイキング Game programs and information processing devices

Also Published As

Publication number Publication date
JP6543147B2 (en) 2019-07-10

Similar Documents

Publication Publication Date Title
CN105210379B (en) Display control unit, display control method
JP5568178B2 (en) How to summarize videos
JP4656975B2 (en) Image display device, image display method, and program for causing computer to execute the method
KR101901910B1 (en) Method and apparatus for generating or storing resultant image which changes selected area
JP2016119600A (en) Editing device and editing method
JP5806623B2 (en) Imaging apparatus, imaging method, and program
JP5912062B2 (en) Imaging apparatus and moving image data recording method
JP2018148272A (en) Imaging apparatus, image processing apparatus, imaging method, and program
JP5253725B2 (en) Mobile communication terminal with video shooting function and operation method thereof
JP2006352529A (en) Imaging apparatus
JP2012191249A (en) Reproduction processing device, image pickup device, and reproduction processing method and program
JP6957131B2 (en) Information terminal device, image pickup device, image information processing system and image information processing method
JP2009218900A (en) Imaging apparatus, motion picture recording and playback method, and program
JP6543147B2 (en) Image processing apparatus, photographing guide apparatus, imaging apparatus, image processing method and image processing program
JP2011193117A (en) Image processing apparatus, and program
JP6952584B2 (en) Imaging device, imaging method and imaging program
US20190198058A1 (en) Image recording control apparatus, image recording method, recording medium storing image recording program, image pickup apparatus, and image recording control system
JP2012138763A (en) Image processing device, electronic camera, and image processing program
JP4911287B2 (en) Image reproducing apparatus and program thereof
KR101464532B1 (en) Digital image processing apparatus and method for controlling the same
JP7384261B2 (en) electronic equipment and programs
KR101946574B1 (en) Apparatus and method for reproducing image and computer-readable storage medium
JP2013115692A (en) Imaging apparatus and control program for use in imaging apparatus
JP2019140568A (en) Image processing system
JP2019140567A (en) Image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190614

R150 Certificate of patent or registration of utility model

Ref document number: 6543147

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250