JP2021170810A - Photographing device - Google Patents
Photographing device Download PDFInfo
- Publication number
- JP2021170810A JP2021170810A JP2021117003A JP2021117003A JP2021170810A JP 2021170810 A JP2021170810 A JP 2021170810A JP 2021117003 A JP2021117003 A JP 2021117003A JP 2021117003 A JP2021117003 A JP 2021117003A JP 2021170810 A JP2021170810 A JP 2021170810A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- person
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 73
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 27
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 27
- 238000000034 method Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 47
- 238000003384 imaging method Methods 0.000 claims description 35
- 239000002131 composite material Substances 0.000 claims description 29
- 239000000203 mixture Substances 0.000 description 53
- 238000010586 diagram Methods 0.000 description 24
- 230000002194 synthesizing effect Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000003825 pressing Methods 0.000 description 5
- 238000007726 management method Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 2
- 238000001454 recorded image Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- JEYCTXHKTXCGPB-UHFFFAOYSA-N Methaqualone Chemical compound CC1=CC=CC=C1N1C(=O)C2=CC=CC=C2N=C1C JEYCTXHKTXCGPB-UHFFFAOYSA-N 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像装置及び画像処理方法に係り、特に複数人が撮像された画像データを合
成する技術に関する。
The present invention relates to an image pickup apparatus and an image processing method, and particularly relates to a technique for synthesizing image data captured by a plurality of people.
本技術分野の背景技術として、特許文献1には「撮影者を含む複数人数での集合写真を
容易に撮影可能とする」ことを課題とし、その解決手段として「デジタルカメラにおいて
、合成撮影モードが指示された直後に、一人の撮影者によって他の被撮影者(複数)の撮
影画像aが撮影される。次いで、他の被撮影者の誰かにデジタルカメラに渡され、先の撮
影者一人の撮影画像bが撮影される。そして、所定の合成条件、例えば、一方の撮影画像
内に所定サイズ以上の複数の顔があり、かつ、他方の撮影画像内に所定サイズ以上の顔が
1つある場合や、2つの撮影画像a、bの各々で検出される顔の人物構成が異なる場合に
、連続して撮影された2枚の撮影画像a、bのどちらか一方に含まれる顔画像を、他方に
合成した新たな合成画像cを作成する。これにより、複数人数全てが撮影された集合写真
を容易に合成する」ことが開示されている。
As a background technology in the present technical field,
前記特許文献1は、合成撮影モードが指示された直後に撮影画像a、bが連続して撮影
(以下「一連の撮影」という)されるとこれらを基に合成画像cが作成される。しかし、
例えば一連の撮影中に別のシャッターチャンスが訪れた場合、一連の撮影が終了するまで
は別の画像を撮影できないため、シャッターチャンスを逃す可能性があり、加えて一方の
写真が気に入らない場合は最初から撮り直す必要があることから、合成写真を生成する際
の操作性に更なる改善の余地がある。
In
For example, if another photo opportunity comes during a series of shots, you may miss a photo opportunity because you cannot take another image until the series of shots is complete, and if you don't like one photo, Since it is necessary to take a picture again from the beginning, there is room for further improvement in operability when generating a composite photograph.
本発明は上記実情に鑑みてなされたものであり、その目的は、複数人数の全員を含む写
真を容易に生成する際の操作性を向上させた撮像装置及び画像処理方法を提供することで
ある。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image pickup apparatus and an image processing method having improved operability when easily generating a photograph including all of a plurality of people. ..
前記課題を解決するための手段として、特許請求の範囲に記載の技術を用いる。一例を
挙げるならば、撮像装置において、被写体を撮像して画像データを生成する撮像処理部と
、前記画像データの顔認識処理を実行する顔認識処理部と、前記画像データを記録する画
像記録部と、複数の画像データの其々に撮像された人物が、一つの画像データに含まれる
ように合成処理を実行して合成データを生成する合成処理部と、を備え、前記顔認識処理
部は、第一の画像データに対して前記顔認識処理を実行して第一の人物の顔を認識し、前
記第一の画像データの撮影タイミングとは異なる任意の撮影タイミングで撮影されると共
に、前記第一の画像データの背景と同一の背景を有し、かつ前記第一の人物とは異なる第
二の人物が撮像された第二の画像データが前記画像記録部に記録されている場合に、前記
合成処理部は、前記第一の画像データ及び前記第二の画像データを用いて前記同一の背景
上に前記第一の人物及び前記第二の人物が重畳された前記合成データを生成する。
As a means for solving the above-mentioned problems, the technique described in the claims is used. For example, in an imaging device, an imaging processing unit that captures a subject and generates image data, a face recognition processing unit that executes face recognition processing of the image data, and an image recording unit that records the image data. The face recognition processing unit includes a composition processing unit that executes a composition process so that a person captured by each of the plurality of image data is included in one image data to generate the composition data. , The face recognition process is executed on the first image data to recognize the face of the first person, and the first image data is shot at an arbitrary shooting timing different from the shooting timing of the first image data. When the second image data which has the same background as the background of the first image data and is captured by a second person different from the first person is recorded in the image recording unit. The synthesis processing unit uses the first image data and the second image data to generate the composite data in which the first person and the second person are superimposed on the same background.
本発明によれば、複数人数の全員を含む写真を容易に生成する際の操作性を向上させた
撮像装置及び画像処理方法を提供することができる。上記した以外の課題、構成及び効果
は、以下の実施形態の説明により明らかにされる。
According to the present invention, it is possible to provide an imaging device and an image processing method with improved operability when easily generating a photograph including a plurality of people. Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.
以下、本発明の実施形態について、図面を用いて説明する。全図を通じで同一の構成に
は同一の符号を付けてその重複説明は省略する。以下の実施形態においては、本発明に係
る撮像装置を例に挙げて説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same components are designated by the same reference numerals throughout the drawings, and duplicate description thereof will be omitted. In the following embodiments, the image pickup apparatus according to the present invention will be described as an example.
<第一実施形態>
第一実施形態は、表示中の画像データと撮像装置が選択した画像データとを、手動合成
モード(ユーザによる合成指示後に合成する動作モード)、又は自動合成モード(撮像装
置が自動で合成する動作モード)により合成する実施形態である。
<First Embodiment>
In the first embodiment, the image data being displayed and the image data selected by the imaging device are combined in a manual composition mode (operation mode in which the image data is combined after the user gives a composition instruction) or an automatic composition mode (operation in which the image pickup device automatically synthesizes the image data). It is an embodiment which synthesizes by mode).
[撮像装置のハードウェア構成]
図1Aは、本発明の第一実施形態に係る撮像装置の構成例を示すブロック図である。
[Hardware configuration of imaging device]
FIG. 1A is a block diagram showing a configuration example of an imaging device according to the first embodiment of the present invention.
図1Aにおいて、主制御部101は、CPU(Central Processing Unit)等で構成さ
れ、ROM(Read Only Memory)102あるいはRAM(Random Access Memory)103
に記憶された各種の動作プログラムおよびデータに従って撮像装置1の全体を制御する。
システムバス100は制御部101と撮像装置1内の各部との間でデータ送受信を行うた
めのデータ通信路である。
In FIG. 1A, the
The entire
The
ROM102は、撮像装置1を制御するための各種プログラムが格納されたメモリであ
り、例えばEEPROM(Electrically Erasable Programmable ROM)やフラッシュRO
Mのような書き換え可能なROMが用いられる。
The
A rewritable ROM such as M is used.
RAM103はROM102に記憶されたプログラムの実行時の一時記憶領域あるいは
撮影した画像の一時記憶として使用される。
The
ストレージ部104(画像記録部に相当する)は、撮像装置1の動作設定値等の情報を
記憶するものであり、例えばフラッシュROMやSSD(Solid State Drive)のような
不揮発性で書き換え可能なデバイスが用いられる。
The storage unit 104 (corresponding to the image recording unit) stores information such as operation setting values of the
ROM102およびRAM103は主制御部101と一体構成であってもよい。また、
ROM102は、図1Aに示したような独立構成とはせず、ストレージ部104内の一部
記憶領域を使用するようにしてもよい。
The
The
外部記憶媒体インターフェース(I/F)105はSDカードのような撮像装置1に収
納、取り出し可能な外部記録媒体106に情報を記録・読み出しのためのインターフェー
スである。
The external storage medium interface (I / F) 105 is an interface for recording / reading information on an
外部インターフェース107は、撮像装置1の機能を拡張するためのインターフェース
群であり、本実施形態では、USB(Universal Serial Bus)インターフェース(I/F
)107a、映像出力インターフェース(I/F)107b、音声出力インターフェース
(I/F)107cを有する。USBインターフェース107aはパソコンあるいはテレ
ビ受信装置等の外部装置のUSBインターフェースに接続し、ストレージ部104あるい
は外部記録媒体106に保存された画像データ等を外部装置で読込、表示等が可能となっ
ている。映像出力インターフェース107bおよび音声出力インターフェース107cは
、外部映像/音声出力機器に映像信号/音声信号の出力を行う。ここで、映像出力インタ
ーフェース107b、音声出力インターフェース107cはHDMI(High-Definition
Multimedia Interface:登録商標)を用いて、映像と音声を一緒に出力するようにしても
よい。
The
) 107a, a video output interface (I / F) 107b, and an audio output interface (I / F) 107c. The
The video and audio may be output together using the Multimedia Interface (registered trademark).
音声入力部108は、撮像装置1の周辺の音声を電気信号に変換するマイク、および電
気信号に変換された音声をディジタル信号の音声データに変換するA/D変換器等で構成
される。
The
音声信号処理部109では音声入力部から入力された音声データに対して、フィルタ処
理や外部記録媒体106に記録する動画像のフォーマットに従って音声データの変換する
処理などを行う。
The audio
撮像部110は、ズームやフォーカス動作のためのレンズを含む光学系、前記レンズを
ズームやフォーカス動作のために駆動する機構系、およびレンズから入力した被写体の光
画像を電気信号に変換するCCDあるいはCMOS等の画像センサと電気信号に変換され
た画像をディジタル信号の画像データに変換するA/D変換器等の電気系のデバイスで構
成される。
The
画像信号処理部111は、撮像部110から入力された画像データに対してホワイトバ
ランス調整、露出調整、ガンマ補正等の画像処理を行う。また、外部記録媒体106に記
録するフォーマットに従って、例えば動画像の場合にはMPEG2あるいはH.264等
の画像データに変換し、静止画像の場合にはJPEG、TIFF等の画像データに変換す
る処理などを行う。また、ストレージ部104あるいは外部記録媒体106に記憶した画
像データの合成処理、顔認識処理、パターンマッチング処理などを行う。
The image
表示部112は撮像部110の画像センサで撮像している被写体の画像、ストレージ部
104あるいは外部記録媒体106に記録されている画像、あるいは撮像装置1の各種設
定を行うための画面等を表示する。
The
操作部113は、撮像装置1に対する操作指示の入力を行う指示入力部であり、電源オ
ン/オフボタン、シャッターボタン、再生ボタン、合成ボタン、各種設定を行うためのボ
タン等を有する。また、表示部112の表面にタッチパネルを設け、表示部112に表示
したボタン等の位置とタッチパネルをタッチした位置を検出することで撮像装置1に対す
る操作指示の入力を行うようにしてもよい。
The
計時部114は、例えばユーザが設定した日時・時刻からの経過時間をRTC(Real T
ime Clock)回路を用いて計測を行い、日時・時刻情報を出力するものであり、計時部1
14から取得した日時・時刻情報に基づいて画像データに日時・時刻情報を付加して記録
を行う。
The
ime Clock) Measures using a circuit and outputs date / time / time information.
Based on the date / time / time information acquired from 14, the date / time / time information is added to the image data for recording.
GPS受信部115は複数のGPS衛星からの電波を受信するものであり、受信した信
号に基づいて撮像装置1の位置(緯度、経度等)情報を取得することができる。この位置情
報も、画像データに付加して記録される。
The
電源部116はバッテリー(図示せず)を含み、主制御部101からの指示により、電
源オン状態、電源オフ状態、電源オフ待機状態等の状態に応じて撮像装置1を構成する各
部位への電源を供給する。
The
撮像装置1は、撮像部110を備えるものであればデジタルカメラや携帯電話、スマー
トフォン、タブレット端末、ナビゲーション装置等、であっても良いし、PDA(Per
sonal Digital Assistants)やノート型PC(Persona
l Computer)であってもよい。通信機能を備えた音楽プレーヤや携帯型ゲーム
機等、またはその他の携帯用ディジタル機器であっても良い。また、ウェラブルなスマー
トウォッチ、スマートグラス等でもよい。
The
Sonal Digital Assistants) and notebook PCs (Persona)
l Computer) may be used. It may be a music player having a communication function, a portable game machine, or other portable digital device. Further, a wearable smart watch, smart glasses, or the like may be used.
[撮像装置のソフトウェア構成]
図1Bは、第一実施形態に係る撮像装置のソフトウェア構成図を示す図であり、ROM
102、RAM103およびストレージ部104におけるソフトウェアの構成を示す。
[Software configuration of imaging device]
FIG. 1B is a diagram showing a software configuration diagram of the image pickup apparatus according to the first embodiment, and is a ROM.
The software configuration in 102, the
図1Bにおいて、主制御部101がROM102に記憶されたプログラムを実行するこ
とにより、基本動作実行部1021、位置情報取得部1022、撮像処理部1023、画
像記録部1024、画像再生部1025、電源管理部1026、合成処理部1027、顔
認識処理部1028を構成する。また、RAM103は、ROM102に記憶されたプロ
グラムを実行する際に必要に応じてデータを一時的に保持する一時記憶領域1031、撮
像処理部1023が撮像部110を介して撮影した画像を一時的に記憶する画像一時記憶
領域1032を備えるものとする。
In FIG. 1B, the
ストレージ部104には、ROM102に記憶されたプログラムを実行する際の設定情
報を記憶する設定情報記憶領域1041、及び撮像装置1で撮影した静止画像データや動
画像データを記憶する画像記憶領域1042等も有する。
The
なお、以下では、説明を簡単にするために、主制御部101がROM102に格納され
たプログラム実行することにより各動作ブロックの制御を行うものとして記述する。
In the following, for the sake of simplicity, it is assumed that the
基本動作実行部1021は、撮像装置1の各種設定や全体の動作を制御する。
The basic
位置情報取得部1022はGPS受信部115で受信したGPS衛星からの信号に基づ
いて、撮像装置1の緯度、経度等の位置情報を取得する処理を行う。また、Wi−Fi(
登録商標)受信機能を備え、Wi−Fiの電波受信レベルの情報を用いて位置情報の補正
を行うことで精度を向上するようにしたり、Wi−Fiの電波受信レベルの情報を用いて
位置情報を取得したりしてもよい。
The position
It has a reception function (registered trademark), and it is possible to improve the accuracy by correcting the position information using the information of the radio wave reception level of Wi-Fi, or the position information using the information of the radio wave reception level of Wi-Fi. May be obtained.
撮像処理部1023は、操作部113に含まれるシャッターボタンが押された場合に、
撮像部110で撮像した被写体の画像データをRAM103の画像一時記憶領域1032
に取り込む処理を行う。
The image
The image data of the subject captured by the
Performs the process of importing into.
画像記録部1024は画像一時記憶領域1032に取り込まれた画像データをストレー
ジ部104の画像記憶領域1042に記録する、あるいは外部記録媒体インターフェース
105を介して外部記録媒体106に記録する処理を行う。
The
画像再生部1025は、撮像部110の画像センサで撮像している被写体の画像をRA
M103の画像一時記憶領域1032を介して表示部112に表示する処理を行う。また
、ストレージ部104、あるいは外部記録媒体106に記録された画像データを読み出し
、表示部112に表示する処理を行う。
The
A process of displaying on the
電源管理部1026は操作部113に含まれる電源ボタンにより撮像装置1を構成する
各部位に供給する電源を制御する処理を行う。
The
合成処理部1027は、操作部113に含まれる合成ボタンが押された場合や、合成し
た画像データの表示が選択された場合などに、ストレージ部104や外部記録媒体106
に記憶された画像データを合成する処理を行う。
The
Performs a process of synthesizing the image data stored in.
顔認識処理部1028は、RAM103、ストレージ部104や外部記録媒体106に
記憶された画像データの顔認識処理を行う。
The face
前記ROM102に記憶されたプログラムは、製品出荷の時点で、予めに格納された状
態であってもよい。また製品出荷後に、パソコンによりインターネット上のサーバ装置等
から取得したプログラムを、USBインターフェース部107aを介して格納したもので
あってもよい。
The program stored in the
なお、RAM103に画像一時記憶領域1032を設ける代わりに、撮像部110ある
いは画像信号処理部111に画像データを一旦記憶するバッファメモリを設けるようにし
てもよい。
Instead of providing the image
[撮像装置の外観図]
図2A、及び図2Bを参照して第一実施形態に係る撮像装置の外観について説明する。
[Outline view of imaging device]
The appearance of the image pickup apparatus according to the first embodiment will be described with reference to FIGS. 2A and 2B.
図2Aは撮像装置1の正面図である。撮像装置1の正面には撮像部110を構成するレ
ンズが配置されている。また、撮像装置1の上部には操作部113を構成する電源ボタン
113−1、シャッターボタン113−2が配置されている。
FIG. 2A is a front view of the
図2Bは撮像装置1の背面図である。撮像装置1の背面には表示部112と、操作部1
13を構成する選択/決定操作ボタン113−3、種々の設定・ファイル操作処理選択等
を行うためのメニューボタン113−4、ストレージ部104あるいは外部記録媒体10
6に記録された画像データを再生するための再生ボタン113−5、画像データを合成す
るための合成ボタン113−6(合成指示操作部に相当する)が配置されている。表示部
112にタッチセンサを備え、シャッターボタン113−2や選択/決定操作ボタン11
3−3、メニューボタン113−4、再生ボタン113−5、合成ボタン113−6の代
わりに操作できるようにしてもよい。
FIG. 2B is a rear view of the
Selection / decision operation button 113-3 constituting 13, menu button 113-4 for selecting various settings / file operation processes,
A reproduction button 113-5 for reproducing the image data recorded in 6 and a composition button 113-6 (corresponding to a composition instruction operation unit) for synthesizing the image data are arranged. The
It may be possible to operate instead of 3-3, the menu button 113-4, the play button 113-5, and the composite button 113-6.
[撮像装置の全体動作]
図3は第一実施形態に係る撮像装置の全体の動作例を示すフローチャートである。図3
では、手動モード、すなわち画像合成の指示をユーザが入力操作、より具体的には以下の
例における「画像合成ボタンの押下げ(S312;Yes)」を契機として画像合成処理
(S313)が実行される場合の動作の流れについて説明する。
[Overall operation of the imaging device]
FIG. 3 is a flowchart showing an overall operation example of the image pickup apparatus according to the first embodiment. Figure 3
Then, the manual mode, that is, the user inputs an instruction for image composition, and more specifically, the image composition process (S313) is executed triggered by "pressing down the image composition button (S312; Yes)" in the following example. The flow of operation in the case of
まず電源管理部1026により電源ボタン113−1の押下の確認を行う。押下げされ
ていなければ(S301;No)次のステップに遷移することなく本ステップで待機する
。
First, the
電源ボタン113−1が押された場合(S301;Yes)は、撮像装置1の起動処理
を行う(S302)。起動すると、撮像部110の画像センサで撮像している被写体の画
像を表示部112に表示する。
When the power button 113-1 is pressed (S301; Yes), the
電源管理部1026により電源ボタン113−1の押下の確認を行う。電源ボタン11
3−1が押された場合(S303;Yes)は、撮像装置1の終了処理を行う(S304
)。
The
When 3-1 is pressed (S303; Yes), the termination process of the
).
電源ボタン113−1が押されていない場合(S303;No)は、撮像処理部102
3により、シャッターボタン113−2の押下の確認を行う。シャッターボタン113−
2が押された場合(S305;Yes)は、撮像部110は被写体の画像データを撮像し
て取得し(S306)、RAM103の画像一時記憶領域1032に記憶する。また、撮
像した機種、絞り値、画素数、ISO感度、撮影日時、位置情報などの付加情報も画像一
時記憶領域1032に記憶する。そして画像一時記憶領域1032に記憶した画像データ
及び付加情報を、画像記録部1024により、ストレージ部104あるいは外部記録媒体
106に記録する(S307)。そして、撮像部110で撮像し、画像一時記憶領域10
32に記憶した画像データが表示部112に表示される(S309)。
When the power button 113-1 is not pressed (S303; No), the
3 confirms that the shutter button 113-2 is pressed. Shutter button 113-
When 2 is pressed (S305; Yes), the
The image data stored in 32 is displayed on the display unit 112 (S309).
シャッターボタン113−2が押されなかった場合(S305;No)は、画像再生部
1025により再生ボタン113−5の押下の確認を行う。再生ボタン113−5が押さ
れた場合(S308;Yes)は、ストレージ部104や外部記録媒体106に記録され
た画像データを、画像再生部1025により再生し、表示部112に表示する(S309
)。再生・表示する画像は再生ボタン113−5を押して表示部112に表示させること
ができる。この表示部112に表示された画像データ、及びユーザが撮影して生成され表
示部112に表示された画像データ(S306)が、第一の画像データに相当する。
When the shutter button 113-2 is not pressed (S305; No), the
). The image to be reproduced / displayed can be displayed on the
図6Aは撮像装置1による撮影直後の表示部112の表示例を示す図である。山を背景
に人物Aが撮影されている。撮影した画像データの表示時間は例えば3秒程度であり、ユ
ーザが変更できるようにしてもよい。所定時間を経過すると画像データの表示が消えるが
、再生ボタン113−5が押された場合は再び表示する。
FIG. 6A is a diagram showing a display example of the
再生ボタン113−5が押されなかった場合(S308;No)は、合成処理部102
7により合成ボタン113−6の押下の確認を行う。合成ボタン113−6が押された場
合(S312;Yes)は、撮像部110で撮像し、画像一時記憶領域1032を介して
ストレージ部104や外部記録媒体106に記録された画像データを合成処理部1027
により合成(S313)し、合成された画像データが表示部112に表示される(S31
5)。
When the play button 113-5 is not pressed (S308; No), the
Confirm that the composite button 113-6 is pressed by step 7. When the compositing button 113-6 is pressed (S312; Yes), the
(S313), and the combined image data is displayed on the display unit 112 (S31).
5).
図6Bは撮像装置1により合成された画像データの表示例を示す図である。山を背景に
撮影された人物Aを含む画像に、同じ山を背景に撮影された人物Bが合成されている。
FIG. 6B is a diagram showing a display example of image data synthesized by the
選択/決定操作ボタン113−3により合成した画像データをストレージ部104や外
部記録媒体106に記録する選択・決定が行われると(S317:Yes)、画像記録部
1024は、合成処理部1027で合成した画像データをストレージ部104や外部記録
媒体106に記録する(S318)。
When the selection / determination for recording the image data synthesized by the selection / decision operation button 113-3 in the
図7Aは撮像装置1により合成された画像データを記録するか否かの選択画面の表示例
を示す図である。ユーザは選択/決定操作ボタン113−3により「はい」「いいえ」を
選択し、決定する。
FIG. 7A is a diagram showing a display example of a selection screen for whether or not to record the image data synthesized by the
選択/決定操作ボタン113−3により合成した画像データをストレージ部104や外
部記録媒体106に記録しない選択・決定が行われた場合(S317:No)、または合
成ボタンの押下げがされない場合(S312;No)、画像再生処理(S315)の後、
若しくは画像再生処理(S309)の後、ステップS303へ戻る。
The image data synthesized by the selection / decision operation button 113-3 is not recorded in the
Alternatively, after the image reproduction process (S309), the process returns to step S303.
図7Bは画像を合成できなかった場合の表示例を示す図である。画像を合成できなかっ
た場合(S313による画像合成処理の結果、合成ができなかった場合)は、図7Aの代
わりに図7Bに示す画面が表示部112に表示される。
FIG. 7B is a diagram showing a display example when the images cannot be combined. When the images cannot be combined (when the images cannot be combined as a result of the image composition processing by S313), the screen shown in FIG. 7B is displayed on the
以上のS301〜S318の処理を行うことで画像の記録、再生、および合成を行う。 By performing the above processes S301 to S318, images are recorded, reproduced, and combined.
なお、独立した合成ボタン113−6ではなく、メニューボタン113−4や選択/決
定操作ボタン113−3で合成処理を選択して実行するようにしてもよい。また、予め重
要人物を登録しておき、この人物を撮影した場合は、合成動作を自動的に行うようにして
もよい。また、シャッターボタン113−2を押す代わりに、タッチセンサを備えた表示
部112に表示された被写体に触れることで撮影した場合、被写体が人物であれば当該人
物を重要人物に登録してもよい。また、撮影した人物が画像の中心から所定値以上、ある
いは所定の割合以上ずれていた場合、例えば中心から20%以上ずれていた場合に合成動
作を自動的に行うようにしてもよい。
It should be noted that the composition process may be selected and executed by the menu button 113-4 or the selection / decision operation button 113-3 instead of the independent composition button 113-6. Further, if an important person is registered in advance and this person is photographed, the compositing operation may be automatically performed. Further, when the photograph is taken by touching the subject displayed on the
次に、人物を撮影した際に合成処理を自動的に行う、所謂自動合成モードにおける画像
合成処理について図4を参照して説明する。図4は第一実施形態に係る撮像装置1の別の
動作例(自動合成モード)を示すフローチャートである。
Next, the image composition process in the so-called automatic composition mode, in which the composition process is automatically performed when a person is photographed, will be described with reference to FIG. FIG. 4 is a flowchart showing another operation example (automatic composition mode) of the
図4のS401〜S409は図3のS301〜S309と同様であるため、説明を省略
する。
Since S401 to S409 in FIG. 4 are the same as S301 to S309 in FIG. 3, the description thereof will be omitted.
合成処理部1027は、自動合成モードか否かの確認を行う(S412)。自動合成モ
ードは予めメニューボタン113−4や選択/決定操作ボタン113−3で設定しておく
。従って、メニューボタン113−4や選択/決定操作ボタン113−3は、モード設定
部に相当する。
The
自動合成モードの場合(S412;Yes)、合成処理部1027は撮像部110で撮
像し、画像一時記憶領域1032を介してストレージ部104や外部記録媒体106に記
録された画像データを合成する(S413)。合成処理部1027は画像一時記憶領域1
032にて合成処理を行う。
In the case of the automatic composition mode (S412; Yes), the
The synthesis process is performed at 032.
表示部112は合成した画像データの表示の有無を選択するための画面を表示する。ユ
ーザが選択/決定操作ボタン113−3により合成した画像データを表示するか否かの選
択・決定を行う(S414;Yes)。
The
図8は、撮像装置1により別の画像と合成した画像データを表示するか否かの選択画面
の表示例を示す図である。ユーザは選択/決定操作ボタン113−3により「はい」「い
いえ」を選択し、決定する。別の画像と合成できない場合は、表示しない。
FIG. 8 is a diagram showing a display example of a selection screen for whether or not to display image data combined with another image by the
S415〜418:図3のS315〜S318と同様であるため、説明を省略する。 S415-418: Since it is the same as S315-S318 in FIG. 3, the description thereof will be omitted.
自動合成モードに設定されていない場合(S412;No)、又は合成した画像データ
を表示しない場合(S414;No)、S403へ戻る。
If the automatic composition mode is not set (S412; No), or if the combined image data is not displayed (S414; No), the process returns to S403.
以上のS401〜S418の処理を行うことで自動合成モードにおいて画像の記録、再
生、および合成が行われる。
By performing the above processes S401 to S418, images are recorded, reproduced, and combined in the automatic composition mode.
[画像合成処理]
次に、S313とS411の画像合成処理について説明する。
[Image composition processing]
Next, the image composition processing of S313 and S411 will be described.
図5は合成処理部1027の動作例を示すフローチャートである。
FIG. 5 is a flowchart showing an operation example of the
合成処理部1027はストレージ部104の画像記憶領域1042又は外部記録場以外
106に記憶された画像データの中から、表示部112に表示されている画像と同一撮影
日で、一番新しい画像を検索する(S501)。以下、検索した画像を「検索画像」、表
示部112に表示されている画像を「表示画像」と称する。
The
合成処理部1027は、位置情報取得部1022により取得した位置情報により、検索
画像の撮影場所が表示画像の撮影場所と同じか否かの確認を行う(S502)。
The
撮影場所が同じ場合(S502;Yes)は、検索画像の撮影日時と表示画像の撮影日
時が所定時間内か否かの確認を行う(S503)。所定時間は例えば3分程度であり、ユ
ーザが変更できるようにしてもよい。
When the shooting locations are the same (S502; Yes), it is confirmed whether or not the shooting date and time of the search image and the shooting date and time of the displayed image are within a predetermined time (S503). The predetermined time is, for example, about 3 minutes and may be changed by the user.
撮影日時が所定時間内の場合(S503;Yes)は、パターンマッチングにより検索
画像の背景が表示画像の背景と同じか否かの確認を行う(S504)。
When the shooting date and time is within the predetermined time (S503; Yes), it is confirmed by pattern matching whether or not the background of the search image is the same as the background of the display image (S504).
背景が同じ場合(S504;Yes)は、顔認識処理部1028により、表示画像に含
まれている人物と同じ人物が検索画像に含まれているか否かの確認を行う(S505)。
When the background is the same (S504; Yes), the face
同じ人物が含まれていない場合(S505;No)は、検索画像と表示画像とを重ね合
わせた場合に表示画像内において、表示画像に撮像されていた人物の位置と、検索画像か
ら抽出して表示画像に合成しようとする人物の位置とが重なるか否かの確認を行う(S5
06)。少しでも人物が重なる場合はYesとする他、顔が重なる場合のみYesとする
等、判定レベルを設定できるようにしてもよい。
When the same person is not included (S505; No), when the search image and the display image are superimposed, the position of the person captured in the display image in the display image and the position of the person captured in the display image are extracted from the search image. Check whether or not the position of the person to be combined with the display image overlaps (S5).
06). The judgment level may be set, such as Yes when the people overlap even a little, or Yes only when the faces overlap.
検索画像と表示画像の撮影場所と同じ(S502;Yes)、かつ撮影日時が所定時間
内(S503;Yes)、かつ背景が同じ(S504;Yes)、かつ同じ人物が含まれ
ない(S505;No)、かつ人物の位置が重ならない場合(S506;No)は、検索
画像の人物を輪郭検出により抜き出し、表示画像に貼り付けて合成する(S507)。あ
るいは、表示画像の人物を輪郭検出により抜き出し、検索画像に貼り付けて合成する。
The same person as the shooting location of the search image and the display image (S502; Yes), the shooting date and time is within the predetermined time (S503; Yes), the background is the same (S504; Yes), and the same person is not included (S505; No). ), And when the positions of the people do not overlap (S506; No), the person in the search image is extracted by contour detection, pasted on the display image, and combined (S507). Alternatively, a person in the display image is extracted by contour detection, pasted on the search image, and combined.
検索画像と表示画像の撮影場所が同じではない場合(S502;No)、あるいは撮影
日時が所定時間内ではない場合(S503;No)、あるいは背景が同じではない場合(
S504;No)、あるいは同じ人物が含まれる場合(S505;Yes)、あるいは人
物が重なる場合(S506;Yes)は、同一撮影日の別の画像があるか否かの確認を行
う(S508)。
When the shooting location of the search image and the display image are not the same (S502; No), or when the shooting date and time are not within the predetermined time (S503; No), or when the background is not the same (S503; No).
In S504; No), when the same person is included (S505; Yes), or when the people overlap (S506; Yes), it is confirmed whether or not there is another image on the same shooting date (S508).
別の画像がある場合(S508;Yes)は、次に新しい画像を検索(S509)して
S502に戻り、処理を継続する。別の画像がない場合(S508;No)は、処理を終
了する。なお、S502及びS503の順序は変えてもよく、これらのステップは、第二
の画像データの候補を検索する処理に相当する。
If there is another image (S508; Yes), then the new image is searched (S509), the process returns to S502, and the process is continued. If there is no other image (S508; No), the process ends. The order of S502 and S503 may be changed, and these steps correspond to the process of searching for the second image data candidate.
以上のS501〜S509の処理を行うことで、表示画像に貼り付ける画像を検索して
人物を抜き出して合成する。
By performing the above processes S501 to S509, an image to be pasted on the display image is searched, a person is extracted, and a person is synthesized.
更に、撮像装置に地磁気センサを搭載して、撮像装置の向きが同じか否かを上記判定に
加えてもよい。
Further, a geomagnetic sensor may be mounted on the image pickup device, and whether or not the orientation of the image pickup device is the same may be added to the above determination.
また、GPSを搭載していない撮像装置の場合、S502を省略することで、合成処理
を実行してもよい。
Further, in the case of an imaging device not equipped with GPS, the synthesis process may be executed by omitting S502.
図9は第一実施形態に係る画像データの検索と合成の一例を示す説明図である。 FIG. 9 is an explanatory diagram showing an example of searching and synthesizing image data according to the first embodiment.
画像データ901〜905は、北緯35°24′53″、東経138°51′31″に
て、2015.03.15の10:02:00〜10:02:55に順に撮影された画像
データである。画像データ901、902、904、905は同じ背景であり、画像デー
タ903のみ背景が異なる。
The
日時情報は計時部114により取得し、位置情報はGSP受信部115により取得する
。
The date and time information is acquired by the
画像データ901、902は、人物Aにより人物Bが撮影された画像データであり、画
像データ903は、人物Aあるいは人物Bにより鳥が撮影された画像データである。画像
データ904、905は、人物Bにより人物Aが撮影された画像データである。
The
一般に、ユーザは満足できる画像データが得られるまで撮影を繰り返す。画像データ9
01、902はどちらも人物Aにより人物Bが撮影された画像データであるが、画像デー
タ901の人物Bには笑みがないため、人物Aにより画像データ902が撮影し直された
ことを示す。同様に、画像データ904、905はどちらも人物Bにより人物Aが撮影さ
れた画像データであるが、画像データ904の人物Aには笑みがないため、人物Bにより
画像データ905が撮影し直されたことを示す。また、画像データ903は一連の撮影(
画像データ901から905の撮影の期間を意味する)中に突然現れた鳥が撮影されたこ
とを示す。
Generally, the user repeats shooting until satisfactory image data is obtained.
Both 01 and 902 are image data in which the person B is photographed by the person A, but since the person B in the
Indicates that a bird that suddenly appeared during (meaning the period of shooting of
撮像装置1のシャッターボタン113−2が押されると被写体を撮影し、表示部112
に撮影した画像を表示する。そして、合成ボタン113−6が押されると画像を合成する
。
When the shutter button 113-2 of the
Display the captured image in. Then, when the composite button 113-6 is pressed, the images are composited.
画像データ906は画像データ902、905から合成された画像データである。
The
前述の図6Aは撮像装置1による画像データ905の撮影直後、あるいは撮影後に再生
ボタン113−5が押された後の表示部112の表示例である。ここで、撮像装置1の合
成ボタン113−6が押されると、図5のフローチャートに従って画像データ903を検
索し、画像データ902と905を合成して、画像データ906を生成する。図6Bは撮
像装置1が合成した画像データ906の表示例である。
FIG. 6A is a display example of the
画像データ901〜904は画像データ905と撮影場所が同じ(S502;Yes)
で、かつ撮影日時が所定時間内(S503;Yes)である。画像データ904は画像デ
ータ905と同じ人物が含まれている(S505;Yes)。画像データ903は画像デ
ータ905と背景が異なる(S504;No)。画像データ901、902は画像データ
905と背景が同じ(S504;Yes)、かつ同じ人物が含まれておらず(S505;
No)、かつ人物が重ならない場合(S506;No)である。このうち、一番新しい画
像データとして画像データ902を選択し、画像データ905と合成し、合成画像データ
906を生成する。図9の例では、画像905が第一の画像データ、画像902が第二の
画像データに相当する。画像データ903は画像データ905と背景が異なるために除外
されたが、撮像装置1がズーム機能付きのレンズを備える場合は、レンズ焦点距離が所定
値以上に異なる画像データを除外してもよい。
The
And the shooting date and time is within a predetermined time (S503; Yes). The
No), and the persons do not overlap (S506; No). Of these,
なお、背景を基準にして合成を行うことにより、各画像データの画角のずれを吸収する
ことができる。例えば、画像データ902の人物Bを輪郭検出により抜き出し、背景を基
準にして画像データ905に貼り付ける。あるいは、画像データ905の人物Aを輪郭検
出により抜き出し、背景を基準にして画像データ902と合成してもよい。
It should be noted that the deviation of the angle of view of each image data can be absorbed by performing the composition with reference to the background. For example, the person B of the
図10は第一実施形態に係る画像データの検索と合成の一例を示す説明図である。 FIG. 10 is an explanatory diagram showing an example of searching and synthesizing image data according to the first embodiment.
画像データ1001、1002は、北緯35°24′53″、東経138°51′31
″にて、2015.03.16の10:02:00〜10:02:50に順に撮影された
画像データである。画像データ1001、1002は同じ背景である。
The image data are taken in order from 10:02: 00 to 10:02:50 on 2015.03.16. The
画像データ1001は、人物Aにより人物Bが撮影された画像データであり、画像デー
タ1002は、人物Bにより人物Aが撮影された画像データである。
The
画像データ1002の撮影後に撮像装置1の合成ボタン113−6が押されると画像を
合成する。あるいは、自動合成モードでは撮影後に画像を自動的に合成する。
When the composite button 113-6 of the
合成画像データ1003は、画像データ1001、1002から合成された画像データ
である。
The
合成画像データ1003をストレージ部104や外部記録媒体106に記録した後、あ
るいは記録せずに、人物Aにより人物Bが新たに撮影し直された画像が画像データ100
4である。画像データ1001、1004はどちらも人物Aにより人物Bが撮影された画
像データであるが、画像データ1001の人物Bには笑みがないため、人物Aにより画像
データ1004が撮影し直されたことを示す。また、人物Bが人物Aを撮影し直すことも
できる。
After recording the
It is 4. Both the
画像データ1004の撮影後に撮像装置1の合成ボタン113−6が押されると再び画
像を合成する。あるいは、自動合成モードでは撮影後に再び画像を自動的に合成する。
When the compositing button 113-6 of the
画像データ1005は画像データ1002、1004から合成された画像データである
。
The
更に撮影し直すこともでき、撮影と合成を何度でも繰り返して所望の合成画像を取得す
ることができる。
Further, it is possible to take a picture again, and it is possible to obtain a desired composite image by repeating shooting and compositing as many times as necessary.
以上により本実施形態では、撮像装置は合成の対象となる画像を撮影した後に合成ボタ
ンが押されると、最適な画像を検索して合成を行うことができる。あるいは、撮像装置は
撮影後に自動的に、最適な画像を検索して合成を行うことができる。
As described above, in the present embodiment, when the compositing button is pressed after the imaging device has taken an image to be synthesized, the imaging device can search for the optimum image and perform compositing. Alternatively, the image pickup apparatus can automatically search for the optimum image and perform compositing after shooting.
合成の対象となる画像の撮影は何枚撮影されてもよく、撮像装置はその中から合成に最
適な画像を検索する。また、合成対象となる複数の画像は、同一の背景を有していれば撮
影タイミングに関らず合成対象とすることができる。そのため、一方の画像だけの撮り直
しや、合成対象となる画像の撮影タイミングの間に、合成対象とならない画像を撮影した
場合にも、合成対象とはならない画像を除外して合成処理を実行することができ。また、
撮影と合成を何度でも繰り返して、所望の合成画像を取得することができる。これにより
、複数人が一枚の画像に収まった合成画像を撮影する際の操作性を向上させることができ
る。なお、本実施形態では、より新しい画像を優先して選択する例を示したが、笑顔の人
物や正面を向いた人物を含む画像を優先して選択してもよい。
Any number of images to be combined may be taken, and the imaging device searches for the most suitable image for composition. Further, a plurality of images to be combined can be combined regardless of the shooting timing as long as they have the same background. Therefore, even if only one image is retaken or an image that is not the target of composition is taken during the shooting timing of the image to be combined, the image that is not the target of composition is excluded and the composition process is executed. It is possible. again,
A desired composite image can be obtained by repeating shooting and compositing as many times as necessary. As a result, it is possible to improve the operability when a plurality of people take a composite image that fits in one image. In the present embodiment, an example in which a newer image is preferentially selected is shown, but an image including a smiling person or a person facing the front may be preferentially selected.
<第二実施形態>
第二実施形態は、ユーザが選択した画像データを用いて合成を行う実施形態である。
<Second embodiment>
The second embodiment is an embodiment in which composition is performed using image data selected by the user.
[撮像装置の全体動作]
図11は第二実施形態に係る撮像装置の全体の動作例を示すフローチャートである。
[Overall operation of the imaging device]
FIG. 11 is a flowchart showing an overall operation example of the image pickup apparatus according to the second embodiment.
S1101〜S1108は図3のS301〜S308と同様であるため、説明を省略す
る。
Since S1101 to S1108 are the same as S301 to S308 in FIG. 3, the description thereof will be omitted.
撮像部110で撮像し、画像一時記憶領域1032に記憶した画像データが表示部11
2に表示される(S1109)。
The image data imaged by the
It is displayed in 2 (S1109).
再生ボタン113−5が押された場合(S1108;Yes)、および選択/決定操作
ボタン113−3により画像の変更が選択された場合(S1111;Yes)は、ストレ
ージ部104や外部記録媒体106に記録された画像データを、画像再生部1025によ
り再生し、表示部112に表示する(S1110)。ここで、選択/決定操作ボタン11
3−3はユーザがストレージ部104に記憶された画像を選択する操作部材として機能す
るので選択操作部に相当する。
When the play button 113-5 is pressed (S1108; Yes), or when the image change is selected by the selection / decision operation button 113-3 (S1111; Yes), the
3-3 corresponds to the selection operation unit because it functions as an operation member for the user to select the image stored in the
図13Aは再生ボタン113−5が押された場合の、表示部112の表示例を示す図で
ある。
FIG. 13A is a diagram showing a display example of the
ユーザが選択/決定操作ボタン113−3により、表示部112に表示する画像データ
を別の画像データに変更するか否かの選択を行うと、表示部112に表示されている画像
データが別の画像データに代わる(S1111;Yes)。
When the user selects whether or not to change the image data displayed on the
図13Bは別の画像データに変更された場合の撮像装置1による表示部112の表示例
を示す図である。
FIG. 13B is a diagram showing a display example of the
S1112は図3のS312と同様であるため、説明を省略する。 Since S1112 is the same as S312 in FIG. 3, the description thereof will be omitted.
合成ボタン113−6が押された場合(S1112;Yes)、および選択/決定操作
ボタン113−3により画像の変更が選択された場合(S1116;Yes)は、ストレ
ージ部104や外部記録媒体106に記録された画像データを合成処理部1027により
合成する(S1113:Yes)。合成は画像一時記憶領域1032にて行う。
When the composition button 113-6 is pressed (S1112; Yes), or when the image change is selected by the selection / decision operation button 113-3 (S1116; Yes), the
S1115は図3のS315と同様であるため、説明を省略する。 Since S1115 is the same as S315 in FIG. 3, the description thereof will be omitted.
図14Aは合成ボタン113−6が押された場合の、表示部112の表示例である。
FIG. 14A is a display example of the
ユーザは選択/決定操作ボタン113−3により、合成する画像データを別の画像デー
タに変更するか否かの選択を行う(S1116)。
The user selects whether or not to change the image data to be combined to another image data by pressing the selection / decision operation button 113-3 (S1116).
図14Bは別の画像データに変更された場合の撮像装置1による表示部112の表示例
である。S1116で選択した画像データ1404は変更せずに、これと合成する画像デ
ータ1401〜1403を変更する。
FIG. 14B is a display example of the
S1117〜S1118は図3のS317〜S318と同様であるため、説明を省略す
る。
Since S1117 to S1118 are the same as S317 to S318 in FIG. 3, the description thereof will be omitted.
以上のS1101〜S1118の処理を行うことで画像の記録、再生、および合成を行
う。
By performing the above processes S1101 to S1118, images are recorded, reproduced, and combined.
[画像合成処理]
次に、S1113の画像合成処理について説明する。図12は第二実施形態に係る合成
処理部の動作例を示すフローチャートである。
[Image composition processing]
Next, the image composition process of S1113 will be described. FIG. 12 is a flowchart showing an operation example of the synthesis processing unit according to the second embodiment.
ユーザによる画像変更指示があったか否かの確認を行う(S1200)。 It is confirmed whether or not the user has instructed to change the image (S1200).
ユーザによる画像変更指示がなかった場合(S1200;No)は、表示部に表示され
ている画像と同一撮影日で、一番新しい画像を検索する(S1201)。
When there is no image change instruction by the user (S1200; No), the newest image is searched for on the same shooting date as the image displayed on the display unit (S1201).
S1202〜S1209は、図5のS502〜S509と同様であるため、説明を省略
する。
Since S1202 to S1209 are the same as S502 to S509 in FIG. 5, the description thereof will be omitted.
ユーザによる画像変更指示があった場合(S1200;Yes)、あるいは検索画像と
表示画像の撮影場所が同じではない場合(S1202;No)、あるいは撮影日時が所定
時間内ではない場合(S1203;No)、あるいは背景が同じではない場合(S120
4;No)、あるいは同じ人物が含まれる場合(S1205;Yes)、あるいは合成す
る人物が重なる場合(S1206;Yes)は、同一撮影日の別の画像があるか否かの確
認を行い(S1208)、別の画像がある場合(S1208;Yes)は、次に新しい画
像を検索(S1209)してS1202に戻り、処理を継続する。別の画像がない場合(
S1208;No)は、処理を終了する。
When the user gives an image change instruction (S1200; Yes), the shooting location of the search image and the display image is not the same (S1202; No), or the shooting date and time is not within the predetermined time (S1203; No). Or when the backgrounds are not the same (S120)
4; No), or when the same person is included (S1205; Yes), or when the persons to be combined overlap (S1206; Yes), it is confirmed whether or not there is another image on the same shooting date (S1208). ), If there is another image (S1208; Yes), then the new image is searched (S1209), the process returns to S1202, and the process is continued. If there is no other image (
S1208; No) ends the process.
以上のS1200〜S1209の処理を行うことで、表示画像に貼り付ける画像を検索
して合成する。
By performing the above processes S1200 to S1209, an image to be pasted on the display image is searched and combined.
図15は第二実施形態に係る画像データの検索と合成の一例を示す説明図である。 FIG. 15 is an explanatory diagram showing an example of searching and synthesizing image data according to the second embodiment.
画像データ1501〜1505は、北緯35°24′53″、東経138°51′31
″にて、2015.03.15の10:02:00〜10:02:55に順に撮影された
画像データである。画像データ1501〜1505は同じ背景である。画像データ150
1〜1503は、人物Aにより人物Bが撮影された画像データであり、画像データ150
4、1505は、人物Bにより人物Aが撮影された画像データである。
The
The image data are taken in order from 10:02: 00 to 10:02:55 on 2015.03.15. The
4 and 1505 are image data obtained by the person A taken by the person B.
撮像装置1のシャッターボタン113−2が押されると被写体を撮影し、表示部112
に撮影した画像を表示する。そして、合成ボタン113−6が押されると画像を合成する
。
When the shutter button 113-2 of the
Display the captured image in. Then, when the composite button 113-6 is pressed, the images are composited.
画像データ1506は画像データ1502、1504から合成された画像データである
。
The
以上により、本実施形態によれば、第一実施形態と同様の効果を得るとともに、更に、
合成する画像をユーザが自由に選択することができる。
As described above, according to the present embodiment, the same effect as that of the first embodiment is obtained, and further,
The user can freely select the image to be combined.
<第三実施形態>
第三実施形態は、登録人物のみを合成後の画像に加え、未登録人物を合成後の画像から
削除する実施形態である。
<Third Embodiment>
The third embodiment is an embodiment in which only the registered person is added to the combined image and the unregistered person is deleted from the combined image.
[撮像装置の全体動作]
図16は第三実施形態に係る撮像装置の全体の動作例を示すフローチャートである。
[Overall operation of the imaging device]
FIG. 16 is a flowchart showing an overall operation example of the image pickup apparatus according to the third embodiment.
S1601〜S1612は図3のS301〜S312と同様であるため、説明を省略す
る。
Since S1601 to S1612 are the same as S301 to S312 in FIG. 3, the description thereof will be omitted.
図18Aは撮像装置1による撮影直後、あるいは再生ボタン113−5を押された場合
の表示部112の表示例を示す図である。山を背景に人物Aが撮影されているが、未登録
人物C、Dも撮影されている。人物A、Bは、予め重要人物として登録しておく。また、
シャッターボタン113−2の代わりにタッチセンサを備えた表示部112に表示された
人物に触れることで撮影した場合、当該人物を重要人物に登録してもよい。
FIG. 18A is a diagram showing a display example of the
When a photograph is taken by touching a person displayed on the
合成ボタン113−6が押された場合(S1612;Yes)は、撮像部110で撮像
し、画像一時記憶領域1032に記憶した画像データと、ストレージ部104や外部記録
媒体106に記録された画像データを合成処理部1027により合成する(S1613)
。合成は画像一時記憶領域1032にて行い、合成により登録人物を加え、未登録人物を
削除する。
When the composite button 113-6 is pressed (S1612; Yes), the image data captured by the
.. The composition is performed in the image
図18Bは撮像装置1により合成された画像データの表示例を示す図である。山を背景
に撮影された人物Aを含む画像に、同じ山を背景に撮影された人物Bが合成されている。
そして、未登録人物C、Dは削除されている。
FIG. 18B is a diagram showing a display example of image data synthesized by the
And the unregistered persons C and D have been deleted.
S1615〜S1618は図3のS315〜S318と同様であるため、説明を省略す
る。
Since S1615 to S1618 are the same as S315 to S318 in FIG. 3, the description thereof will be omitted.
以上のS1601〜S1618の処理を行うことで画像の記録、再生、および合成を行
う。
By performing the above processes S1601 to S1618, images are recorded, reproduced, and combined.
[画像合成処理]
次に、S1613の画像合成処理について説明する。
[Image composition processing]
Next, the image composition process of S1613 will be described.
図17は第三実施形態に係る合成処理部の動作例を示すフローチャートである。 FIG. 17 is a flowchart showing an operation example of the synthesis processing unit according to the third embodiment.
S1701〜S1706は図5のS501〜S506と同様であるため、説明を省略す
る。
Since S1701 to S1706 are the same as S501 to S506 in FIG. 5, the description thereof will be omitted.
検索画像と表示画像の撮影場所が同じ(S1702;Yes)、かつ撮影日時が所定時
間内(S1703;Yes)、かつ背景が同じ(S1704;Yes)、かつ同じ人物が
含まれない(S1705;No)、かつ人物が重ならない場合(S1706;No)は、
検索画像の登録人物を輪郭検出により抜き出し、表示画像に貼り付けて合成する。あるい
は、表示画像の登録人物を輪郭検出により抜き出し、検索画像に貼り付けて合成する(S
1707)。
The shooting location of the search image and the display image is the same (S1702; Yes), the shooting date and time is within the predetermined time (S1703; Yes), the background is the same (S1704; Yes), and the same person is not included (S1705; No). ) And when the people do not overlap (S1706; No),
The registered person in the search image is extracted by contour detection and pasted on the display image for composition. Alternatively, the registered person in the display image is extracted by contour detection, pasted on the search image, and combined (S).
1707).
更に、表示画像の未登録人物の存在する位置の検索画像の背景を抜き出し、表示画像に
貼り付ける(背景データの合成を行う)ことで未登録人物を削除する。あるいは、検索画
像の未登録人物の存在する位置の表示画像の背景を抜き出し、検索画像に貼り付けること
で未登録人物を削除する。
Further, the background of the search image at the position where the unregistered person of the display image exists is extracted and pasted on the display image (background data is combined) to delete the unregistered person. Alternatively, the background of the display image at the position where the unregistered person in the search image exists is extracted and pasted on the search image to delete the unregistered person.
S1708〜S1709は図5のS508〜S509と同様であるため、説明を省略す
る。
Since S1708 to S1709 are the same as S508 to S509 of FIG. 5, the description thereof will be omitted.
画像を合成後(S1707)、または同一撮影日の別の画像が無い場合(S1708;
No)、合成処理部1027は合成した画像データに未登録の人物が存在するか否かの確
認を行う(S1710)。
After synthesizing the images (S1707), or when there is no other image on the same shooting date (S1708;
No), the
合成した画像データに未登録の人物が存在する場合(S1710;Yes)、合成処理
部1027は別の画像があるか否かの確認を行う(S1711)。
When there is an unregistered person in the combined image data (S1710; Yes), the
別の画像がある場合(S1711;Yes)は、別の画像を検索して抽出し(S171
2)、別の画像がない場合(S1711;No)は、処理を終了する。
If there is another image (S1711; Yes), another image is searched and extracted (S171).
2) If there is no other image (S1711; No), the process ends.
合成処理部1027は検索画像の撮影場所と合成した画像の撮影場所が同じか否かの確
認を行う(S1713)。
The
撮影場所が同じ場合(S1713;Yes)、合成処理部1027は検索画像の撮影日
時と合成した画像の撮影日時が所定時間内か否かの確認を行う(S1714)。所定時間
は例えば3分程度であり、ユーザが変更できるようにしてもよい。
When the shooting locations are the same (S1713; Yes), the
撮影日時が所定時間内の場合(S1714;Yes)、合成処理部1027は検索画像
の背景と表示画像の背景が同じか否かの確認を行う(S1715)。
When the shooting date and time is within the predetermined time (S1714; Yes), the
背景が同じ場合(S1715;Yes)、合成処理部1027は未登録の人物を削除し
(S1716)、S1710に戻る。
When the background is the same (S1715; Yes), the
未登録人物を含まない場合(S1710;No)、または同一撮影日の別画像がない場
合(S1711;No)、処理を終了する。
When the unregistered person is not included (S1710; No) or when there is no other image on the same shooting date (S1711; No), the process ends.
以上のS1700〜S1716の処理を行うことで、表示画像に貼り付ける画像を検索
して登録人物を抜き出して合成し、未登録人物を削除する。
By performing the above processes S1700 to S1716, the image to be pasted on the display image is searched, the registered person is extracted and combined, and the unregistered person is deleted.
図19は画像データの検索と合成の一例を示す説明図である。 FIG. 19 is an explanatory diagram showing an example of searching and synthesizing image data.
画像データ1901〜1903は、北緯35°24′53″、東経138°51′31
″にて、2015.03.16の10:02:00〜10:02:50に順に撮影された
画像データである。画像データ1901〜1903は同じ背景である。
Image data 1901-1903 has latitude 35 ° 24'53 "north and longitude 138 ° 51'31 east.
The image data is taken in order from 10:02: 00 to 10:02:50 on 2015.03.16. The
画像データ1901、1902は、人物Aにより人物Bが撮影された画像データである
が、画像データ1902には更に未登録人物Dも撮影されている。画像データ1901の
人物Bには笑みがないため、人物Aにより画像データ1902が撮影し直されたことを示
す。画像データ1903は、人物Bにより人物Aが撮影された画像データであるが、未登
録人物C、Dも撮影されている。人物A、Bは、予め重要人物として登録しておく。また
、シャッターボタン113−2の代わりにタッチセンサを備えた表示部112に表示され
た人物に触れることで撮影した場合、当該人物を重要人物に登録してもよい。
The
撮像装置1のシャッターボタン113−2が押されると被写体を撮影し、表示部112
に撮影した画像を表示する。そして、合成ボタン113−6が押されると画像を合成する
。
When the shutter button 113-2 of the
Display the captured image in. Then, when the composite button 113-6 is pressed, the images are composited.
画像データ1904は画像データ1902、1903から登録人物の合成と未登録人物
Cの削除が行われた画像データである。
The
例えば、画像データ1902の人物Bを輪郭検出により抜き出し、背景を基準にして画
像データ1903に貼り付けることにより、画像データ1902に人物Bを合成する。更
に画像データ1903の未登録人物Cの存在する位置の画像データ1902の背景を画像
データ1903の未登録人物Cに貼り付けることで未登録人物Cを削除することができる
。または、画像データ1903の人物Aを輪郭検出により抜き出し、背景を基準にして画
像データ1902と合成し、合成後の画像データ1904を生成してもよい。どちらか一
方あるいは両方の画像データに未登録人物が存在する場合は、未登録人物が多い方の画像
データから登録人物を抜き出し、登録人物が少ない方の画像データに貼り付けるとよい。
For example, the person B of the
次に、画像データ1904の未登録人物Dの存在する位置の画像データ1901の背景
を画像データ1904の未登録人物Dに貼り付けることで未登録人物Dを削除する。
Next, the unregistered person D is deleted by pasting the background of the
画像データ1905は画像データ1904、1901から未登録人物Dの削除を行った
画像データである。
The
以上により、本実施形態によれば第一実施形態と同様の効果を得るとともに、更に、登
録人物のみを画像に加え、未登録人物を削除することができる。なお、本実施形態では、
登録人物を画像に加え、未登録人物を削除する例を示したが、登録人物を画像に加えずに
、未登録人物を削除することもできる。
As described above, according to the present embodiment, the same effect as that of the first embodiment can be obtained, and further, only the registered person can be added to the image and the unregistered person can be deleted. In this embodiment, it should be noted that
Although the example of adding the registered person to the image and deleting the unregistered person is shown, the unregistered person can be deleted without adding the registered person to the image.
<第四実施形態>
第四実施形態は、人物が撮像されていない背景のみの画像(以下「背景画像」という)
を撮像した場合はその背景画像を、背景画像が無い場合はネットワーク上で公開されてい
る背景が撮像された画像データを検索し、それらの背景画像を用いて未登録人物を削除す
る実施形態である。
<Fourth Embodiment>
The fourth embodiment is an image of only the background in which a person is not captured (hereinafter referred to as "background image").
In the embodiment, the background image is searched when the background image is imaged, and the image data in which the background imaged is published on the network is searched when there is no background image, and the unregistered person is deleted using the background image. be.
[撮像装置のハードウェア構成]
図20Aにおいて、図1Aと同じ処理部分には同じ符号を付し、説明を省略する。
[Hardware configuration of imaging device]
In FIG. 20A, the same processing portions as those in FIG. 1A are designated by the same reference numerals, and the description thereof will be omitted.
図20Aは、第四実施形態に係る撮像装置の構成例を示すブロック図である。図20A
に示す撮像装置1は無線通信部120を有しており、アクセスポイント装置2を介して外
部ネットワーク3と接続され、外部ネットワーク3上のサーバ装置4とデータの送受信を
行う。アクセスポイント装置2との接続はWi−Fi(登録商標)等による無線接続で行
われるものとする。アクセスポイント装置2は移動体通信事業者の基地局であってもよい
。また、撮像装置1が直接アクセスポイント2とデータの送受信を行うのではなく、スマ
ートフォンや携帯端末を介してデータの送受信を行ってもよい。
FIG. 20A is a block diagram showing a configuration example of the image pickup apparatus according to the fourth embodiment. FIG. 20A
The
サーバ装置4は位置情報ありの画像データ、位置情報なしの画像データを複数有してお
り、撮像装置1はアクセスポイント装置2、ネットワーク3を介して各種画像データを取
得することができる。
The server device 4 has a plurality of image data with position information and a plurality of image data without position information, and the
[撮像装置のソフトウェア構成]
図20Bは本実施例の撮像装置1のソフトウェア構成図であり、図1Bと同じ処理部分
には同じ符号を付し、説明を省略する。
[Software configuration of imaging device]
FIG. 20B is a software configuration diagram of the
図20Bに示す第四実施形態に係る撮像装置のソフトウェア構成図を示す図である。R
OM部102に無線接続処理部1029を有しており、無線通信部120を制御すること
により、アクセスポイント装置2との無線接続処理を行う。また、位置情報取得部102
2により、本体のストレージ104あるいは外部記録媒体106に記録された画像ファイ
ルのメタデータの位置情報を更新する処理を行う。
It is a figure which shows the software block diagram of the image pickup apparatus which concerns on 4th Embodiment shown in FIG. 20B. R
The
2. Performs a process of updating the position information of the metadata of the image file recorded in the
[画像合成処理]
次に、画像合成処理について説明する。図21は第四実施形態に係る合成処理部の動作
例を示すフローチャートである。
[Image composition processing]
Next, the image composition process will be described. FIG. 21 is a flowchart showing an operation example of the synthesis processing unit according to the fourth embodiment.
S2101〜S2110は図17のS1701〜S1710と同様であるため、説明を
省略する。
Since S2101 to S2110 are the same as S1701 to S1710 in FIG. 17, the description thereof will be omitted.
画像データに未登録の人物が存在する場合(S2110;Yes)は、ストレージ部1
04の画像記憶領域1042に別の画像があるか否かの確認を行う(S2111)。
When there is an unregistered person in the image data (S2110; Yes), the
It is confirmed whether or not there is another image in the
別の画像がある場合(S2111;Yes)は、別の画像を検索し(S2112)、別
の画像がない場合(S2111;No)は、S2117に進む。
If there is another image (S2111; Yes), another image is searched (S2112), and if there is no other image (S2111; No), the process proceeds to S2117.
S2113〜S2116は、図17のS1713〜S1716と同様であるため、説明
を省略する。
Since S2113 to S2116 are the same as S1713 to S1716 in FIG. 17, the description thereof will be omitted.
ストレージ部104の画像記憶領域1042に別の画像がない場合(S2111;No
)は、アクセスポイント装置2を介して外部ネットワーク3と接続し、外部ネットワーク
3上のサーバ装置4の画像を検索する(S2117)。そしてネットワーク上の画像を用
いてS2116と同様の処理を行い、未登録人物を削除する(S2118)。
When there is no other image in the
) Connects to the external network 3 via the
以上のS2101〜S2118の処理を行うことで、表示画像に貼り付ける画像を検索
して登録人物を抜き出して合成し、未登録人物を削除する。
By performing the above processes S2101 to S2118, the image to be pasted on the display image is searched, the registered person is extracted and combined, and the unregistered person is deleted.
図22は第四実施形態に係る画像データの検索と合成の一例を示す説明図である。 FIG. 22 is an explanatory diagram showing an example of searching and synthesizing image data according to the fourth embodiment.
画像データ2201〜2203は、北緯35°24′53″、東経138°51′31
″にて、2015.03.16の10:02:00〜10:02:50に順に撮影された
画像データである。画像データ2201〜2203は同じ背景である。
The image data are taken in order from 10:02: 00 to 10:02:50 on 2015.03.16. The
画像データ2201は、人物Aにより人物Bが撮影された画像データであるが、未登録
人物Dも撮影されている。画像データ2202は、人物Bにより人物Aが撮影された画像
データであるが、未登録人物C、Dも撮影されている。人物A、Bは、予め重要人物とし
て登録しておく。また、シャッターボタン113−2の代わりにタッチセンサを備えた表
示部112に表示された人物に触れることで撮影した場合、当該人物を重要人物に登録し
てもよい。
The
撮像装置1のシャッターボタン113−2が押されると被写体が撮影され、表示部11
2に撮影された画像が表示される。そして、合成ボタン113−6が押されると画像が合
成される。
When the shutter button 113-2 of the
The image taken in 2 is displayed. Then, when the composite button 113-6 is pressed, the images are composited.
合成画像データ2203は画像データ2201、2202から登録人物の合成と未登録
人物Cの削除が行われた画像データである。
The
例えば、画像データ2201の人物Bを輪郭検出により抜き出し、背景を基準にして画
像データ2202に貼り付けるとともに、画像データ2202の未登録人物Cの存在する
位置の画像データ2201の背景を画像データ2202の未登録人物Cに貼り付けること
により未登録人物Cを削除する。あるいは、画像データ2202の人物Aを輪郭検出によ
り抜き出し、背景を基準にして画像データ2201に貼り付ける。どちらか一方あるいは
両方の画像データに未登録人物が存在する場合は、未登録人物が多い方の画像データから
登録人物を抜き出し、登録人物が少ない方の画像データに貼り付けるとよい。
For example, the person B of the
そして、同じ背景で未登録人物Dが存在しない画像(背景画像)を撮影し直して貼り付
けることにより、未登録人物Dを削除することができる。
Then, the unregistered person D can be deleted by re-shooting and pasting an image (background image) in which the unregistered person D does not exist in the same background.
しかし、もしも未登録人物Dが長時間その場所を離れない場合は、同じ背景で未登録人
物Dが存在しない画像(背景画像)を撮影することができない。
However, if the unregistered person D does not leave the place for a long time, it is not possible to take an image (background image) in which the unregistered person D does not exist in the same background.
そこで、ネットワーク上で公開されている画像データを検索し、検索した画像データ2
204(北緯35°24′53″、東経138°51′31″にて、2015.03.1
0の09:30:00)を張り付けて未登録人物Dを削除する。画像データの検索はパタ
ーンマッチングで行い、類似の画像データを見つけ出す。撮影場所、撮影季節、撮影日時
等を用いて検索してもよい。
Therefore, the image data published on the network is searched, and the searched
At 204 (35 ° 24'53 "north latitude, 138 ° 51'31" east longitude, 2015.03.1.
0 09:30) is pasted and the unregistered person D is deleted. Image data is searched by pattern matching to find similar image data. You may search by shooting location, shooting season, shooting date and time, and so on.
合成画像データ2205は、ネットワーク上で検索した画像データ2204を用いて合
成画像データ2203から未登録人物Dの削除が行われた画像データである。
The
合成画像データ2203の未登録人物Dの存在する位置の画像データ2204の背景を
合成画像データ2203の未登録人物Dに貼り付けることにより未登録人物Dを削除する
。
The unregistered person D is deleted by pasting the background of the
以上により、本実施形態では第三実施形態と同様の効果を得るとともに、更に、ネット
ワーク上で公開されている画像データを検索し、検索した画像データを用いて未登録人物
を削除することができる。
As described above, in the present embodiment, the same effect as that of the third embodiment can be obtained, and further, the image data published on the network can be searched, and the unregistered person can be deleted by using the searched image data. ..
また、ネットワーク上で公開されている画像データの撮影場所を基に、ユーザが同じ場
所で撮影した画像データと合成できるようにしてもよい。
Further, the user may be able to combine with the image data taken at the same place based on the shooting place of the image data published on the network.
以上、本発明の実施形態について説明したが、言うまでもなく、本発明の技術を実現す
る構成は上記実施形態に限られるものではなく、様々な変形例が考えられる。例えば、あ
る実施形態の構成の一部を他の実施形態の構成と置き換えることが可能であり、また、あ
る実施形態の構成に他の実施形態の構成を加えることも可能である。これらは全て本発明
の範疇に属するものである。また、文中や図中に現れる数値やメッセージ等もあくまでも
一例であり、異なるものを用いても本発明の効果を損なうことはない。
Although the embodiment of the present invention has been described above, it goes without saying that the configuration for realizing the technique of the present invention is not limited to the above embodiment, and various modifications can be considered. For example, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. All of these belong to the category of the present invention. In addition, numerical values and messages appearing in sentences and figures are merely examples, and the effects of the present invention may not be impaired even if different ones are used.
また、各処理例で説明したプログラムは、それぞれ独立したプログラムでもよく、複数
のプログラムが一つのアプリケーションプログラムを構成していてもよい。また、各処理
を行う順番を入れ替えて実行するようにしてもよい。
Further, the programs described in each processing example may be independent programs, or a plurality of programs may constitute one application program. Further, the order in which each process is performed may be changed and executed.
前述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等
によりハードウェアで実現してもよい。また、マイクロプロセッサユニット等がそれぞれ
の機能等を実現する動作プログラムを解釈して実行することによりソフトウェアで実現し
てもよい。ハードウェアとソフトウェアを併用してもよい。
The above-mentioned functions of the present invention and the like may be realized by hardware, for example, by designing a part or all of them by an integrated circuit. Further, it may be realized by software by interpreting and executing an operation program in which the microprocessor unit or the like realizes each function or the like. Hardware and software may be used together.
また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ず
しも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成
が相互に接続されていると考えてもよい。
In addition, the control lines and information lines shown in the figure indicate those considered necessary for explanation, and do not necessarily indicate all the control lines and information lines on the product. In practice, it can be considered that almost all configurations are interconnected.
1:撮像装置、101:主制御部、102:ROM、103:RAM、104:ストレー
ジ部、106:外部記録媒体、110:撮像部、115:GPS受信部、120:無線通
信部、1022:位置情報取得部、1023:撮像処理部、1024:画像記録部、10
25:画像再生部、1027:合成処理部、1028:顔認識処理部
1: Imaging device, 101: Main control unit, 102: ROM, 103: RAM, 104: Storage unit, 106: External recording medium, 110: Imaging unit, 115: GPS receiving unit, 120: Wireless communication unit, 1022: Position Information acquisition unit, 1023: Imaging processing unit, 1024: Image recording unit, 10
25: Image reproduction unit, 1027: Synthesis processing unit, 1028: Face recognition processing unit
Claims (1)
前記画像データの顔認識処理を実行する顔認識処理部と、
前記画像データを記録する画像記録部と、
複数の画像データの其々に撮像された人物が、一つの画像データに含まれるように合成
処理を実行して合成データを生成する合成処理部と、を備え、
前記顔認識処理部は、第一の画像データに対して前記顔認識処理を実行して第一の人物
の顔を認識し、
前記第一の画像データの撮影タイミングとは異なる任意の撮影タイミングで撮影される
と共に、前記第一の画像データの背景と同一の背景を有し、かつ前記第一の人物とは異な
る第二の人物が撮像された第二の画像データが前記画像記録部に記録されている場合に、
前記合成処理部は前記第一の画像データ及び前記第二の画像データを用いて前記同一の背
景上に前記第一の人物及び前記第二の人物が重畳された前記合成データを生成する、
ことを特徴とする撮像装置。 An imaging processing unit that captures an image of a subject and generates image data,
A face recognition processing unit that executes face recognition processing of the image data,
An image recording unit that records the image data and
It is provided with a compositing processing unit that generates a compositing data by executing a compositing process so that a person imaged in each of a plurality of image data is included in one image data.
The face recognition processing unit executes the face recognition process on the first image data to recognize the face of the first person.
A second image that is shot at an arbitrary shooting timing different from the shooting timing of the first image data, has the same background as the background of the first image data, and is different from the first person. When the second image data in which a person is captured is recorded in the image recording unit,
The synthesis processing unit uses the first image data and the second image data to generate the composite data in which the first person and the second person are superimposed on the same background.
An imaging device characterized by this.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021117003A JP7362696B2 (en) | 2020-05-07 | 2021-07-15 | Imaging device |
JP2023172865A JP2023168550A (en) | 2020-05-07 | 2023-10-04 | Imaging apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020081842A JP6916342B2 (en) | 2019-06-04 | 2020-05-07 | Imaging device and image processing method |
JP2021117003A JP7362696B2 (en) | 2020-05-07 | 2021-07-15 | Imaging device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020081842A Division JP6916342B2 (en) | 2019-06-04 | 2020-05-07 | Imaging device and image processing method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023172865A Division JP2023168550A (en) | 2020-05-07 | 2023-10-04 | Imaging apparatus |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021170810A true JP2021170810A (en) | 2021-10-28 |
JP2021170810A5 JP2021170810A5 (en) | 2022-04-06 |
JP7362696B2 JP7362696B2 (en) | 2023-10-17 |
Family
ID=78149734
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021117003A Active JP7362696B2 (en) | 2020-05-07 | 2021-07-15 | Imaging device |
JP2023172865A Pending JP2023168550A (en) | 2020-05-07 | 2023-10-04 | Imaging apparatus |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023172865A Pending JP2023168550A (en) | 2020-05-07 | 2023-10-04 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7362696B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11136568A (en) * | 1997-10-31 | 1999-05-21 | Fuji Photo Film Co Ltd | Touch panel operation-type camera |
JP2004248020A (en) * | 2003-02-14 | 2004-09-02 | Fuji Photo Film Co Ltd | Image processor and image processing system |
JP2010108475A (en) * | 2008-10-03 | 2010-05-13 | Sony Corp | Image processing apparatus and method, program, and recording medium |
JP2010239459A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Image combination apparatus and program |
JP2014099869A (en) * | 2013-12-17 | 2014-05-29 | Casio Comput Co Ltd | Image apparatus, imaging method, and program |
-
2021
- 2021-07-15 JP JP2021117003A patent/JP7362696B2/en active Active
-
2023
- 2023-10-04 JP JP2023172865A patent/JP2023168550A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11136568A (en) * | 1997-10-31 | 1999-05-21 | Fuji Photo Film Co Ltd | Touch panel operation-type camera |
JP2004248020A (en) * | 2003-02-14 | 2004-09-02 | Fuji Photo Film Co Ltd | Image processor and image processing system |
JP2010108475A (en) * | 2008-10-03 | 2010-05-13 | Sony Corp | Image processing apparatus and method, program, and recording medium |
JP2010239459A (en) * | 2009-03-31 | 2010-10-21 | Casio Computer Co Ltd | Image combination apparatus and program |
JP2014099869A (en) * | 2013-12-17 | 2014-05-29 | Casio Comput Co Ltd | Image apparatus, imaging method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7362696B2 (en) | 2023-10-17 |
JP2023168550A (en) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101720774B1 (en) | Digital photographing apparatus and method for providing a picture thereof | |
US8599251B2 (en) | Camera | |
US11528432B2 (en) | Imaging device and image processing method | |
US11870951B2 (en) | Photographing method and terminal | |
KR101901910B1 (en) | Method and apparatus for generating or storing resultant image which changes selected area | |
JP5837922B2 (en) | Ranking key video frames based on camera position | |
US8525913B2 (en) | Digital photographing apparatus, method of controlling the same, and computer-readable storage medium | |
JP2022140458A (en) | Information processing device, information processing method, and program | |
JP6916342B2 (en) | Imaging device and image processing method | |
JP4889554B2 (en) | Camera, content creation method, and program | |
JP7362696B2 (en) | Imaging device | |
JP6703361B2 (en) | Imaging device and image processing method | |
CN103581512B (en) | Shooting device and method | |
JP2002290778A (en) | Camera device, camera system, photographing condition taking-in device, its method, sample image managing method and record medium | |
JP2012134864A (en) | Information processor, processing method of the same and program | |
JP5613285B2 (en) | IMAGING DEVICE, IMAGING METHOD, DISPLAY DEVICE, AND DISPLAY METHOD | |
JP2014216904A (en) | Imaging apparatus, image reproduction apparatus, data recording method, image reproduction method, and program | |
JP2010109634A (en) | Image display apparatus and image capturing apparatus | |
JP2015122686A (en) | Information processing apparatus, photographing apparatus, control method, and program | |
JP2016051939A (en) | Imaging apparatus, control method, and program | |
JP2015159511A (en) | Photographing apparatus and image recording method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210715 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20211020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220607 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230117 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231004 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7362696 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |