JP2016081173A - Image processor, image processing method, image processing program, image transmitter and use scene analysis method - Google Patents

Image processor, image processing method, image processing program, image transmitter and use scene analysis method Download PDF

Info

Publication number
JP2016081173A
JP2016081173A JP2014209932A JP2014209932A JP2016081173A JP 2016081173 A JP2016081173 A JP 2016081173A JP 2014209932 A JP2014209932 A JP 2014209932A JP 2014209932 A JP2014209932 A JP 2014209932A JP 2016081173 A JP2016081173 A JP 2016081173A
Authority
JP
Japan
Prior art keywords
image
use scene
captured images
unit
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014209932A
Other languages
Japanese (ja)
Other versions
JP6529108B2 (en
Inventor
佳之 福谷
Yoshiyuki Fukutani
佳之 福谷
佐藤 明伸
Akinobu Sato
明伸 佐藤
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2014209932A priority Critical patent/JP6529108B2/en
Publication of JP2016081173A publication Critical patent/JP2016081173A/en
Application granted granted Critical
Publication of JP6529108B2 publication Critical patent/JP6529108B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To appreciate collected picked-up images without stress by sharing the picked-up images from a plurality of a photographing apparatuses in a short period of time.SOLUTION: An image processor includes a reception part for collecting a plurality of picked-up images including picked-up images from at least one opposite apparatus, a use scene analysis part for determining a use scene on the basis of a use scene analysis condition, and a control part for generating a combination photograph based on the plurality of picked-up images collected in the reception part, or an album based on the plurality of picked-up images collected in the reception part in accordance with a determination result of the use scene, and transmitting the generated combination photograph or album to at least one opposite apparatus.SELECTED DRAWING: Figure 1

Description

本発明は、収集した画像の組写真を作成するデジタルカメラ等に好適な画像処理装置、画像処理方法、画像処理プログラム、画像送信装置及びユースシーン分析方法に関する。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, an image transmission apparatus, and a use scene analysis method suitable for a digital camera or the like that creates a group photo of collected images.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮影機器)が普及している。この種の撮影機器においては表示部を有して、撮影画像を表示する機能を有するものもある。また、表示部にメニュー画面を表示して、撮影機器の操作を容易にしたものもある。更に、表示部にタッチパネルを配置して、タッチパネルに対するタッチ操作によって撮影機器の操作が可能なものもある。   In recent years, portable devices with a photographing function (photographing devices) such as digital cameras have become widespread. Some types of photographing apparatuses have a display unit and a function of displaying a photographed image. Some display screens display a menu screen to facilitate operation of the photographing device. In addition, there is a display device in which a touch panel is arranged so that the photographing apparatus can be operated by a touch operation on the touch panel.

また、この種の撮影機器においては、画像処理を駆使して、撮影した写真に、様々な効果を付加する技術も開発されており、例えば、撮影した複数の写真を組み合わせて1枚の写真とする組写真を生成する撮影機器も開発されている。組写真は、複数の画像の持つ、それぞれの表現を1つの画像上に表示して、これらを対比したり、行間を読ませたり、複合、総合的な画像鑑賞を可能とさせ、コミュニケーションを促す効果がある。   In addition, in this type of photography equipment, technology has been developed that uses image processing to add various effects to a photograph that has been taken. Photography devices that generate group photos are also being developed. A group photo displays each expression of multiple images on a single image, enables them to be compared, read between lines, combined and comprehensive image viewing, and promotes communication. effective.

たとえば、特許文献1において、複数のカメラで組写真を作成する技術なども提案されている。   For example, Patent Document 1 proposes a technique for creating a group photo with a plurality of cameras.

特開2014−155011号公報JP 2014-1555011 A

しかしながら、従来、複数のカメラによって撮影した画像を収集して互いにシェアする場合における出力形式の利点や利便性等を考慮して、シェアまでの状況に応じた組写真やアルバムのモード設定等を行う装置は開発されておらず、モード設定等の各種の煩雑な作業をユーザが行う必要がある。例えば、複数の撮影者が撮影して得た画像を収集してシェアする場合、従来、各自において送信操作や受信操作等の煩雑な操作が必要であると共に、比較的大きいデータの伝送を人数分行う必要があり、撮像画像を鑑賞するために比較的長い時間が必要となる。   However, considering the advantages and convenience of the output format when collecting images shared by multiple cameras and sharing them with each other, the group photo and album mode settings are made according to the situation up to the sharing. The device has not been developed, and it is necessary for the user to perform various complicated operations such as mode setting. For example, when collecting and sharing images obtained by a plurality of photographers, conventionally, each user has to perform complicated operations such as a transmission operation and a reception operation, and transfer a relatively large amount of data for each person. Therefore, a relatively long time is required to view the captured image.

本発明は、複数の撮影機器からの撮像画像を短時間でシェアして、ストレスなく収集された撮像画像を鑑賞することができる画像処理装置、画像処理方法、画像処理プログラム、画像送信装置及びユースシーン分析方法を提供することを目的とする。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, an image transmission apparatus, and a use capable of sharing captured images from a plurality of photographing devices in a short time and appreciating captured images collected without stress. An object is to provide a scene analysis method.

本発明に係る画像処理装置は、少なくとも1つの相手機器からの撮像画像を含む複数の撮像画像を収集する受信部と、ユースシーン分析条件に基づいてユースシーンを判定するユースシーン分析部と、上記ユースシーンの判定結果に応じて、上記受信部において収集した複数の撮像画像に基づく組写真、または、上記受信部において収集した複数の撮像画像に基づくアルバムを生成し、生成した組写真またはアルバムを上記少なくとも1つの相手機器に送信する制御部とを具備する。   An image processing apparatus according to the present invention includes a receiving unit that collects a plurality of captured images including captured images from at least one counterpart device, a use scene analysis unit that determines a use scene based on use scene analysis conditions, Depending on the determination result of the use scene, a combined photograph based on a plurality of captured images collected in the receiving unit or an album based on a plurality of captured images collected in the receiving unit is generated, and the generated combined photograph or album is A control unit that transmits to the at least one counterpart device.

また、本発明に係る画像処理方法は、少なくとも1つの相手機器からの撮像画像を含む複数の撮像画像を収集し、ユースシーン分析条件に基づいてユースシーンを判定し、上記ユースシーンの判定結果に応じて、上記収集した複数の撮像画像に基づく組写真、または、上記収集した複数の撮像画像に基づくアルバムを生成し、生成した組写真またはアルバムを上記少なくとも1つの相手機器に送信する。   The image processing method according to the present invention collects a plurality of captured images including captured images from at least one counterpart device, determines a use scene based on a use scene analysis condition, and determines the use scene determination result. In response, a group photo based on the collected plurality of captured images or an album based on the collected plurality of captured images is generated, and the generated group photo or album is transmitted to the at least one counterpart device.

また、本発明に係る画像処理プログラムは、コンピュータに、少なくとも1つの相手機器からの撮像画像を含む複数の撮像画像を収集し、ユースシーン分析条件に基づいてユースシーンを判定し、上記ユースシーンの判定結果に応じて、上記収集した複数の撮像画像に基づく組写真、または、上記収集した複数の撮像画像に基づくアルバムを生成し、生成した組写真またはアルバムを上記少なくとも1つの相手機器に送信する、ステップを実行させる。   The image processing program according to the present invention collects a plurality of captured images including captured images from at least one counterpart device in a computer, determines a use scene based on use scene analysis conditions, and Depending on the determination result, a combined photograph based on the collected multiple captured images or an album based on the collected multiple captured images is generated, and the generated combined photograph or album is transmitted to the at least one partner device. , Execute the step.

また、本発明に係る画像送信装置は、他の撮影装置から受信された撮影画像の撮影時刻と受信時刻とに従って、ユースシーンを分析するユースシーン分析部と、上記ユースシーンの分析結果によって組写真による画像シェアが指示された場合には、上記受信した撮像画像に基づく組写真を生成する制御部と、上記制御部が生成した組写真を上記他の撮影機器に送信する通信部とを具備する。   The image transmission apparatus according to the present invention includes a use scene analysis unit that analyzes a use scene according to a shooting time and a reception time of a captured image received from another imaging apparatus, and a combined photograph based on the analysis result of the use scene. When the image sharing is instructed, a control unit that generates a group photo based on the received captured image and a communication unit that transmits the group photo generated by the control unit to the other photographing device are provided. .

また、本発明に係るユースシーン分析方法は、複数の撮影機器からの撮像画像を収集して組写真又は組写真以外による画像シェアを行う装置におけるユースシーン分析方法であって、上記複数の撮影装置から受信された撮影画像の撮影時刻と受信時刻とに従って、上記組写真による画像シェアがふさわしいユースシーンを判定する。   The use scene analysis method according to the present invention is a use scene analysis method in an apparatus that collects captured images from a plurality of photographing devices and performs image sharing using a group photograph or other than a group photograph. The use scene suitable for the image sharing by the group photograph is determined according to the photographing time and the receiving time of the photographed image received from.

本発明は、複数の撮影機器からの撮像画像を状況に応じて効果的にシェアして、シェアされたメンバーがストレスなく撮像画像を鑑賞することができるという効果を有する。   The present invention has an effect of effectively sharing captured images from a plurality of photographing devices according to the situation, and allowing the shared members to view the captured images without stress.

本発明の第1の実施の形態に係る画像処理装置を示すブロック図。1 is a block diagram showing an image processing apparatus according to a first embodiment of the present invention. 第1の実施の形態の利用形態を示す説明図。Explanatory drawing which shows the utilization form of 1st Embodiment. 第1の実施の形態の利用形態を示す説明図。Explanatory drawing which shows the utilization form of 1st Embodiment. 第1の実施の形態の利用形態を示す説明図。Explanatory drawing which shows the utilization form of 1st Embodiment. 第1の実施の形態の利用の時間経過を示す説明図。Explanatory drawing which shows the time passage of the utilization of 1st Embodiment. 第1の実施の形態の動作フローを示すフローチャート。The flowchart which shows the operation | movement flow of 1st Embodiment. 画面表示の一例を示す説明図。Explanatory drawing which shows an example of a screen display. 画面表示の一例を示す説明図。Explanatory drawing which shows an example of a screen display. 本発明の第2の実施の形態を示すブロック図。The block diagram which shows the 2nd Embodiment of this invention. 図9の外観を示す説明図。Explanatory drawing which shows the external appearance of FIG. アルバム化による鑑賞が好ましいユースシーンを示す説明図。Explanatory drawing which shows the use scene where appreciation by album-izing is preferable. 無線機能を有する一般的なデジタルカメラを示す説明図。Explanatory drawing which shows the general digital camera which has a wireless function. ユースシーン分析部81の分析方法の一例を示すフローチャート。The flowchart which shows an example of the analysis method of the use scene analysis part 81. FIG. レンズ型カメラ90におけるカメラ制御とスマートフォン80の制御とを説明するためのフローチャート。The flowchart for demonstrating the camera control in the lens type camera 90, and control of the smart phone 80. FIG. 第2の実施の形態における画面表示例を示す説明図。Explanatory drawing which shows the example of a screen display in 2nd Embodiment.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る画像処理装置を示すブロック図である。本実施の形態の画像処理装置によれば、複数の撮影機器によって取得した画像を、短時間でシェアすることができる。
(First embodiment)
FIG. 1 is a block diagram showing an image processing apparatus according to the first embodiment of the present invention. According to the image processing apparatus of the present embodiment, it is possible to share images acquired by a plurality of photographing devices in a short time.

通常、複数のカメラによって撮像した得た画像をシェアする方法として、各カメラによって撮影して得た撮像画像を通信によって取得し、パーソナルコンピュータ等によって編集した後表示する方法が考えられる。しかし、この方法では、カメラによる撮影からモニタに画像を表示するまでに比較的長時間を要する。   In general, as a method of sharing images obtained by a plurality of cameras, a method of obtaining captured images obtained by photographing with each camera through communication, editing them with a personal computer, etc., and displaying them can be considered. However, in this method, it takes a relatively long time from photographing with a camera to displaying an image on a monitor.

例えば、友人等との旅行に際して、旅先で取得した画像を旅先で鑑賞する場合等においては、各人が撮影して得た画像を互いに送信し合い、各人のカメラ等において編集して鑑賞を行う方法が採用されることがある。例えば、3人がそれぞれのカメラでそれぞれ撮影した画像をシェアする場合には、各人のカメラ間で相互に行う6回の画像通信によって、各人のカメラにおいて全ての撮像画像の鑑賞が可能となる。   For example, when traveling with friends, etc., when viewing images acquired on the road, the images acquired by each person are sent to each other, edited by each person's camera, etc., and viewed. The method to do may be adopted. For example, when three people share images taken by their respective cameras, it is possible to view all captured images on their cameras by performing six image communications between each other's cameras. Become.

即ち、このような場合には、従来、各人が多数回の通信を行い、それぞれ編集作業等の後画像を表示させることになり、画像通信に比較的長時間を要すると共に、煩雑な作業が必要となる。近年、メモリ容量の大容量化に伴い、撮影枚数は増加傾向にあり、通信する画像情報量の増加によって通信時間が長くなり、画像をシェアして各人が鑑賞するまでに長時間を要する。   That is, in such a case, conventionally, each person communicates many times and displays an image after editing work, etc., so that it takes a relatively long time for image communication and a complicated work is required. Necessary. In recent years, with the increase in memory capacity, the number of shots has been increasing, and the communication time has become longer due to the increase in the amount of image information to be communicated. It takes a long time for each person to share an image and view it.

そこで、本実施の形態においては、このようなユースシーンにおいては、各撮影機器からの画像を収集し、複数の画像による組写真を生成することでリサイズを行って情報量を低減した後、この組写真を各撮影機器に送信するようになっている。   Therefore, in this embodiment, in such a use scene, after collecting images from each photographing device and generating a group photo with a plurality of images to reduce the amount of information, The group photo is transmitted to each photographing device.

図1において、画像処理装置10は撮像部20を有している。撮像部20は、CCDやCMOSセンサ等により構成される撮像素子21を有している。撮像部20は、撮像素子21に被写体像を導く図示しない光路部を有しており、光路部には、ズームやフォーカシングのための複数のレンズ及び絞り等(図示せず)が設けられている。   In FIG. 1, the image processing apparatus 10 includes an imaging unit 20. The imaging unit 20 has an imaging element 21 configured by a CCD, a CMOS sensor, or the like. The imaging unit 20 has an optical path unit (not shown) that guides a subject image to the imaging device 21. The optical path unit is provided with a plurality of lenses, a diaphragm, and the like (not shown) for zooming and focusing. .

制御部22は、例えば図示しないCPU等のプロセッサによって構成されている。制御部22には撮影制御部22aが設けられており、撮影制御部22aは、撮像部20の撮影を制御する。撮影制御部22aは、撮像部20におけるピント合わせ、絞り調整及びズーム等を制御する。   The control unit 22 is constituted by a processor such as a CPU (not shown). The control unit 22 is provided with a shooting control unit 22a, and the shooting control unit 22a controls shooting of the imaging unit 20. The imaging control unit 22a controls focusing, aperture adjustment, zooming, and the like in the imaging unit 20.

また、撮影制御部22aは、撮像素子21に駆動信号を出力する。撮像素子21は、レンズを介して入射した被写体光学像を光電変換して撮像画像を得る。撮影制御部22aは、撮像素子21からの撮像画像を読み出す。撮影制御部22aは、読み出した撮像画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行う。   In addition, the imaging control unit 22 a outputs a drive signal to the image sensor 21. The image sensor 21 photoelectrically converts a subject optical image incident through a lens to obtain a captured image. The imaging control unit 22a reads a captured image from the imaging element 21. The imaging control unit 22a performs predetermined signal processing, for example, color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing on the read captured image.

撮像部20は時計部23を有している。時計部23は時間情報を生成して制御部22に与える。制御部22は、撮像画像に撮影時間等の情報を関連付けることができるようになっている。   The imaging unit 20 has a clock unit 23. The clock unit 23 generates time information and gives it to the control unit 22. The control unit 22 can associate information such as a shooting time with the captured image.

制御部22には、通信制御部22bが設けられている。通信制御部22bは、制御部31の通信制御部32との間で情報の授受が可能である。通信制御部22bは通信制御部32を介して制御部31からの制御信号を受信すると、この制御信号を撮影制御部22aに与える。これにより、撮影制御部22aは、制御部31の制御信号に基づいて撮像部20の各部を制御する。また、通信制御部22bは、撮影制御部22aからの撮像画像を制御部31に送信することもできるようになっている。   The control unit 22 is provided with a communication control unit 22b. The communication control unit 22b can exchange information with the communication control unit 32 of the control unit 31. When the communication control unit 22b receives a control signal from the control unit 31 via the communication control unit 32, the communication control unit 22b gives the control signal to the imaging control unit 22a. Thereby, the imaging control unit 22 a controls each unit of the imaging unit 20 based on the control signal of the control unit 31. In addition, the communication control unit 22 b can also transmit the captured image from the shooting control unit 22 a to the control unit 31.

更に、本実施の形態においては、通信部24が設けられている。通信部24は、通信制御部22bに制御されて、外部の通信部(図示せず)との間で所定の伝送路を介して通信が可能である。伝送路としては、有線及び無線による各種伝送路、例えば、USB(Universal Serial Bus)ケーブルやWifi(Wireless Fidelity)等の無線LANの伝送路等を採用することができるようになっている。もちろん、ブルートゥースやNFCのような電波のものから、赤外通信まで様々な技術を使うことが出来る。通信制御部22bは、通信部24による通信を制御することができ、例えば、外部の通信部との間で通信が確立すると、撮影制御部22aが取得した撮像画像等の情報を外部に送信することができるようになっている。   Further, in the present embodiment, a communication unit 24 is provided. The communication unit 24 is controlled by the communication control unit 22b and can communicate with an external communication unit (not shown) via a predetermined transmission path. As the transmission path, various wired and wireless transmission paths, for example, a wireless LAN transmission path such as a USB (Universal Serial Bus) cable or WiFi (Wireless Fidelity) can be employed. Of course, various technologies can be used from radio waves such as Bluetooth and NFC to infrared communication. The communication control unit 22b can control communication by the communication unit 24. For example, when communication is established with an external communication unit, information such as a captured image acquired by the shooting control unit 22a is transmitted to the outside. Be able to.

画像処理装置10の通信部33は、通信部24と同様の構成であり、通信制御部32に制御されて、外部機器の通信部(図示せず)との間で所定の伝送路を介して通信が可能である。伝送路としては、有線及び無線による各種伝送路、例えば、USBケーブルやWifi等の無線LANの伝送路等、ブルートゥースやNFCのような電波のものから、赤外通信まで様々な技術を採用することができるようになっている。通信制御部32は、通信部33による通信を制御することができ、例えば、外部の通信部との間で通信が確立すると、外部の通信部から転送された撮像画像等の情報を制御部31に取り込むことができるようになっている。   The communication unit 33 of the image processing apparatus 10 has the same configuration as the communication unit 24, and is controlled by the communication control unit 32 to communicate with a communication unit (not shown) of an external device via a predetermined transmission path. Communication is possible. As the transmission path, various technologies such as wired and wireless transmission paths, for example, wireless LAN transmission paths such as USB cables and Wifi, etc., from radio waves such as Bluetooth and NFC, to infrared communication, etc. Can be done. The communication control unit 32 can control communication by the communication unit 33. For example, when communication is established with an external communication unit, the control unit 31 receives information such as a captured image transferred from the external communication unit. Can be imported.

本実施の形態においては、複数の撮影機器がそれぞれ撮影して得た複数の撮像画像を収集して組写真を生成するようになっており、画像処理装置10は、画像の収集、編集及び送信機能(以下、これらの機能をシェア処理機能という)を有していればよく撮像部20は省略可能である。なお、撮像部20は組写真の元となる撮像画像を取得する複数の撮影機器の1つとして機能することができる。   In the present embodiment, a plurality of captured images obtained by a plurality of photographing devices are collected to generate a combined photograph, and the image processing apparatus 10 collects, edits, and transmits images. The imaging unit 20 may be omitted as long as it has a function (hereinafter, these functions are referred to as a share processing function). Note that the imaging unit 20 can function as one of a plurality of imaging devices that acquire a captured image that is a source of a group photograph.

画像処理装置10には、操作部38が設けられている。操作部38は、撮像や画像処理を制御する各種の操作機構を含む。例えば、操作部38は、図示しないレリーズボタン、ファンクションボタン、撮像モード設定等の各種スイッチ、或いはタッチパネル等を含んでおり、操作部38に対するユーザ操作に基づく操作信号を発生して、制御部31に出力するようになっている。制御部31は、操作信号に基づいて、各部を制御する。   The image processing apparatus 10 is provided with an operation unit 38. The operation unit 38 includes various operation mechanisms that control imaging and image processing. For example, the operation unit 38 includes a release button, a function button, various switches such as an imaging mode setting (not shown), a touch panel, and the like, and generates an operation signal based on a user operation on the operation unit 38 to the control unit 31. It is designed to output. The control unit 31 controls each unit based on the operation signal.

制御部31は、通信制御部32によって、撮像部20からの撮像画像を取得すると共に、通信部33を介して図示しない外部の撮影機器から送信された撮像画像を取得する。リサイズ部36は、制御部31が取得した複数の撮像画像をリサイズして画像サイズを縮小する。画像合成部35は、リサイズされた複数の撮像画像を組み合わせて、1つの画像である組写真を生成する。リサイズ部36及び画像合成部35は、協働して動作し、撮像画像の枚数や人物の有無等に応じて、各撮像画像のサイズ、形状及び配置を適宜設定した組写真を生成することができるようになっている。   The control unit 31 uses the communication control unit 32 to acquire a captured image from the imaging unit 20 and also acquires a captured image transmitted from an external imaging device (not shown) via the communication unit 33. The resizing unit 36 resizes a plurality of captured images acquired by the control unit 31 to reduce the image size. The image composition unit 35 combines a plurality of resized captured images to generate a combined photograph that is one image. The resizing unit 36 and the image composition unit 35 operate in cooperation to generate a combined photograph in which the size, shape, and arrangement of each captured image are appropriately set according to the number of captured images, the presence or absence of a person, and the like. It can be done.

例えば、画像合成部35及びリサイズ部36は、予め設定された枚数、形状及びサイズの撮像画像により組写真を生成してもよく、組写真を構成する各撮像画像のサイズや位置等をユーザ操作に応じて設定するようにしてもよい。また、予め設定した人物が写っている撮像画像のサイズを他の撮像画像よりも大きくする等の設定も可能である。   For example, the image compositing unit 35 and the resizing unit 36 may generate a combined photograph from captured images having a preset number, shape, and size, and the user can change the size, position, and the like of each captured image constituting the combined photograph. You may make it set according to. It is also possible to make settings such as making the size of a captured image in which a preset person is captured larger than other captured images.

画像処理装置10には時計部40も設けられている。時計部40は時間情報を生成して制御部31に与える。制御部31は、撮像画像の撮影時間と画像を収集した時間とを管理することができるようになっている。   The image processing apparatus 10 is also provided with a clock unit 40. The clock unit 40 generates time information and gives it to the control unit 31. The control unit 31 can manage the shooting time of the captured image and the time when the image is collected.

例えば、制御部31は、収集した時間が所定の時間範囲内の撮像画像を組写真として用いる画像としてもよい。また、制御部31は、撮像した時間が所定の時間範囲内の撮像画像を組写真として用いる画像としても良い。更に、制御部31は、撮影された時間と収集された時間との差が所定の時間範囲内の撮像画像を組写真として用いる画像としてもよい。このような時間管理によって、制御部31は、組写真として用いる画像を自動的に選択することも可能である。   For example, the control part 31 is good also as an image which uses the captured image for which the collected time is in a predetermined time range as a group photograph. Moreover, the control part 31 is good also as an image which uses the captured image in the imaged time within the predetermined time range as a group photograph. Further, the control unit 31 may use, as a combined photograph, a captured image in which the difference between the captured time and the collected time is within a predetermined time range. By such time management, the control unit 31 can also automatically select an image to be used as a group photo.

制御部31は、収集した撮像画像及び生成した組写真を記録部39に与えて記録させることができる。この場合には、制御部31は、収集した撮像画像や組写真を圧縮処理し、圧縮後の画像を記録部39に与えて記録させることができる。記録部39としては、例えばカードインターフェースを採用することができ、記録部39はメモリカード等の記録媒体に画像情報及び音声情報等を記録可能である。   The control unit 31 can give the collected captured image and the generated combined photograph to the recording unit 39 for recording. In this case, the control unit 31 can compress the collected captured image or group photograph and give the compressed image to the recording unit 39 for recording. For example, a card interface can be adopted as the recording unit 39, and the recording unit 39 can record image information, audio information, and the like on a recording medium such as a memory card.

制御部31の表示制御部34は表示に関する各種処理を実行する。表示制御部34は、収集した撮像画像及び生成した組写真を表示部37に与えることができる。表示部37は、LCD等の表示画面を有しており、表示制御部34から与えられた画像を表示する。また、表示制御部34は、各種メニュー表示等をこれらの表示画面に表示させることもできるようになっている。   The display control unit 34 of the control unit 31 executes various processes related to display. The display control unit 34 can give the collected captured image and the generated combined photograph to the display unit 37. The display unit 37 has a display screen such as an LCD, and displays an image given from the display control unit 34. Further, the display control unit 34 can display various menu displays on these display screens.

なお、表示部37は、撮像画像を表示する表示画面を有している。また、表示画面上には、操作部38として図示しないタッチパネルも設けられていてもよい。タッチパネルは、ユーザが指で指し示した表示画面上の位置に応じた操作信号を発生することができる。この操作信号は、制御部31に供給される。これにより、制御部31は、ユーザが表示画面上をタッチしたりスライドさせたりした場合には、ユーザのタッチ位置、指を近接させたり離間させる操作、スライド操作やスライド操作によって到達した位置、スライド方向、タッチしている期間等の各種操作を検出することができ、ユーザ操作に対応した処理を実行することができるようになっている。   The display unit 37 has a display screen for displaying a captured image. Further, a touch panel (not shown) may be provided as the operation unit 38 on the display screen. The touch panel can generate an operation signal corresponding to the position on the display screen pointed by the user with a finger. This operation signal is supplied to the control unit 31. As a result, when the user touches or slides on the display screen, the control unit 31 touches the user, moves the finger closer or away, positions reached by the slide operation or slide operation, slide Various operations such as a direction and a touch period can be detected, and processing corresponding to a user operation can be executed.

なお、表示部37は、画像処理装置10の例えば背面の略全域を占めるように配設されており、撮影者は、撮像部20による撮影時に表示部37の表示画面上に表示されたスルー画を確認することができ、スルー画を確認しながら撮影操作を行うことができる。また、この表示部37の表示画面上には、組写真の生成時に必要な表示を行うこともでき、タッチパネルの操作によって組写真の生成のための作業を行うこともできるようになっている。   Note that the display unit 37 is disposed so as to occupy substantially the entire rear surface of the image processing apparatus 10, and the photographer can display a through image displayed on the display screen of the display unit 37 when the image capturing unit 20 captures the image. Can be confirmed, and shooting operations can be performed while checking through images. Further, on the display screen of the display unit 37, a display necessary for generating a group photo can be performed, and an operation for generating a group photo can be performed by operating a touch panel.

次にこのように構成された実施の形態の動作について図2乃至図8を参照して説明する。図2乃至図4は第1の実施の形態の利用形態を示す説明図であり、図5は第1の実施の形態の利用の時間経過を示す説明図である。また、図6は第1の実施の形態の動作フローを示すフローチャートであり、図7及び図8は画面表示の一例を示す説明図である。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIGS. 2 to 4 are explanatory diagrams showing the usage pattern of the first embodiment, and FIG. 5 is an explanatory diagram showing the passage of time of usage according to the first embodiment. FIG. 6 is a flowchart showing the operation flow of the first embodiment, and FIGS. 7 and 8 are explanatory diagrams showing examples of screen display.

本実施の形態における画像処理装置10は、デジタルカメラやスマートフォン等に組み込んで使用することができる。図2において、人物45〜47は、それぞれ手にコンパクトカメラ48、1眼レフカメラ49及びスマートフォン50を把持している。カメラ48,49及びスマートフォン50には、図1の画像処理装置10と同様の構成が組み込まれている。   The image processing apparatus 10 according to the present embodiment can be used by being incorporated in a digital camera, a smartphone, or the like. In FIG. 2, persons 45 to 47 hold the compact camera 48, the single-lens reflex camera 49, and the smartphone 50 in their hands, respectively. The cameras 48 and 49 and the smartphone 50 have the same configuration as that of the image processing apparatus 10 in FIG.

なお、本実施の形態は、複数の撮影機器によって取得した撮像画像を1つの画像処理装置10において収集するものであり、カメラ48,49及びスマートフォン50の全てに画像処理装置10が組み込まれている必要はなく、いずれか1つに画像処理装置10の撮像部20の機能を除くシェア処理機能が組み込まれていればよい。例えば、スマートフォン50がシェア処理機能を有する場合には、カメラ48,49は、撮像部20と同様の機能、即ち、撮影によって撮像画像を取得し、取得した撮像画像をシェアするために送受信する機能のみを備えていればよい。   In the present embodiment, captured images acquired by a plurality of photographing devices are collected by one image processing apparatus 10, and the image processing apparatus 10 is incorporated in all of the cameras 48 and 49 and the smartphone 50. There is no need, and any one of them may be incorporated with a share processing function excluding the function of the imaging unit 20 of the image processing apparatus 10. For example, when the smartphone 50 has a share processing function, the cameras 48 and 49 have the same function as the imaging unit 20, that is, a function of acquiring a captured image by shooting and transmitting and receiving the acquired captured image for sharing. Only need to have.

図2において、人物45はカメラ48によって所定の被写体を撮影し、人物46はカメラ49によって所定の被写体を撮影している。また、人物47はスマートフォン50の撮像部20(図1参照)によって、とんぼと草花の被写体52を撮影する。その後、図3のように各撮影結果を通信するが、ここでは、50の機器に集めて、これが組写真を作成するようにしている。図4は、そのときの組写真であるが、ここでは、なるべく、全員が写った方が、各人の不満が出ないので、人物の画像は大きめに表示し、だぶりのある人物画像は小さめにした。また、人物のいない画像は小さめにしている。もちろん、これ以外にも、出来映えの良い画像を主画像として大きく表示し、その他の画像を小さくしたり、最初に撮影したものを大きくしたり、時系列表示にしたり、様々なルールを設定可能としても、ゲーム性が高まり、撮影や画像のシェアが楽しくなる。1つの画像で表示されるので、比較や統合的な効果が高まり、画像の送信も楽に短時間で可能となる。   In FIG. 2, a person 45 shoots a predetermined subject with a camera 48, and a person 46 shoots a predetermined subject with a camera 49. In addition, the person 47 photographs the dragonfly and the flower subject 52 with the imaging unit 20 (see FIG. 1) of the smartphone 50. Thereafter, the respective photographing results are communicated as shown in FIG. 3, but here, they are collected in 50 devices to create a group photo. Fig. 4 shows the group photo at that time. Here, as much as possible, the person's dissatisfaction will not come out if everyone is shown. I made it. Also, images without people are made smaller. Of course, in addition to this, it is possible to set various rules, such as displaying a good-quality image as the main image, reducing the other images, increasing the size of the first shot, and displaying in time series. However, the game characteristics will be enhanced and shooting and image sharing will be fun. Since one image is displayed, comparison and integration effects are enhanced, and image transmission can be easily performed in a short time.

図5はこれらの人物45〜48による旅行中における、撮影の様子を時間の流れに沿って示している。旅行中の小イベントE1において、人物45は撮影P1を行い、人物46は2回の撮影P2,P3を行い、人物47は撮影P4を行う。また、旅行中の次の小イベントE2において、人物45は撮影P5〜P7を行い、人物46は撮影P8,P9を行い、人物47は撮影P10,P11を行う。つまり、何かイベントを行う都度、みんなで撮影をするので、個々のユーザが主体的に行動することが求められる。多くの場合、一人がカメラマンで、後の人は被写体にすぎず、撮影している人は、自分が写らないという不満があり、撮影される人は、全員が揃わないと撮影できないというように、時間的な制約が不満となることがあったが、このようなシステムや方法や装置によって、こうした不満を解消した新しい参加型の撮影が可能となる。各人が個々の携帯端末を有し、それが撮影機能を有している現在の状況では、こうした撮影方法の方がみんなで楽しめる。このような楽しみ方は、後述する図11のような撮影やシェア方法とは明らかに異なるものである。   FIG. 5 shows the state of shooting during travel by these persons 45 to 48 along the flow of time. In the traveling small event E1, the person 45 performs the shooting P1, the person 46 performs the two shootings P2 and P3, and the person 47 performs the shooting P4. In the next small event E2 during the trip, the person 45 performs the photographing P5 to P7, the person 46 performs the photographing P8 and P9, and the person 47 performs the photographing P10 and P11. In other words, every time an event is performed, everyone takes a picture, so individual users are required to act independently. In many cases, one person is a photographer, the next person is just a subject, the person who is shooting is dissatisfied with not being photographed, and the person being photographed can not shoot unless everyone is ready However, there are cases where time constraints are unsatisfactory, such a system, method, or apparatus enables new participatory photography that eliminates such dissatisfaction. In the current situation where each person has an individual mobile terminal, which has a shooting function, everyone can enjoy this shooting method. Such a way of enjoying is clearly different from the shooting and sharing method as shown in FIG.

本実施の形態においては、上述の状況に鑑み、これらのイベント毎の撮像画像を短時間で且つ簡単に、カメラ48,49及びスマートフォン50においてシェア可能とする。つまり、本発明の提案の技術によって、上述の楽しみ方を積極的に提案することが可能となる。従って、本発明は、このような複数の撮影装置からの撮影画像の受信と上記受信された撮影画像の撮影時刻に従って、組写真作成を作成するのにふさわしい撮影装置の使われ方のユースシーンを分析するユースシーン分析方法を提案したものとも言える。具体的には、参加者から画像を受け取って、ほぼ類似時刻に自分の撮った画像を比較してみたいような状況が当該ユースシーンに対応する。よって、撮影画像の撮影時刻と受信時の時刻などが重要な判断材料となる。   In the present embodiment, in view of the above-described situation, the cameras 48 and 49 and the smartphone 50 can share the captured images for each event in a short time and easily. In other words, the above-described way of enjoying can be actively proposed by the proposed technique of the present invention. Therefore, the present invention provides a use scene of how to use a photographing apparatus suitable for creating a group photo according to reception of photographed images from a plurality of photographing apparatuses and photographing times of the received photographed images. It can be said that it has proposed a use scene analysis method to analyze. Specifically, a situation in which an image is received from a participant and the user wants to compare images taken at approximately similar times corresponds to the use scene. Therefore, the shooting time of the captured image and the time of reception are important judgment materials.

画像を送ってくれた人だけが、組写真を受け取れるようにすれば、ギブアンドテークのコミュニティ的な運営も可能となる。バーチャルではなく、コンテンツを介在させた、撮影や鑑賞を通じて個々のメンバーの交流を促す、リアルなコミュニティ活動とも言える。そのためには、組写真を作成することのみならず、迅速、適切なシェアが重要であることは言うまでもない。   If only the person who sent the image can receive the group photo, the community management of give and take becomes possible. It can be said that it is a real community activity that encourages the exchange of individual members through photography and appreciation through content rather than virtual. To that end, it is needless to say that not only creating a group photo but also prompt and appropriate sharing is important.

ここで、カメラ48,49の表示部37の表示画面を表示画面61とし、スマートフォン50の表示部37の表示画面を表示画面37aとして、シェアの方法について説明する。   Here, the sharing method will be described with the display screen of the display unit 37 of the cameras 48 and 49 as the display screen 61 and the display screen of the display unit 37 of the smartphone 50 as the display screen 37a.

図6のフローは、画像処理装置10の処理を示している。画像処理装置10は、撮影モード、再生モード、送信モード、受信モード及び編集モードの各動作モードを有する。なお、シェアモード時には、撮像画像を取得する装置において、撮影又は再生モード、送信モード、受信モードが実行され、シェア処理機能を実行する装置においては、受信モード、編集モード及び送信モードが実行される。   The flow of FIG. 6 shows the processing of the image processing apparatus 10. The image processing apparatus 10 has operation modes of a shooting mode, a playback mode, a transmission mode, a reception mode, and an editing mode. In the share mode, the capture or playback mode, the transmission mode, and the reception mode are executed in the device that acquires the captured image, and the reception mode, the edit mode, and the transmission mode are executed in the device that executes the share processing function. .

図7は撮像画像を取得して送信する装置(カメラ48,49)における画面表示の例を示している。図7(a),(b)において、表示画面61には、撮像画像の表示領域62が設けられおり、表示画面61の端部には、操作のための各種ボタン表示61a〜61eが表示可能である。ユーザがボタン表示61a〜61eの表示位置をタッチすることで、各ボタン表示に設定されたモードへの切換えが可能である。   FIG. 7 shows an example of screen display in an apparatus (cameras 48 and 49) that acquires and transmits captured images. 7A and 7B, the display screen 61 is provided with a display area 62 for captured images, and various button displays 61a to 61e for operation can be displayed at the end of the display screen 61. It is. The user can switch to the mode set for each button display by touching the display positions of the button displays 61a to 61e.

図8はシェア処理機能を有する装置(スマートフォン50)における画面表示の例を示している。図8(a)〜(c)において、表示画面37aには、撮像画像の表示領域72が設けられおり、表示画面37aの端部には、操作のための各種ボタン表示71a〜71d,74a〜74d,75a〜75dが表示可能である。ユーザがこれらのボタン表示71a〜71d,74a〜74d,75a〜75dの表示位置をタッチすることで、各ボタン表示に設定されたモードへの切換えが可能である。   FIG. 8 shows an example of screen display in an apparatus (smart phone 50) having a share processing function. 8A to 8C, the display screen 37a is provided with a captured image display area 72, and various button displays 71a to 71d, 74a to 74a for operation are provided at the end of the display screen 37a. 74d, 75a to 75d can be displayed. When the user touches the display positions of these button displays 71a to 71d, 74a to 74d, and 75a to 75d, it is possible to switch to the mode set for each button display.

カメラ48,49及びスマートフォン50に組み込まれた画像処理装置10の制御部31は、ステップS1において、撮影モードが指定されているか否かを判定する。撮影モードが指定されると、カメラ48,49の表示画面61及びスマートフォン50の表示画面37aの表示領域62,72には、スルー画が表示される。   In step S1, the control unit 31 of the image processing apparatus 10 incorporated in the cameras 48 and 49 and the smartphone 50 determines whether or not a shooting mode is designated. When the shooting mode is designated, a through image is displayed on the display areas 61 and 72 of the display screen 61 of the cameras 48 and 49 and the display screen 37a of the smartphone 50.

人物45がカメラ48の表示画面61上のボタン表示61a上をタッチ操作することで、カメラ48において撮影が行われる。また、人物46がカメラ49の表示画面61上のボタン表示61a上をタッチ操作することで、カメラ49において撮影が行われる。同様に、人物47がスマートフォン50の表示画面71上のボタン表示71a上をタッチ操作することで、スマートフォン50において撮影が行われる(ステップS2)。   When the person 45 performs a touch operation on the button display 61 a on the display screen 61 of the camera 48, shooting is performed by the camera 48. Further, when the person 46 performs a touch operation on the button display 61 a on the display screen 61 of the camera 49, the camera 49 performs shooting. Similarly, when the person 47 performs a touch operation on the button display 71a on the display screen 71 of the smartphone 50, shooting is performed on the smartphone 50 (step S2).

これらの撮影操作によって、撮像素子21からの撮像画像は撮影制御部22aに取り込まれる。撮影制御部22aは、撮像画像に対して所定の画像信号処理を施した後、通信制御部22bを介して制御部31に送信する。制御部31は、受信した撮像画像を記録部39に与えて記録する(ステップS3)。   By these photographing operations, the captured image from the image sensor 21 is taken into the photographing control unit 22a. The imaging control unit 22a performs predetermined image signal processing on the captured image, and then transmits it to the control unit 31 via the communication control unit 22b. The control unit 31 gives the received captured image to the recording unit 39 and records it (step S3).

カメラ48,49及びスマートフォン50において、図5の各撮影P1〜P4が行われ、これらの撮影P1〜P4に基づく撮像画像がカメラ48,49及びスマートフォン50の記録部39に記録される。   In the cameras 48 and 49 and the smartphone 50, the respective photographings P1 to P4 in FIG. 5 are performed, and captured images based on these photographings P1 to P4 are recorded in the recording units 39 of the cameras 48 and 49 and the smartphone 50.

ここで、人物45〜47は、各人が撮影して取得した撮像画像を互いにシェアしようとするものとする。この場合には、カメラ48,49において、ボタン表示61cをタッチ操作する。これにより、ステップS4からステップS5に処理が移行し、カメラ48,49の表示画面61上の表示領域62に、それまでに撮影した撮像画像の一覧表示63が表示される(図7(b))。人物45,46は、この一覧表示63上の撮像画像から、シェアを希望する画像を選択する。ボタン表示61eがタッチ操作されると送信画像が決定し、選択された画像が送信される(ステップS5)。   Here, it is assumed that the persons 45 to 47 share the captured images acquired by each person with each other. In this case, the buttons 48c are touched on the cameras 48 and 49. As a result, the process proceeds from step S4 to step S5, and a list display 63 of the captured images captured so far is displayed in the display area 62 on the display screen 61 of the cameras 48 and 49 (FIG. 7B). ). The persons 45 and 46 select an image desired to be shared from the captured images on the list display 63. When the button display 61e is touched, a transmission image is determined and the selected image is transmitted (step S5).

一方、スマートフォン50においては、表示画面37a上のボタン表示71cをタッチ操作することで、画像の受信モードに移行する(ステップS15)。これにより、カメラ48,49の通信制御部22bとスマートフォン50中の通信制御部32は、通信部24,33を介して相互に通信が確立する。これにより、カメラ48,49は、ステップS5において取得した撮像画像のうち選択した画像を送信し、スマートフォン50は、ステップS15において受信モードに移行して、撮像部20からの撮像画像及びカメラ48,49から送信された撮像画像を収集する。なお、通信制御部22bは、未送信の撮像画像の全てを送信するようにしてもよい。   On the other hand, the smartphone 50 shifts to an image reception mode by touching the button display 71c on the display screen 37a (step S15). Thereby, the communication control unit 22b of the cameras 48 and 49 and the communication control unit 32 in the smartphone 50 establish communication with each other via the communication units 24 and 33. Thereby, the cameras 48 and 49 transmit the image selected from the captured images acquired in Step S5, and the smartphone 50 shifts to the reception mode in Step S15, and the captured images and the cameras 48, The captured image transmitted from 49 is collected. Note that the communication control unit 22b may transmit all of the non-transmitted captured images.

図3はこの通信作業の様子を示しており、人物45〜47は、カメラ48,49とスマートフォン50とを近接させて、図3の矢印に示すように、カメラ48,49が取得した撮像画像をスマートフォン50に転送する。なお、通信部24,33による伝送路によっては、カメラ48,49とスマートフォン50とを近接させる必要がない場合もあり、或いは有線接続する必要がある場合もある。   FIG. 3 shows the state of this communication work. The persons 45 to 47 bring the cameras 48 and 49 close to the smartphone 50 and the captured images acquired by the cameras 48 and 49 as indicated by arrows in FIG. Is transferred to the smartphone 50. Depending on the transmission path by the communication units 24 and 33, the cameras 48 and 49 and the smartphone 50 may not need to be close to each other, or may need to be connected by wire.

なお、図3の例では、カメラ48,49からスマートフォン50に対して同時に通信を行う例を示しているが、カメラ48,49は個別に画像転送を行ってもよい。例えば、カメラ48,49は、予め通信モードが設定されていれば、撮影の都度、自動的にスマートフォン50に対して画像を転送するように構成されていてもよい。   In addition, although the example of FIG. 3 shows an example in which the cameras 48 and 49 communicate with the smartphone 50 at the same time, the cameras 48 and 49 may perform image transfer individually. For example, the cameras 48 and 49 may be configured to automatically transfer an image to the smartphone 50 each time shooting is performed if the communication mode is set in advance.

また、撮影時に送信するだけでなく、再生時に送信するようにしてもよい。制御部31は、ステップS6において、再生モードが指示されたか否かを判定する。ボタン表示61bが操作されると再生モードに移行する。ステップS7では、ユーザが選択した画像の再生が領域62において行われる。画像の再生中において、ボタン表示61cが操作されると、処理がステップS8からステップS9に移行して、再生中の画像が送信される。制御部31は、ステップS10において次の画像選択の指示があった場合にはステップS7に処理を戻し、次の画像選択の指示がない場合にはステップS11において再生の終了が指示されたか否かを判定する。このように、撮像時及び再生時において、撮影によって取得した画像の転送が可能である。   Further, it may be transmitted at the time of reproduction as well as at the time of shooting. In step S6, the control unit 31 determines whether or not the reproduction mode is instructed. When the button display 61b is operated, the playback mode is entered. In step S 7, the image selected by the user is reproduced in the area 62. When the button display 61c is operated during image reproduction, the process proceeds from step S8 to step S9, and the image being reproduced is transmitted. If there is an instruction to select the next image in step S10, the control unit 31 returns the process to step S7, and if there is no instruction to select the next image, whether or not the end of reproduction has been instructed in step S11. Determine. As described above, it is possible to transfer an image acquired by photographing at the time of imaging and reproduction.

スマートフォン50の制御部31は、撮像部20からの撮像画像及びカメラ48,49からの撮像画像を、記録部39に記録する(ステップS16)。こうして、図5の通信C1の期間において、取得された撮像画像がスマートフォン50において収集される。   The control unit 31 of the smartphone 50 records the captured image from the imaging unit 20 and the captured images from the cameras 48 and 49 in the recording unit 39 (step S16). Thus, the acquired captured image is collected in the smartphone 50 during the period of the communication C1 of FIG.

スマートフォン50の制御部31は、カメラ48,49からの撮像画像を収集すると、ステップS20において編集モードへの移行が指示されたか否かを判定する。例えば、図8(a)に示す表示画面37aの表示ボタン71dをタッチ操作することで、編集モードに移行する。制御部31のリサイズ部36は、収集した撮像画像をリサイズし、画像合成部35はリサイズされた撮像画像を組み合わせて1枚の画像である組写真を生成する(ステップS21)。組写真の生成は、画像合成部35及びリサイズ部36によって自動的に行われてもよく、また、ユーザによる設定作業を受け付けながら、ユーザの指示に従って生成されるものであってもよい。   When collecting the captured images from the cameras 48 and 49, the control unit 31 of the smartphone 50 determines whether or not an instruction to shift to the edit mode is given in step S20. For example, a touch operation is performed on the display button 71d of the display screen 37a shown in FIG. The resizing unit 36 of the control unit 31 resizes the collected captured image, and the image composition unit 35 combines the resized captured images to generate a combined photograph that is one image (step S21). The combined photograph may be automatically generated by the image composition unit 35 and the resizing unit 36, or may be generated according to a user instruction while accepting a setting operation by the user.

例えば、制御部31は、編集モードに移行すると、図8(b)に示す表示を表示させてもよい。図8(b)においては、表示画面37a上の領域72に、収集された画像の一覧表示73を表示させた例を示している。ユーザが一覧表示73上の各撮像画像を選択することによって、組写真にする撮像画像を選択することが可能である。制御部31は、ユーザがボタン表示74bをタッチ操作すると次画面に移動して次の一覧表示を表示し、ボタン表示74cをタッチ操作すると前画面に移動して前の一覧表示を表示する。ユーザがボタン表示74dを選択すると、ユーザによって選択された画像によって、組写真が作成される。   For example, when the control unit 31 shifts to the edit mode, the control unit 31 may display the display illustrated in FIG. FIG. 8B shows an example in which a list display 73 of collected images is displayed in an area 72 on the display screen 37a. When the user selects each captured image on the list display 73, it is possible to select a captured image to be a group photograph. When the user touches the button display 74b, the control unit 31 moves to the next screen and displays the next list display. When the user touches the button display 74c, the control unit 31 moves to the previous screen and displays the previous list display. When the user selects the button display 74d, a group photo is created based on the image selected by the user.

図8(c)は組写真の作成画面を示している。表示画面37aの領域72には、作成された組写真が表示される(図示省略)。制御部31は、ユーザがボタン表示75cをタッチ操作すると、表示している組写真を確定し、ボタン表示75dをタッチ操作すると確定した組写真を送信する(ステップS22)。また、制御部31は、ユーザがボタン表示75bを選択すると、既に確定した別の組写真に切換えて表示し、ユーザがボタン表示75aを選択すると、表示している組写真を破棄して、図8(b)の表示に戻る。こうして、ユーザは、組写真を確定しながら順次送信することができる。   FIG. 8C shows a group photo creation screen. The created group photo is displayed in the area 72 of the display screen 37a (not shown). When the user performs a touch operation on the button display 75c, the control unit 31 confirms the displayed combined photograph, and transmits the confirmed combined photograph when the button display 75d is touched (Step S22). When the user selects the button display 75b, the control unit 31 switches to another set photograph that has already been confirmed and displays it. When the user selects the button display 75a, the control section 31 discards the displayed pair photograph, The display returns to 8 (b). In this way, the user can sequentially transmit the combined photograph while confirming the combined photograph.

カメラ48,49において、図7(a)のボタン表示61dをタッチ操作することで、組写真の受信が行われる。カメラ48,49は受信した組写真を表示することができる。こうして、カメラ48,49及びスマートフォン50において、組写真を表示して鑑賞することができる。   In the cameras 48 and 49, the group photo is received by touching the button display 61d shown in FIG. The cameras 48 and 49 can display the received group photo. In this way, the camera 48, 49 and the smartphone 50 can display and appreciate the group photo.

図4は鑑賞される組写真55、即ち、制御部31の画像合成部35によって生成された組写真55の一例を示している。組写真55中には、リサイズされた4枚の撮像画像56〜59が含まれる。撮像画像56には人物46を撮影して得られた画像46aが含まれ、撮像画像57にはとんぼの画像52aが含まれ、撮像画像58には人物46,47を撮影して得られた画像46b,47aが含まれ、撮像画像59には人物45を撮影して得られた画像45aが含まれている。   FIG. 4 shows an example of a group photo 55 to be appreciated, that is, a group photo 55 generated by the image composition unit 35 of the control unit 31. The group photo 55 includes four resized captured images 56 to 59. The captured image 56 includes an image 46 a obtained by photographing the person 46, the captured image 57 includes a dragonfly image 52 a, and the captured image 58 is an image obtained by photographing the persons 46 and 47. 46b and 47a are included, and the captured image 59 includes an image 45a obtained by photographing the person 45.

図5のシェアSH1は、スマートフォン50の撮影P4によって取得されて収集された撮像画像と、通信C1によって収集された撮像画像とに基づく組写真を生成する処理と、生成した組写真をカメラ48,49に送信する処理とを含んでいる。組写真は複数の撮像画像がリサイズされて生成されており、データ容量が比較的小さい。従って、シェアSH1に要する時間は比較的短い。複数の撮影機器によって取得した撮像画像を、シェア処理機能を有する1台の装置に収集して組写真を作成し、作成した組写真を複数の撮影機器に送信するようになっており、各機器が個々に収集して編集する場合に比べて、必要な送信回数を低減することができる。これにより、各撮影機器による撮影から比較的短時間で、各撮影機器において撮影して得た撮像画像の鑑賞が可能である。また、各画像から得られる情報によって、その場の雰囲気を総合的に判断したり、一括で見られるので、足りない写真などを即座に確認したりも出来る。   The share SH1 in FIG. 5 is a process for generating a combined photograph based on the captured image acquired and collected by the photographing P4 of the smartphone 50 and the captured image collected by the communication C1, and the generated combined photograph is transmitted to the camera 48, 49 to send to 49. A group photo is generated by resizing a plurality of captured images, and has a relatively small data capacity. Therefore, the time required for the share SH1 is relatively short. Collected images acquired by a plurality of photographing devices are collected in a single device having a share processing function to create a combined photograph, and the created combined photograph is transmitted to a plurality of photographing devices. The number of transmissions required can be reduced as compared with the case of collecting and editing individually. Accordingly, it is possible to appreciate the captured image obtained by photographing with each photographing device in a relatively short time after photographing with each photographing device. Also, based on the information obtained from each image, the atmosphere of the place can be judged comprehensively, and since it can be seen at a time, it is possible to immediately check for missing photos.

また、図5に示すように、小イベントE2において行われた撮影P5〜P11についても、通信C2によって収集が行われる。シェアSH2はこの通信C2によって収集された撮像画像、即ち、小イベントE2によって撮影された撮像画像による組写真の生成処理及び送信処理を含んでいる。シェアSH2においてリサイズ処理を伴う組写真が生成される点と、通信C2及びシェアSH2の送信処理の通信回数が少ない点から、小イベントE2の後の比較的短時間で鑑賞A2が可能となる。   Further, as shown in FIG. 5, the shootings P5 to P11 performed at the small event E2 are also collected by the communication C2. The share SH2 includes a group photograph generation process and a transmission process based on the captured image collected by the communication C2, that is, the captured image captured by the small event E2. The viewing A2 can be performed in a relatively short time after the small event E2, because a group photograph accompanied by the resizing process is generated in the share SH2 and the number of communication times of the transmission process of the communication C2 and the share SH2 is small.

なお、画像合成部35及びリサイズ部36は、ユーザによる作業を必要とすることなく、自動的に組写真を生成することもできる。例えば、画像合成部35は、撮像画像から規定の枚数を抽出して、自動的に組写真を生成してもよい。この場合には、例えば、図8(a)のボタン表示71dがタッチ操作されることで、図8(c)の表示に移行してもよい。   Note that the image compositing unit 35 and the resizing unit 36 can automatically generate a combined photograph without requiring any work by the user. For example, the image composition unit 35 may extract a prescribed number from the captured image and automatically generate a combined photograph. In this case, for example, the button display 71d in FIG. 8A may be touched to shift to the display in FIG.

例えば、画像合成部35は、収集した時間が所定の時間範囲内の撮像画像を抽出してもよい。例えば、直近の5分間に収集した撮像画像のみによって組写真を生成してもよい。或いは、画像合成部35は、撮像した時間が所定の時間範囲内の撮像画像を抽出してもよい。例えば、直近の10分間に撮影されて収集された撮像画像のみによって組写真を生成してもよい。更に、画像合成部35は、撮影された時間と収集された時間との関係に基づいて、撮像画像を選択してもよい。例えば、画像合成部35は、撮影された時間と収集された時間との差が所定の時間範囲にある画像のみによって組写真を生成してもよい。また、例えば、画像合成部35は、自機によって撮影して取得した撮像画像以外の、他機から受信して収集した撮像画像のみによって組写真を生成してもよい。   For example, the image composition unit 35 may extract a captured image within a predetermined time range of the collected time. For example, a group photo may be generated only from captured images collected in the last 5 minutes. Alternatively, the image composition unit 35 may extract a captured image in which a captured time is within a predetermined time range. For example, a group photo may be generated only from captured images that have been taken and collected during the last 10 minutes. Furthermore, the image composition unit 35 may select a captured image based on the relationship between the time taken and the time collected. For example, the image composition unit 35 may generate a combined photograph only with images in which the difference between the captured time and the collected time is within a predetermined time range. Further, for example, the image composition unit 35 may generate a combined photograph only with captured images received and collected from other devices other than the captured images acquired by capturing with the own device.

このように本実施の形態においては、所定のイベントにおいて複数の撮影機器によって撮影されて得た撮像画像を画像処理装置において収集し、収集した撮像画像を用いてリサイズ処理を伴う組写真を生成して各撮影機器に送り返すようになっている。これにより複数の撮影機器によって取得した撮像画像を互いにシェアする場合でも、少ない通信回数で且つ少ないデータ容量の通信を行えばよく、イベント後の比較的短時間に、各撮影機器においてシェアした画像の総合的、複合的鑑賞やチェックが可能である。   As described above, in the present embodiment, captured images obtained by a plurality of photographing devices in a predetermined event are collected by the image processing apparatus, and a combined photograph accompanied by resizing processing is generated using the collected captured images. Are sent back to each camera. As a result, even when the captured images acquired by a plurality of imaging devices are shared with each other, it is only necessary to perform communication with a small number of communications and a small data capacity. Comprehensive and complex appreciation and checking are possible.

図1の装置はユースシーンを分析する機能を有していない場合でも動作可能であるが、図1の装置の制御部31において、図13のようなユースシーン分析81方法を実現する機能を備えていてもよい。つまり、図13はこのユースシーン分析によって、組写真を作るか(ステップS34)どうかを決める時の一例を示すフローチャートである。これは、図6のステップS21で実行してもよい。また、ステップS16の後に実行してもよい。なお、組写真を作らない時には、アルバムを作る例(ステップS35)で説明してあるが、それに限るものではない。   The apparatus of FIG. 1 can operate even when it does not have a function for analyzing a use scene. However, the control unit 31 of the apparatus of FIG. 1 has a function for realizing a use scene analysis 81 method as shown in FIG. It may be. That is, FIG. 13 is a flowchart showing an example of determining whether to make a group photo (step S34) by this use scene analysis. This may be executed in step S21 of FIG. Moreover, you may perform after step S16. In addition, when not creating a group photo, the example of creating an album (step S35) has been described, but the present invention is not limited to this.

例えば制御部31の有するユースシーン分析部(図示しておらず、構成部材は、ハードでもソフトでも良い)は、ステップS31において、ユーザ操作に基づいてアルバム期間を設定する。アルバム期間は、組写真生成又はアルバム化に用いる撮像画像の撮影期間を指定するものである。例えば、特定時間内に撮影された撮像画像を用いる等の設定が可能である。特定期間は図5のように送受信が行われる時点を基準としても良い。   For example, the use scene analysis unit (not shown, the component may be hardware or software) of the control unit 31 sets the album period based on the user operation in step S31. The album period designates the shooting period of the captured image used for generating a group photo or creating an album. For example, settings such as using a captured image taken within a specific time can be made. The specific period may be based on the time when transmission / reception is performed as shown in FIG.

ユースシーン分析部は、ステップS32において、この期間が閾値よりも小さいか否かを判定する(ステップS33)。例えば、ユースシーン分析部は、アルバム期間内の最も早く撮影された撮像画像の撮影時間と最も収集が早く行われた撮像画像についての撮影時間との差を求める。あるいは、前回通信時の後撮影された画像の撮影時間を使っても良い。この差が所定の閾値よりも小さい場合には、ユースシーン分析部は、撮像後の比較的短時間に撮像画像の鑑賞を楽しみたいとユーザが考えているユースシーンであると判定して、画像合成部35及びリサイズ部36に組写真の生成を指示する。また、差が所定の閾値以上である場合には、ユースシーン分析部は、撮像後の比較的短時間に撮像画像の鑑賞を楽しみたいとユーザが考えていないユースシーンであると判定して、画像合成部35に撮像画像のアルバム化を指示する。また、この組写真の生成又はアルバムの生成を決定するためのユースシーン分析条件の中に、画像の枚数などを入れてもよい。多すぎると組写真にすると小さくなりすぎてしまうし、少なすぎると多様性がなくなる。   In step S32, the use scene analysis unit determines whether or not this period is smaller than a threshold value (step S33). For example, the use scene analysis unit obtains a difference between the shooting time of the captured image taken earliest in the album period and the shooting time of the captured image taken the earliest. Or you may use the imaging time of the image image | photographed after the last communication. When this difference is smaller than a predetermined threshold, the use scene analysis unit determines that the use scene that the user wants to enjoy viewing the captured image in a relatively short time after imaging is performed, The composition unit 35 and the resizing unit 36 are instructed to generate a combined photograph. When the difference is equal to or greater than a predetermined threshold, the use scene analysis unit determines that the use scene is not used by the user for enjoying the appreciation of the captured image in a relatively short time after imaging. The image compositing unit 35 is instructed to album the captured image. In addition, the number of images may be included in the use scene analysis conditions for determining the generation of the group photo or the generation of the album. If it is too much, it will be too small if it is a group photo, and if it is too little, diversity will be lost.

なお、図13の例では、アルバム期間及び撮影時間と収集時間との差に基づいてユースシーンの判定を行ったが、各機器が自動的に選択して送信した画像や、各機器でユーザが選択して送信した画像の撮影時間と収集時間との差のみに基づいてユースシーンを判定してもよい。当然、機器を指定して組写真としてもよく、特定枚数で決めてもよく、GPS搭載のカメラを前提として、場所でグルーピングするなどを併用してもよい。また、例えば、ユースシーン分析部は、アルバム期間の開始時又は終了時と、収集時間との差が所定の閾値よりも小さい場合に、組写真を生成すべきユースシーンであると判定してもよい。また、手動でユースシーンを設定してもよく、クイズやゲームのお題によって、撮影を促し、それに応じてユースシーンが設定されるようにしても良い。お題に即したものを画像判定などでカメラが自動選択しても良い。この場合は、撮影前、あるいは通信前にお題などを通信でカメラが取得しておく必要がある。もちろん、カメラの記録部から、スマホが勝手に適当な画像を検索して取り出す方式でも良い。   In the example of FIG. 13, the use scene is determined based on the album period and the difference between the shooting time and the collection time. However, the images automatically selected and transmitted by each device, and the user at each device The use scene may be determined based only on the difference between the shooting time and the collection time of the selected and transmitted image. Of course, it may be a group photo by designating a device, may be determined by a specific number, or may be used together with grouping at a location on the premise of a GPS-equipped camera. Also, for example, the use scene analysis unit may determine that the use scene is to generate a group photo when the difference between the start or end of the album period and the collection time is smaller than a predetermined threshold. Good. Alternatively, the use scene may be set manually, or shooting may be encouraged depending on the theme of the quiz or game, and the use scene may be set accordingly. The camera may automatically select the one that suits the theme by image judgment or the like. In this case, it is necessary for the camera to acquire a subject or the like before communication or before communication. Of course, a method may be used in which a smartphone searches and retrieves an appropriate image from the recording unit of the camera.

また、ユースシーン分析部は、ユースシーンを判定するものと説明したが、ユースシーン分析部81の分析結果を利用して、組写真又はアルバムに用いる撮像画像を設定するようにしてもよい。つまり、ここでは、他の撮影装置からの撮影画像の受信と上記受信された撮影画像の撮影時刻に従って、組写真作成を作成するのにふさわしい撮影装置の使われ方のユースシーンを分析するユースシーン分析方法や分析装置、システム、プログラムなどが提供可能な事を説明している。指定された時刻からとか、指定された時間内とか、その期間内に集まった画像の内容(分類結果)や、通信がなされた機器の特徴とかも考慮して分析をしても良い。例えば、通信相手が特定の機器であって、受信した機器側も撮影結果を持っていて、それが特定の関係にあるかなどで分析が可能となる。一例で言えば、相手機器から送られた画像に自分の顔があって、自分の機器に相手の顔の画像がある場合などは、顔の検出技術で判定可能であり、このようなユースシーン分析条件を満たすと組写真にしてもよい。卒業写真などでも利用される方法であるが、同じ画像内で完結して勢揃いすることが重要なシーンでは、組写真に好適なユースシーンと考えてもよい。つまり、この場合、特定のユースシーン分析条件をあらかじめ保持しておき、複数の機器からの受信画像を判定して、勢揃いが検出されると組写真とする。しかし、一対一の送受信関係では、交換するだけになるので、通信相手が複数、しかも多くある方が効果的になることは言うまでもない。通信と撮影が交互に行われるようなシーンを組写真にふさわしいユースシーンと考えてもよい。また、例えば、複数の機器をID等によって判定可能にして、ユースシーン分析条件によって指定したIDの撮影機器の全てから画像を受信した場合に、組写真を生成するようにしてもよい。また例えば、所定の時間内に、規定数以上の撮影機器から画像を受信することを組写真生成のためのユースシーン分析条件としてもよい。また、例えば、画像に含まれる人物を特定し、ユースシーン分析条件によって指定した特定の複数の人物の全ての画像部分を含む画像が収集された場合に、組写真を生成するようにしてもよい。   In addition, although the use scene analysis unit has been described as determining use scenes, the analysis result of the use scene analysis unit 81 may be used to set a captured image to be used for a group photo or an album. In other words, here, a use scene that analyzes the use scene of how to use a photographing device suitable for creating a group photo according to the reception of a photographed image from another photographing device and the photographing time of the received photographed image. Explains that analysis methods, analysis devices, systems, and programs can be provided. The analysis may be performed in consideration of the designated time, the designated time, the contents of the images collected during the period (classification result), and the characteristics of the device with which communication was performed. For example, it is possible to analyze whether the communication partner is a specific device, and the received device side also has a photographing result and is in a specific relationship. For example, if your face is in the image sent from the other device, and there is an image of the other person's face on your device, you can use face detection technology to determine such a use scene. If the analysis condition is satisfied, a group photo may be used. Although this method is also used for graduation photos, etc., it may be considered as a use scene suitable for a group photo in a scene where it is important to complete and gather in the same image. In other words, in this case, specific use scene analysis conditions are held in advance, and images received from a plurality of devices are determined. However, in a one-to-one transmission / reception relationship, since only exchange is performed, it goes without saying that a plurality of communication partners and a large number of communication partners are more effective. A scene where communication and shooting are performed alternately may be considered as a use scene suitable for a group photo. Further, for example, a group photo may be generated when a plurality of devices can be determined based on IDs or the like and images are received from all of the imaging devices having IDs specified by use scene analysis conditions. Further, for example, it may be set as a use scene analysis condition for generating a set photograph that a predetermined number of images are received from a predetermined number or more of photographing devices. Further, for example, when a person included in an image is specified and an image including all image parts of a plurality of specific persons specified by use scene analysis conditions is collected, a group photo may be generated. .

1つの機器に複数画像を通信で集めて、これが組写真を作成するようにしているが、画像配置にもいろいろな応用が可能である。例えば、人物の画像は大きめに表示し、だぶりのある人物画像は小さめにする。また、人物のいない画像は小さめにしている。もちろん、人物の顔が大きすぎると恥ずかしいので、逆でも良い。これ以外にも、出来映えの良い画像を主画像として大きく表示し、その他の画像を小さくしたり、最初に撮影したものを大きくしたり、時系列表示にしたり、様々なルールを設定可能としても、ゲーム性が高まり、撮影や画像のシェアが楽しくなる。1つの画像で表示されるので、比較や統合的な効果が高まり、画像の送信も楽に短時間で可能となる。   A plurality of images are collected by communication on one device, and this is used to create a combined photograph. However, various applications are possible for image arrangement. For example, the image of a person is displayed larger, and the person image with a blur is made smaller. Also, images without people are made smaller. Of course, if the person's face is too big, it's embarrassing, so the reverse is also possible. In addition to this, it is possible to set a variety of rules such as displaying a good-quality image as the main image, reducing the other images, increasing the first taken image, displaying in time series, etc. Game nature will be enhanced, and shooting and image sharing will be fun. Since one image is displayed, comparison and integration effects are enhanced, and image transmission can be easily performed in a short time.

画像処理装置10のシェア処理機能は、ハードウェアによって実現することもでき、また、ソフトウェア処理によって実現することも可能である。例えば、シェア処理機能を記述したアプリケーションプログラムをデジタルカメラやスマートフォン等に読み込ませて実行させることにより、簡単にシェア処理機能を実現することができる。例えば、催し物等において、各人が撮影した撮像画像を、シェア処理機能を有する機器において収集することで、各人が撮影した画像を各人の機器において組写真により簡単に且つ短時間にシェアすることができる。   The share processing function of the image processing apparatus 10 can be realized by hardware or can be realized by software processing. For example, the share processing function can be easily realized by reading and executing an application program describing the share processing function in a digital camera, a smartphone, or the like. For example, in an event or the like, by collecting captured images taken by each person on a device having a share processing function, the images taken by each person can be easily and quickly shared by a group photo on each person's device. be able to.

(第2の実施の形態)
図9は本発明の第2の実施の形態を示すブロック図である。図9において図1と同一の構成要素には同一符号を付して説明を省略する。本実施の形態は、画像処理装置として、撮像部を省略したスマートフォン80を採用すると共に、撮像部としてレンズ型カメラ90を採用した例を示している。図10は図9の外観を示す説明図である。図10(a)はスマートフォンの前面側を示し、図10(b)はスマートフォンの背面側を示している。
(Second Embodiment)
FIG. 9 is a block diagram showing a second embodiment of the present invention. In FIG. 9, the same components as those of FIG. The present embodiment shows an example in which a smartphone 80 in which an imaging unit is omitted is adopted as an image processing apparatus, and a lens-type camera 90 is adopted as an imaging unit. FIG. 10 is an explanatory view showing the appearance of FIG. FIG. 10A shows the front side of the smartphone, and FIG. 10B shows the back side of the smartphone.

ところで、家族旅行等においても、複数台のカメラにより撮影が行われることがある。しかし、家族旅行等の場合には、自宅に帰った後鑑賞すればよいことが多く、短時間にシェアする必要がないことがある。この場合には、リサイズ処理を行う組写真よりも、撮像した画像の順番を整理するアルバム化による鑑賞の方が好ましいことがある。   By the way, in family trips and the like, photographing may be performed by a plurality of cameras. However, in the case of a family trip or the like, there are many cases where it is only necessary to watch after returning home, and it may not be necessary to share in a short time. In this case, it may be preferable to view the album by arranging the order of the captured images, rather than the group photo that is resized.

図11はこのようなアルバム化による鑑賞が好ましいユースシーンを示す説明図である。図11は父、母及び子1,2の4人家族による家族旅行中における、撮影の様子を時間の流れに沿って示している。旅行中のイベントとして、移動、動物園、食事、移動があり、帰宅後には家族による団らんがある。各イベントにおいて、父母による子1のみ、子2のみ又は子1,2の両方の撮影が行われることを示している。そして、帰宅後において、父と母によって旅行中に撮影された全ての撮像画像がアルバム化され、テレビジョン受信機等をモニタにした鑑賞が行われる。   FIG. 11 is an explanatory view showing a use scene in which appreciation by such an album is preferable. FIG. 11 shows a state of photographing along a time flow during a family trip by a family of four of father, mother, and children 1 and 2. Traveling events include travel, zoo, meals, and travel, and family members get together after returning home. In each event, it is shown that photographing of only the child 1, only the child 2, or both the children 1 and 2 is performed by the parents. After returning home, all the captured images taken during the trip by the father and mother are made into an album, and viewing is performed using a television receiver or the like as a monitor.

このように、家族旅行等の場合には、帰宅後に鑑賞が行われことが多く、各イベントの途中において鑑賞が行われないことがある。そこで、本実施の形態におけるスマートフォン80には、組写真を生成するか、アルバムを生成するかを決定するためのユースシーン分析部81が設けられている。   Thus, in the case of a family trip or the like, appreciation is often performed after returning home, and appreciation may not be performed in the middle of each event. Therefore, the smartphone 80 according to the present embodiment is provided with a use scene analysis unit 81 for determining whether to generate a group photo or an album.

図9において、撮影機器91,92は、レンズ型カメラ90と同様の機能を有する。レンズ型カメラ90及び各撮影機器91,92には通信部24が設けられ、スマートフォン80には通信部33が設けられており、レンズ型カメラ90及び各撮影機器91,92とスマートフォン80とは、これらの通信部24,33を介して相互に通信可能に構成されている。   In FIG. 9, photographing devices 91 and 92 have the same functions as the lens-type camera 90. The lens-type camera 90 and each of the photographing devices 91 and 92 are provided with a communication unit 24, and the smartphone 80 is provided with a communication unit 33. The lens-type camera 90 and each of the photographing devices 91 and 92 and the smartphone 80 are The communication units 24 and 33 are configured to be able to communicate with each other.

図10(a),(b)に示すように、スマートフォン80の筐体80aには取り付け器具85が着脱自在に取り付けられるようになっており、取り付け器具85にはレンズ型カメラ90を取り付けるための取付部86が設けられている。レンズ型カメラ90は基端側に取付部90aが設けられており、この取付部90aを取り付け器具85の取付部86に、嵌込み又はねじ込み等によって取り付け可能に構成されている。   As shown in FIGS. 10A and 10B, an attachment device 85 is detachably attached to the housing 80 a of the smartphone 80, and the attachment device 85 is for attaching the lens type camera 90. A mounting portion 86 is provided. The lens-type camera 90 is provided with a mounting portion 90a on the base end side, and the mounting portion 90a can be attached to the mounting portion 86 of the mounting device 85 by fitting or screwing.

レンズ型カメラ90の鏡筒95には、レンズ96を含む光学系が設けられており、この光学系を介して撮像素子21に被写体の光学像が入射するようになっている。なお、鏡筒95内にはピント合わせによりフォーカス(合焦)状態に設定するために可動されるフォーカスレンズやフォーカス状態で変倍するズームレンズ等が設けられている。また、鏡筒95内には、これらのレンズ及び絞りを駆動する図示しない機構部も構成されている。制御部22は鏡筒95内のフォーカスレンズ、ズームレンズ及び絞り等を駆動制御することができるようになっている。   The lens barrel 95 of the lens-type camera 90 is provided with an optical system including a lens 96, and an optical image of a subject is incident on the image pickup device 21 via the optical system. The lens barrel 95 is provided with a focus lens that is movable to set a focus (in-focus) state by focusing, a zoom lens that changes magnification in the focus state, and the like. The lens barrel 95 also includes a mechanism (not shown) that drives these lenses and the diaphragm. The control unit 22 can drive and control the focus lens, zoom lens, diaphragm, and the like in the lens barrel 95.

また、レンズ型カメラ90には、ユーザによる撮影に関するパラメータ、例えば、ピント、ズームや絞りに関するパラメータの設定操作のために、操作リング等の操作部97が設けられている。制御部22は、操作部97に対するユーザ操作を検出して検出結果に基づく制御を行うことができるようになっている。また、制御部22は、スマートフォン80からの信号に基づいて、レンズ型カメラ90の各部を制御することもできるようになっている。   In addition, the lens-type camera 90 is provided with an operation unit 97 such as an operation ring for setting operation of parameters relating to shooting by the user, for example, parameters relating to focus, zoom, and aperture. The control unit 22 can detect a user operation on the operation unit 97 and perform control based on the detection result. Further, the control unit 22 can control each unit of the lens-type camera 90 based on a signal from the smartphone 80.

スマートフォン80の筐体80aの背面には、表示部37の表示画面37aが設けられる。図10(b)では表示画面37a上にスルー画88が表示されている様子を示している。また、表示画面37aには、操作部38として機能するタッチパネル37bが配設されている。スマートフォン80は、タッチパネル37bの操作に基づいて、レンズ型カメラ90の撮像及び画像通信を制御することができるようになっている。なお、スマートフォン80は、撮影者を撮影するインカメラ89を内蔵していてもよい。   A display screen 37 a of the display unit 37 is provided on the back surface of the housing 80 a of the smartphone 80. FIG. 10B shows a state in which a through image 88 is displayed on the display screen 37a. In addition, a touch panel 37b that functions as the operation unit 38 is disposed on the display screen 37a. The smartphone 80 can control the imaging and image communication of the lens-type camera 90 based on the operation of the touch panel 37b. Note that the smartphone 80 may incorporate an in-camera 89 that photographs the photographer.

撮影機器91,92としては、例えば図12の説明図に示すように、無線機能を有する一般的なデジタルカメラを採用することができる。撮影機器91,92の筐体100には鏡筒101が設けられており、撮影機器91,92は、筐体100内のレンズを介して撮像素子21に入射した被写体光学像に基づく撮像画像を取得する。   As the photographing devices 91 and 92, for example, as shown in the explanatory diagram of FIG. 12, a general digital camera having a wireless function can be employed. The casing 100 of the photographing devices 91 and 92 is provided with a lens barrel 101, and the photographing devices 91 and 92 capture a captured image based on the subject optical image incident on the imaging element 21 via the lens in the casing 100. get.

レンズ型カメラ90及び撮影機器91,92の通信制御部22bは、撮像画像の送信時には、当該撮像画像の撮影時の時間情報を含めて送信することができるようになっている。スマートフォン80にはユースシーン分析部81が設けられている。ユースシーン分析部81は、収集する各撮像画像毎に、撮影時間の情報を管理する。また、ユースシーン分析部81は、通信制御部32によって収集された撮像画像の収集時間についての情報も管理するようになっている。   The lens-type camera 90 and the communication control unit 22b of the photographing devices 91 and 92 can transmit the captured image including time information at the time of capturing the captured image. The smartphone 80 is provided with a use scene analysis unit 81. The use scene analysis unit 81 manages shooting time information for each captured image to be collected. The use scene analysis unit 81 also manages information about the collection time of the captured image collected by the communication control unit 32.

ユースシーン分析部81は、複数の撮影機器によって取得した撮影画像を、短時間にシェアした方が好ましいユースシーンであるか否かを判定する。ユースシーン分析部81は、短時間にシェアすべきと判定した場合には、収集した撮像画像を用いて組写真を生成して各撮影機器に送信し、短時間にシェアする必要がないと判定した場合には、収集した撮像画像をアルバム化するように、画像合成部35及びリサイズ部36を制御するようにしてもよい。   The use scene analysis unit 81 determines whether or not a captured scene acquired by a plurality of imaging devices is a use scene that is preferably shared in a short time. When it is determined that the use scene analysis unit 81 should be shared in a short time, a combined photograph is generated using the collected captured images and transmitted to each photographing device, and it is determined that it is not necessary to share in a short time In this case, the image composition unit 35 and the resizing unit 36 may be controlled so that the collected captured images are made into an album.

図13はユースシーン分析部81の分析方法の一例を示すフローチャートである。   FIG. 13 is a flowchart showing an example of an analysis method of the use scene analysis unit 81.

ユースシーン分析部81は、ステップS31において、ユーザ操作に基づいてアルバム期間を設定する。アルバム期間は、組写真生成又はアルバム化に用いる撮像画像の撮影期間を指定するものである。例えば、12時00分から12時05分までに撮影された撮像画像を用いる等の設定が可能である。   In step S31, the use scene analysis unit 81 sets an album period based on a user operation. The album period designates the shooting period of the captured image used for generating a group photo or creating an album. For example, it is possible to use settings such as using captured images taken from 12:00 to 12:05.

ユースシーン分析部81は、ステップS32において、アルバム期間内の撮像画像について、撮影時間と収集時間との差を求め、この差が閾値よりも小さいか否かを判定する(ステップS33)。例えば、ユースシーン分析部81は、アルバム期間内の最も早く撮影された撮像画像の撮影時間と最も収集が早く行われた撮像画像についての撮影時間との差を求める。この差が所定の閾値よりも小さい場合には、ユースシーン分析部81は、撮像後の比較的短時間に撮像画像の鑑賞を楽しみたいとユーザが考えているユースシーンであると判定して、画像合成部35及びリサイズ部36に組写真の生成を指示する。また、差が所定の閾値以上である場合には、ユースシーン分析部81は、撮像後の比較的短時間に撮像画像の鑑賞を楽しみたいとユーザが考えていないユースシーンであると判定して、画像合成部35に撮像画像のアルバム化を指示する。   In step S32, the use scene analysis unit 81 obtains the difference between the shooting time and the collection time for the captured images in the album period, and determines whether this difference is smaller than the threshold (step S33). For example, the use scene analysis unit 81 obtains the difference between the shooting time of the captured image captured earliest in the album period and the shooting time of the captured image acquired the earliest. When this difference is smaller than a predetermined threshold, the use scene analysis unit 81 determines that the use scene is considered to be a use scene that the user wants to enjoy watching the captured image in a relatively short time after the imaging, It instructs the image composition unit 35 and the resizing unit 36 to generate a combined photograph. If the difference is equal to or greater than a predetermined threshold, the use scene analysis unit 81 determines that the use scene is not used by the user for enjoying the appreciation of the captured image in a relatively short time after the image capturing. Then, the image compositing unit 35 is instructed to album the captured image.

なお、図13の例では、アルバム期間及び撮影時間と収集時間との差に基づいてユースシーンの判定を行ったが、撮影時間と収集時間との差のみに基づいてユースシーンを判定してもよい。当然、機器を指定して組写真としてもよく、特定枚数で決めてもよく、GPS搭載のカメラを前提として、場所でグルーピングするなどを併用してもよい。また、例えば、ユースシーン分析部81は、アルバム期間の開始時又は終了時と、収集時間との差が所定の閾値よりも小さい場合に、組写真を生成すべきユースシーンであると判定してもよい。また、手動でユースシーンを設定してもよく、クイズやゲームのお題によって、撮影を促し、それに応じてユースシーンが設定されるようにしても良い。   In the example of FIG. 13, the use scene is determined based on the album period and the difference between the shooting time and the collection time. However, the use scene may be determined based only on the difference between the shooting time and the collection time. Good. Of course, it may be a group photo by designating a device, may be determined by a specific number, or may be used together with grouping at a location on the premise of a GPS-equipped camera. In addition, for example, the use scene analysis unit 81 determines that it is a use scene for which a group photo should be generated when the difference between the start or end of the album period and the collection time is smaller than a predetermined threshold. Also good. Alternatively, the use scene may be set manually, or shooting may be encouraged depending on the theme of the quiz or game, and the use scene may be set accordingly.

また、ユースシーン分析部81は、ユースシーンを判定するものと説明したが、ユースシーン分析部81の分析結果を利用して、組写真又はアルバムに用いる撮像画像を設定するようにしてもよい。つまり、ここでは、他の撮影装置からの撮影画像の受信と上記受信された撮影画像の撮影時刻に従って、組写真作成を作成するのにふさわしい撮影装置の使われ方のユースシーンを分析するユースシーン分析方法や分析装置、システム、プログラムなどを説明している。指定された時刻からとか、指定された時間内とか、その期間内に集まった画像の内容(分類結果)や、通信がなされた機器の特徴とかも考慮して分析をしても良い。例えば、通信相手が特定の機器であって、受信した機器側も撮影結果を持っていて、それが特定の関係にあるかなどで分析が可能となる。一例で言えば、相手機器から送られた画像に自分の顔があって、自分の機器に相手の顔の画像がある場合などは、顔の検出技術で判定可能であり、このユースシーン分析条件を満たすと組写真にしてもよい。しかし、一対一の送受信関係では、交換するだけになるので、通信相手が複数、しかも多くある方が効果的になることは言うまでもない。   In addition, although the use scene analysis unit 81 has been described as determining use scenes, a captured image used for a group photo or an album may be set using the analysis result of the use scene analysis unit 81. In other words, here, a use scene that analyzes the use scene of how to use a photographing device suitable for creating a group photo according to the reception of a photographed image from another photographing device and the photographing time of the received photographed image. Explains analysis methods, analysis devices, systems, and programs. The analysis may be performed in consideration of the designated time, the designated time, the contents of the images collected during the period (classification result), and the characteristics of the device with which communication was performed. For example, it is possible to analyze whether the communication partner is a specific device, and the received device side also has a photographing result and is in a specific relationship. For example, if your face is in the image sent from the partner device and your partner device has an image of the partner's face, it can be determined using face detection technology. If it satisfies, you may make a group photo. However, in a one-to-one transmission / reception relationship, since only exchange is performed, it goes without saying that a plurality of communication partners and a large number of communication partners are more effective.

また、卒業写真などでも利用される方法であるが、同じ画像内で完結して勢揃いすることが重要なシーンでは、組写真に好適なユースシーンと考えてもよい。つまり、この場合、特定のユースシーン分析条件をあらかじめ保持しておき、複数機器からの受信画像を判定して、勢揃いが検出されると組写真とする。しかし、一対一の送受信関係では、交換するだけになるので、通信相手が複数、しかも多くある方が効果的になることは言うまでもない。通信と撮影が交互に行われるようなシーンを組写真にふさわしいユースシーンと考えてもよい。   Moreover, although this method is also used for graduation photos, etc., it may be considered a use scene suitable for a group photo in a scene where it is important to complete and gather in the same image. That is, in this case, specific use scene analysis conditions are held in advance, and received images from a plurality of devices are determined. However, in a one-to-one transmission / reception relationship, since only exchange is performed, it goes without saying that a plurality of communication partners and a large number of communication partners are more effective. A scene where communication and shooting are performed alternately may be considered as a use scene suitable for a group photo.

例えば、ユースシーン分析部81は、アルバム期間中の撮像画像であって、撮影時間と収集時間との差が所定の閾値よりも小さい画像を組写真に用いる画像としてもよい。また、例えば、ユースシーン分析部81は、アルバム期間の開始時又は終了時と、収集した撮像画像の収集時間との差が所定の閾値よりも小さい画像を組写真に用いる画像としてもよい。   For example, the use scene analysis unit 81 may use an image that is a captured image during the album period and that has a difference between the shooting time and the collection time that is smaller than a predetermined threshold as a combined photo. Further, for example, the use scene analysis unit 81 may use an image in which the difference between the start time or end time of the album period and the collection time of the collected captured images is smaller than a predetermined threshold value for the combined photograph.

次に、図14及び図15を参照してこのように構成された実施の形態の動作について説明する。図14はレンズ型カメラ90におけるカメラ制御とスマートフォン80の制御とを説明するためのフローチャートである。なお、図14において、レンズ型カメラ90のカメラ制御フローとスマートフォン80の制御フローとの間を結ぶ矢印は、処理によって通信が行われることを示している。図15は第2の実施の形態における画面表示例を示す説明図である。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. FIG. 14 is a flowchart for explaining camera control in the lens-type camera 90 and control of the smartphone 80. In FIG. 14, an arrow connecting the camera control flow of the lens-type camera 90 and the control flow of the smartphone 80 indicates that communication is performed by processing. FIG. 15 is an explanatory diagram illustrating a screen display example according to the second embodiment.

レンズ型カメラ90の制御部22は、ステップS41において、電源が投入されたか否かを判定する。制御部22は、電源が投入されると、通信待機状態となり(ステップS42)、スルー画を取得する(ステップS43)。即ち、制御部22は撮像素子21を駆動して被写体を撮像させる。撮像素子21によって得られた撮像画像は制御部22によって取り込まれてスルー画が得られる。   In step S41, the control unit 22 of the lens type camera 90 determines whether or not the power is turned on. When the power is turned on, the control unit 22 enters a communication standby state (step S42), and acquires a through image (step S43). That is, the control unit 22 drives the image sensor 21 to image the subject. A captured image obtained by the image sensor 21 is captured by the control unit 22 to obtain a through image.

一方、スマートフォン80の制御部31は、ステップS51において、初期画面を設定する。図15(a),(d)は、表示部37の表示画面37a上に表示された初期画面を示している。スマートフォン60の表示画面37a上には、初期画面として、シェア、カメラ画面、メール又は電話モードをそれぞれ設定するためのシェアボタン111、カメラ画面ボタン112、メールボタン113及び電話ボタン114を含むメニュー画面が表示されている。なお、図15(a),(d)のボタン111〜114は、太枠によって現在選択されているモードを示している。   On the other hand, the control part 31 of the smart phone 80 sets an initial screen in step S51. FIGS. 15A and 15D show the initial screen displayed on the display screen 37 a of the display unit 37. On the display screen 37a of the smartphone 60, as an initial screen, a menu screen including a share button 111, a camera screen button 112, a mail button 113, and a telephone button 114 for setting share, camera screen, mail, or telephone mode, respectively. It is displayed. Note that the buttons 111 to 114 in FIGS. 15A and 15D indicate the mode currently selected by a thick frame.

制御部31は、ユーザによりカメラ画面モードが設定されているか否かを判定する(ステップS52)。カメラ画面モードが設定されている場合には、制御部31は次のステップS53においてスルー画通信制御を行う。即ち、制御部31は、通信部33を介してレンズ型カメラ90の通信部24との間で通信を確立させて、スルー画の送信要求を行う。   The control unit 31 determines whether or not the camera screen mode is set by the user (step S52). When the camera screen mode is set, the control unit 31 performs through image communication control in the next step S53. That is, the control unit 31 establishes communication with the communication unit 24 of the lens-type camera 90 via the communication unit 33 and makes a transmission request for a through image.

レンズ型カメラ90の制御部22は、ステップS44においてスマートフォン80との間で通信が確立すると、ステップS45においてスルー画を送信する。スマートフォン60の制御部31は、送信されたスルー画を受信して、表示部37に表示させる(ステップS54)。   When communication is established with the smartphone 80 in step S44, the control unit 22 of the lens-type camera 90 transmits a through image in step S45. The control unit 31 of the smartphone 60 receives the transmitted through image and displays it on the display unit 37 (step S54).

図15(a)の状態ではカメラ画面モードが選択されており、図15(b)に示すように、表示画面37aの中央には、レンズ型カメラ90が撮像したスルー画118が表示される。また、制御部31は、表示画面37a上に、戻るボタン115、受信ボタン116及び撮影ボタン117の各ボタン表示を表示させる。制御部31は、ユーザによる戻るボタン116がタッチ操作されると、モードを1つ前のモードに戻す処理を行い、受信ボタン116がタッチ操作されると、受信モードに移行し、撮影ボタン117がタッチ操作されると、撮影モードに移行する。   In the state of FIG. 15A, the camera screen mode is selected, and as shown in FIG. 15B, a through image 118 captured by the lens camera 90 is displayed at the center of the display screen 37a. In addition, the control unit 31 displays button display of the return button 115, the reception button 116, and the photographing button 117 on the display screen 37a. When the return button 116 is touched by the user, the control unit 31 performs processing to return the mode to the previous mode. When the reception button 116 is touched, the control unit 31 shifts to the reception mode, and the shooting button 117 is pressed. When a touch operation is performed, the shooting mode is entered.

制御部31は、ステップS55において撮影操作が行われたか否かを判定しており、撮影ボタン117がタッチ操作されると処理をステップS56に移行して撮影の指示を行う。レンズ型カメラ90はステップS46において撮影操作の有無を判定しており、撮影指示を受信すると、ステップS47において撮影結果を送信する。レンズ型カメラ90からの撮像画像は、通信部24,33を介して制御部31に与えられ、制御部31は撮像画像を記録部39に与えて記録させる(ステップS56)。   The control unit 31 determines whether or not a shooting operation has been performed in step S55, and when the shooting button 117 is touched, the process proceeds to step S56 to instruct shooting. The lens-type camera 90 determines whether or not there is a photographing operation in step S46, and when a photographing instruction is received, the photographing result is transmitted in step S47. The captured image from the lens-type camera 90 is given to the control unit 31 via the communication units 24 and 33, and the control unit 31 gives the captured image to the recording unit 39 for recording (step S56).

本実施の形態においては、レンズ型カメラ90は、撮像画像と共に撮影時間の情報を送信しており、スマートフォン80の制御部31は、記録する撮像画像にその撮影時間の情報を関連付けて記録する。更に、制御部31は、通信部33によって撮像画像を受信した時間についても、記録する撮像画像に関連付けて記録する。   In the present embodiment, the lens-type camera 90 transmits shooting time information together with the captured image, and the control unit 31 of the smartphone 80 records the shooting time information in association with the recorded captured image. Furthermore, the control unit 31 records the time when the captured image is received by the communication unit 33 in association with the captured image to be recorded.

また、撮影機器91,92においても、撮影機器91,92を操作する各ユーザの操作に応じて、撮像画像が取得される。本実施の形態においては、撮影機器91,92において取得される撮像画像にも撮影時間の情報が付加される。撮影機器91,92を操作する各ユーザは、撮影機器91,92の通信部24を介して、撮影によって取得した撮像画像をスマートフォン80に送信可能である。   In the photographing devices 91 and 92, captured images are acquired in accordance with the operations of the users who operate the photographing devices 91 and 92. In the present embodiment, shooting time information is also added to captured images acquired by the shooting devices 91 and 92. Each user who operates the photographing devices 91 and 92 can transmit a captured image acquired by photographing to the smartphone 80 via the communication unit 24 of the photographing devices 91 and 92.

いま、撮影機器91,92から撮像画像がスマートフォン80に対して送信されるものとする。スマートフォン80の制御部31は、ステップS57において受信モードが指定されたか否かを判定する。制御部31は、ユーザが図15(b)の受信ボタン116をタッチ操作すると、受信モードに移行し、撮影機器91,92からの撮像画像を受信して記録部39に記録する(ステップS58)。なお、この場合にも、制御部31は、撮像画像に撮影時間及び収集時間の情報を関連付けて記録する。また、この場合には、制御部31は、表示制御部34を制御して、表示画面37a上に、受信中であることを示す表示119,120を表示させる。   Now, it is assumed that captured images are transmitted from the photographing devices 91 and 92 to the smartphone 80. The control unit 31 of the smartphone 80 determines whether or not a reception mode is designated in step S57. When the user touches the reception button 116 in FIG. 15B, the control unit 31 shifts to the reception mode, receives the captured images from the photographing devices 91 and 92, and records them in the recording unit 39 (step S58). . Also in this case, the control unit 31 records information on the shooting time and the collection time in association with the captured image. Further, in this case, the control unit 31 controls the display control unit 34 to display the displays 119 and 120 indicating that data is being received on the display screen 37a.

また、制御部31は、ユーザ操作によって受信モードに移行するのではなく、予め設定された機器から画像が送信された場合には、自動的に受信モードに移行して送信された画像を受信記録するようにしてもよい。   Further, the control unit 31 does not shift to the reception mode by a user operation, but automatically receives and records the transmitted image when the image is transmitted from a preset device. You may make it do.

ここで、図15(d)の太枠で示すように、初期画面において、ユーザがシェアモードを指定するためのシェアボタン111をタッチ操作するものとする。制御部31はステップS61においてシェアモードが指定されたか否かを判定しており、シェアボタン111の操作によってシェア画面を表示させる(ステップS62)。   Here, as shown by a thick frame in FIG. 15D, it is assumed that the user touches the share button 111 for designating the share mode on the initial screen. The control unit 31 determines whether or not the share mode is designated in step S61, and displays the share screen by operating the share button 111 (step S62).

図15(e)はシェア画面の表示例を示している。制御部31は、シェア画面として、戻るボタン115、アルバム期間の設定ボタン121及びシェア開始ボタン122を表示させる。制御部31は、戻るボタン115がタッチ操作されると、処理を1つ前のモードに戻し、設定ボタン121がタッチ操作されると、図示しないキーボード等の表示画面に移行してアルバム期間の設定を受付け、アルバム期間の設定後にシェア画面に復帰する。また、制御部31は、シェア開始ボタン122がタッチ操作されると、シェアを行うための処理を開始する。   FIG. 15E shows a display example of the share screen. The control unit 31 displays a return button 115, an album period setting button 121, and a share start button 122 as a share screen. When the return button 115 is touch-operated, the control unit 31 returns the processing to the previous mode. When the setting button 121 is touch-operated, the control unit 31 shifts to a display screen such as a keyboard (not shown) and sets the album period. And return to the share screen after setting the album period. In addition, when the share start button 122 is touched, the control unit 31 starts processing for sharing.

図15(e)の例では、アルバム期間として、ユーザが指定した時間(分)だけ前の時間から現在の時間までが設定されることを示している。制御部31は、ステップS63においてアルバム期間が設定されると、処理をステップS64に移行してシェアする画像の選択画面を表示する。   In the example of FIG. 15E, the album period is set from the previous time to the current time by the time (minutes) specified by the user. When the album period is set in step S63, the control unit 31 shifts the process to step S64 to display an image selection screen to share.

例えば、制御部31は、アルバム期間中に撮影された撮像画像を一覧表示させ、ユーザにシェアする画像を選択させてもよい。また、制御部31は、予め設定されたルールに従って、シェアする撮像画像を選択してもよい。例えば、制御部31は、最新の撮像画像から予め決められた枚数だけを選択してもよい。   For example, the control unit 31 may display a list of captured images taken during the album period and allow the user to select an image to share. Moreover, the control part 31 may select the captured image to share according to the preset rule. For example, the control unit 31 may select only a predetermined number from the latest captured image.

次に制御部31は、ステップS65において、撮影時間と収集時間との差が1時間未満であるか否かを判定する。例えば、制御部31は、アルバム期間のうち最も早く撮影された画像の撮影時間と最も早く収集された画像の収集時間との差が、1時間未満であるか否かを判定する。制御部31は、1時間未満である場合には、ユーザが撮影後の短時間に画像をシェアして鑑賞したいと考えたものと判断して、ステップS66において組写真を生成する。逆に、制御部31は、1時間以上である場合には、ユーザは後でゆっくりと画像をシェアして鑑賞したいと考えたものと判断して、ステップS67においてアルバムを生成する。   Next, in step S65, the control unit 31 determines whether or not the difference between the shooting time and the collection time is less than 1 hour. For example, the control unit 31 determines whether or not the difference between the shooting time of the image captured earliest in the album period and the collection time of the image collected earliest is less than one hour. If it is less than one hour, the control unit 31 determines that the user wants to share and view the image in a short time after shooting, and generates a group photo in step S66. On the other hand, if it is longer than one hour, the control unit 31 determines that the user wants to share and view the image slowly later, and generates an album in step S67.

なお、図13及び図14では、ユースシーン分析部81によってユースシーンを分析し、組写真を生成するかアルバムを生成するかを自動的に決定する例を示したが、ユーザ操作によって、組写真を生成するかアルバムを生成するかを決定するようにしてもよい。   13 and 14 show an example in which the use scene is analyzed by the use scene analysis unit 81 and it is automatically determined whether to generate a set photograph or an album. Or generating an album may be determined.

制御部31は組写真を生成した場合には、生成した組写真を確認するための確認画面を表示させる。図15(f)はこの確認画面を示しており、表示画面37a上には、生成された組写真124が表示される。また、表示画面37a上には、戻るボタン115及び送信ボタン123が表示されている。制御部31は、戻るボタン115がタッチ操作されると、処理を1つ前のモードに戻して、シェア画面を再度表示させる。また、制御部31は、送信ボタン123がタッチ操作されると、生成した組写真の送信を行う(ステップS68)。また、この場合には、制御部31は、表示制御部34を制御して、表示画面37a上に、送信中であることを示す表示125,126を表示させる。   When the control unit 31 generates the group photo, the control unit 31 displays a confirmation screen for confirming the generated group photo. FIG. 15F shows this confirmation screen, and the generated combined photograph 124 is displayed on the display screen 37a. Further, a return button 115 and a transmission button 123 are displayed on the display screen 37a. When the return button 115 is touch-operated, the control unit 31 returns the process to the previous mode and displays the share screen again. In addition, when the transmission button 123 is touched, the control unit 31 transmits the generated combined photograph (step S68). In this case, the control unit 31 controls the display control unit 34 to display the displays 125 and 126 indicating that transmission is in progress on the display screen 37a.

このように本実施の形態においては、第1の実施の形態と同様の効果が得られると共に、ユースシーンに応じて、組写真とアルバムとを例えば自動的に選択することで、ユースシーンに応じたシェアが可能となる。   As described above, according to the present embodiment, the same effects as those of the first embodiment can be obtained, and the group photo and the album can be automatically selected according to the use scene, for example, according to the use scene. Share is possible.

さらに、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、レンズ型カメラでも、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、内視鏡、顕微鏡のような産業用、医療用の光学機器でもよく、監視カメラや車載用カメラ、据え置き型のカメラ、例えば、テレビジョン受信機やパーソナルコンピュータ等に取り付けられているカメラであってもよい。もちろん、色々なものを様々な角度から観察する観察装置や検査装置に使える。得られた画像の総合的な鑑賞や観察、検査が可能であり、画像の過不足が即座に判断できるというメリットもある。同じ画像内で完結して勢揃いすることが重要なシーンでは、組写真に好適なユースシーンと考えて、特定のユースシーン分析条件をあらかじめ保持しておき、複数機器からの受信画像を判定して、勢揃いが検出されると組写真にふさわしいユースシーンと判定したり、通信と撮影が交互に行われるようなシーンを組写真にふさわしいユースシーンと判定してもよい。特定のお題によって撮影を促し、それに応じたユースシーン分析条件を満たす画像かどうかでユースシーンが判定されるようにしても良い。   Furthermore, in each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a lens type camera, a digital single-lens reflex camera, or a compact digital camera, a video camera, A camera for moving images such as a movie camera may be used, and a camera built in a personal digital assistant (PDA) such as a mobile phone or a smartphone may of course be used. In addition, it may be an industrial or medical optical device such as an endoscope or a microscope, such as a surveillance camera, an on-vehicle camera, a stationary camera, for example, a camera attached to a television receiver or a personal computer. There may be. Of course, it can be used for observation devices and inspection devices that observe various things from various angles. The obtained image can be comprehensively viewed, observed, and inspected, and there is an advantage that an excess or deficiency of the image can be immediately determined. For scenes where it is important to complete and gather together within the same image, it is considered a use scene suitable for group photography, and specific use scene analysis conditions are stored in advance, and images received from multiple devices are judged. If a group is detected, it may be determined that the use scene is suitable for the group photo, or a scene in which communication and shooting are alternately performed may be determined as the use scene suitable for the group photo. Shooting may be encouraged according to a specific theme, and a use scene may be determined based on whether or not the image satisfies a use scene analysis condition corresponding thereto.

特定の機器に複数画像を通信で集めて、これが組写真を作成するようにしているが、画像配置にもいろいろな応用が可能である。例えば、人物の画像は大きめに表示し、だぶりのある人物画像は小さめにする。また、人物のいない画像は小さめにしている。もちろん、人物の顔が大きすぎると恥ずかしいので、逆でも良い。姿勢や目線や表情を使って評価して、真ん中で目立つ画像は、良い写真にするようにしても良い。これ以外にも、出来映えの良い画像を主画像として大きく表示し、その他の画像を小さくしたり、最初に撮影したものを大きくしたり、時系列表示にしたり、様々なルールを設定可能としても、ゲーム性が高まり、撮影や画像のシェアが楽しくなる。1つの画像で表示されるので、比較や統合的な効果が高まり、画像の送信も楽に短時間で可能となる。   A plurality of images are collected by communication with a specific device, and this is used to create a combined photograph. However, various applications are possible for image arrangement. For example, the image of a person is displayed larger, and the person image with a blur is made smaller. Also, images without people are made smaller. Of course, if the person's face is too big, it's embarrassing, so the reverse is also possible. An image that stands out in the middle, evaluated using posture, eyes, and facial expressions, may be a good photo. In addition to this, it is possible to set a variety of rules such as displaying a good-quality image as the main image, reducing the other images, increasing the first taken image, displaying in time series, etc. Game nature will be enhanced, and shooting and image sharing will be fun. Since one image is displayed, comparison and integration effects are enhanced, and image transmission can be easily performed in a short time.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本実施の形態の画像処理装置を実現することができる。   Of the technologies described here, many of the controls and functions mainly described in the flowcharts can be set by a program, and the above-described controls and functions can be realized by a computer reading and executing the program. it can. As a computer program product, the program may be recorded or stored in whole or in part on a portable medium such as a non-volatile memory such as a flexible disk or a CD-ROM, or a storage medium such as a hard disk or a volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line. The user can easily realize the image processing apparatus according to the present embodiment by downloading the program via a communication network and installing the program on a computer, or installing the program from a recording medium on the computer.

10…画像処理装置、20…撮像部、21…撮像素子、22…制御部、23…時計部、24…通信部、31…制御部、33…通信部、35…画像合成部、36…リサイズ部、37…表示部、38…操作部、39…記録部、40…時計部。     DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 20 ... Imaging part, 21 ... Imaging element, 22 ... Control part, 23 ... Clock part, 24 ... Communication part, 31 ... Control part, 33 ... Communication part, 35 ... Image composition part, 36 ... Resizing , 37 ... display section, 38 ... operation section, 39 ... recording section, 40 ... clock section.

Claims (12)

少なくとも1つの相手機器からの撮像画像を含む複数の撮像画像を収集する受信部と、
ユースシーン分析条件に基づいてユースシーンを判定するユースシーン分析部と、
上記ユースシーンの判定結果に応じて、上記受信部において収集した複数の撮像画像に基づく組写真、または、上記受信部において収集した複数の撮像画像に基づくアルバムを生成し、生成した組写真またはアルバムを上記少なくとも1つの相手機器に送信する制御部と
を具備したことを特徴とする画像処理装置。
A receiving unit that collects a plurality of captured images including captured images from at least one counterpart device;
A use scene analysis unit that determines use scenes based on use scene analysis conditions;
According to the use scene determination result, a combined photograph based on a plurality of captured images collected by the receiving unit or an album based on a plurality of captured images collected by the receiving unit is generated, and the generated combined photograph or album An image processing apparatus comprising: a control unit that transmits a message to the at least one counterpart device.
上記ユースシーン分析部は、上記受信部が収集した撮像画像に含まれる撮影時間の情報、上記受信部が収集した収集時間の情報及びユーザが設定するアルバム期間の情報のうちの少なくとも1つの情報に基づいて上記ユースシーンを分析する
ことを特徴とする請求項1に記載の画像処理装置。
The use scene analysis unit includes at least one of information on a shooting time included in a captured image collected by the reception unit, information on a collection time collected by the reception unit, and information on an album period set by the user. The image processing apparatus according to claim 1, wherein the use scene is analyzed based on the image.
上記ユースシーン分析部は、
上記撮影時間と上記収集時間との時間差が所定の閾値よりも短い場合には組写真を生成させ、所定の閾値以上である場合にはアルバムを生成させるための判定結果を得る
ことを特徴とする請求項2に記載の画像処理装置。
The above use scene analysis department
When the time difference between the shooting time and the collection time is shorter than a predetermined threshold, a set photo is generated, and when the time difference is equal to or larger than the predetermined threshold, a determination result for generating an album is obtained. The image processing apparatus according to claim 2.
上記ユースシーン分析部は、
上記撮像画像に基づく画像の収集状態に基づいてユースシーンを判定する
ことを特徴とする請求項1に記載の画像処理装置。
The above use scene analysis department
The image processing apparatus according to claim 1, wherein a use scene is determined based on an image collection state based on the captured image.
上記ユースシーン分析部は、
上記ユースシーン分析条件によって指定された上記相手機器の全てから上記撮像画像を収集すると上記組写真を生成させるための判定結果を得る
ことを特徴とする請求項1に記載の画像処理装置。
The above use scene analysis department
The image processing apparatus according to claim 1, wherein when the captured images are collected from all of the counterpart devices specified by the use scene analysis condition, a determination result for generating the combined photograph is obtained.
上記ユースシーン分析部は、
上記ユースシーン分析条件によって指定された人物の画像部分を含む全ての上記撮像画像を収集すると上記組写真を生成させるための判定結果を得る
ことを特徴とする請求項1に記載の画像処理装置。
The above use scene analysis department
The image processing apparatus according to claim 1, wherein a determination result for generating the group photograph is obtained when all the captured images including an image portion of a person designated by the use scene analysis condition are collected.
上記ユースシーン分析部は、
所定の時間内に、規定数以上の上記相手機器から上記撮像画像を受信すると上記組写真を生成するためのユースシーンと判定する
ことを特徴とする請求項1に記載の画像処理装置。
The above use scene analysis department
The image processing apparatus according to claim 1, wherein when the captured images are received from a predetermined number or more of the counterpart devices within a predetermined time, it is determined as a use scene for generating the group photograph.
上記ユースシーン分析部は、
特定のお題によって撮影を促し、それに応じた条件を満たす撮像画像かどうかでユースシーンを判定する
ことを特徴とする請求項1に記載の画像処理装置。
The above use scene analysis department
The image processing apparatus according to claim 1, wherein the image processing apparatus prompts photographing according to a specific theme and determines a use scene based on whether or not the captured image satisfies a condition corresponding to the subject.
少なくとも1つの相手機器からの撮像画像を含む複数の撮像画像を収集し、
ユースシーン分析条件に基づいてユースシーンを判定し、
上記ユースシーンの判定結果に応じて、上記収集した複数の撮像画像に基づく組写真、または、上記収集した複数の撮像画像に基づくアルバムを生成し、生成した組写真またはアルバムを上記少なくとも1つの相手機器に送信する、
ことを特徴とする画像処理方法。
Collecting a plurality of captured images including captured images from at least one counterpart device;
Judgment of use scene based on use scene analysis conditions,
Depending on the determination result of the use scene, a combined photograph based on the collected multiple captured images or an album based on the collected multiple captured images is generated, and the generated combined photograph or album is used as the at least one partner. Send to device,
An image processing method.
コンピュータに、
少なくとも1つの相手機器からの撮像画像を含む複数の撮像画像を収集し、
ユースシーン分析条件に基づいてユースシーンを判定し、
上記ユースシーンの判定結果に応じて、上記収集した複数の撮像画像に基づく組写真、または、上記収集した複数の撮像画像に基づくアルバムを生成し、生成した組写真またはアルバムを上記少なくとも1つの相手機器に送信する、
ステップを実行させるための画像処理プログラム。
On the computer,
Collecting a plurality of captured images including captured images from at least one counterpart device;
Judgment of use scene based on use scene analysis conditions,
Depending on the determination result of the use scene, a combined photograph based on the collected multiple captured images or an album based on the collected multiple captured images is generated, and the generated combined photograph or album is used as the at least one partner. Send to device,
An image processing program for executing steps.
他の撮影装置から受信された撮影画像の撮影時刻と受信時刻とに従って、ユースシーンを分析するユースシーン分析部と、
上記ユースシーンの分析結果によって組写真による画像シェアが指示された場合には、上記受信した撮像画像に基づく組写真を生成する制御部と、
上記制御部が生成した組写真を上記他の撮影機器に送信する通信部と
を具備したことを特徴とする画像送信装置。
A use scene analysis unit that analyzes a use scene according to a shooting time and a reception time of a shot image received from another shooting device;
When image sharing by a group photo is instructed by the analysis result of the use scene, a control unit that generates a group photo based on the received captured image;
An image transmission apparatus comprising: a communication unit configured to transmit the group photograph generated by the control unit to the other photographing device.
複数の撮影機器からの撮像画像を収集して組写真又は組写真以外による画像シェアを行う装置におけるユースシーン分析方法であって、
上記複数の撮影装置から受信された撮影画像の撮影時刻と受信時刻とに従って、上記組写真による画像シェアがふさわしいユースシーンを判定する
ことを特徴とするユースシーン分析方法。
A use scene analysis method in an apparatus that collects captured images from a plurality of photographing devices and performs image sharing by a group photo or other than a group photo,
A use scene analysis method, wherein a use scene suitable for image sharing by the group photograph is determined according to a shooting time and a reception time of a shot image received from the plurality of shooting devices.
JP2014209932A 2014-10-14 2014-10-14 Image processing apparatus, image processing method and image processing program Expired - Fee Related JP6529108B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014209932A JP6529108B2 (en) 2014-10-14 2014-10-14 Image processing apparatus, image processing method and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014209932A JP6529108B2 (en) 2014-10-14 2014-10-14 Image processing apparatus, image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2016081173A true JP2016081173A (en) 2016-05-16
JP6529108B2 JP6529108B2 (en) 2019-06-12

Family

ID=55958612

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014209932A Expired - Fee Related JP6529108B2 (en) 2014-10-14 2014-10-14 Image processing apparatus, image processing method and image processing program

Country Status (1)

Country Link
JP (1) JP6529108B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166515A1 (en) 2020-02-17 2021-08-26 ソニーグループ株式会社 Information processing method, server device, and program
JP2021132392A (en) * 2018-01-12 2021-09-09 マクセル株式会社 Information device and camera image sharing system
WO2022070827A1 (en) 2020-09-30 2022-04-07 ソニーグループ株式会社 Information processing device, information processing method, and program
DE112021001101T5 (en) 2020-02-17 2023-01-19 Sony Group Corporation Data processing device, data processing method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009303002A (en) * 2008-06-16 2009-12-24 Nikon Corp Electronic album creation system and electronic album creation program
US20140129625A1 (en) * 2012-11-02 2014-05-08 Google Inc. Adjusting Content Delivery Based On User Submissions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009303002A (en) * 2008-06-16 2009-12-24 Nikon Corp Electronic album creation system and electronic album creation program
US20140129625A1 (en) * 2012-11-02 2014-05-08 Google Inc. Adjusting Content Delivery Based On User Submissions

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021132392A (en) * 2018-01-12 2021-09-09 マクセル株式会社 Information device and camera image sharing system
JP7144571B2 (en) 2018-01-12 2022-09-29 マクセル株式会社 Information equipment and camera image sharing system
WO2021166515A1 (en) 2020-02-17 2021-08-26 ソニーグループ株式会社 Information processing method, server device, and program
DE112021001101T5 (en) 2020-02-17 2023-01-19 Sony Group Corporation Data processing device, data processing method and program
WO2022070827A1 (en) 2020-09-30 2022-04-07 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP6529108B2 (en) 2019-06-12

Similar Documents

Publication Publication Date Title
US11882249B2 (en) Electronic device, imaging device, image reproduction method, image reproduction program, recording medium with image reproduction program recorded thereupon, and image reproduction device
US9473725B2 (en) Image-processing and encoded aperture pattern setting device and method, and image pickup device comprising same
JP2011188210A (en) Photographing apparatus and photographing system
JP4236986B2 (en) Imaging apparatus, method, and program
JP2011087183A (en) Imaging apparatus, image processing apparatus, and program
JP6529108B2 (en) Image processing apparatus, image processing method and image processing program
JP5499754B2 (en) Imaging device
JP2013251724A (en) Photographing instrument
JP5600413B2 (en) Image capturing device system, external device, camera, and image capturing device system control method
JP2011172092A (en) Imaging apparatus, image reproducing method, image reproducing program, recording medium with image reproducing program recorded, and image reproducing apparatus
JP5877227B2 (en) Image capturing device system, external device, camera, and image capturing device system control method
JP2013115656A (en) Photographing apparatus
JP2018148310A (en) Information collection device, information terminal device, information processing system, information processing method, and information processing program
JP2010193106A (en) Imaging device
JP2017135477A (en) Image managing device, image reproducing device, method for controlling the same, system, program, and storage medium
JP2019205208A (en) Electronic apparatus
JP5746105B2 (en) Information device and information display method
JP2015061129A (en) Imaging equipment and imaging method
JP5613285B2 (en) IMAGING DEVICE, IMAGING METHOD, DISPLAY DEVICE, AND DISPLAY METHOD
JP5715179B2 (en) Reproduction display device and reproduction display method
JP2018067968A (en) Electronic apparatus and program
JP2015216671A (en) Electronic apparatus and program
JP2014147087A (en) Electronic apparatus and program
JP2013059045A (en) Imaging device, imaging system and imaging method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190510

R151 Written notification of patent or utility model registration

Ref document number: 6529108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees