JP6090380B2 - Game shooting device, game shooting method and computer program - Google Patents

Game shooting device, game shooting method and computer program Download PDF

Info

Publication number
JP6090380B2
JP6090380B2 JP2015149638A JP2015149638A JP6090380B2 JP 6090380 B2 JP6090380 B2 JP 6090380B2 JP 2015149638 A JP2015149638 A JP 2015149638A JP 2015149638 A JP2015149638 A JP 2015149638A JP 6090380 B2 JP6090380 B2 JP 6090380B2
Authority
JP
Japan
Prior art keywords
image
editing
unit
user
edited
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015149638A
Other languages
Japanese (ja)
Other versions
JP2016006990A (en
Inventor
辰巳 聡
聡 辰巳
竜介 中西
竜介 中西
春奈 鶴谷
春奈 鶴谷
和也 岸本
和也 岸本
Original Assignee
辰巳電子工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 辰巳電子工業株式会社 filed Critical 辰巳電子工業株式会社
Priority to JP2015149638A priority Critical patent/JP6090380B2/en
Publication of JP2016006990A publication Critical patent/JP2016006990A/en
Application granted granted Critical
Publication of JP6090380B2 publication Critical patent/JP6090380B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、遊戯用撮影装置、遊戯用撮影方法及びコンピュータプログラムに関する。 The present invention relates to a game shooting apparatus, a game shooting method, and a computer program.
従来から、利用者をカメラで撮影し、その撮影画像や撮影画像を編集した画像を写真シールや写真カードとして出力する画像編集装置(「画像印刷装置」や「写真自販機」ともいう。)が知られている。
また、近年、情報通信技術の向上により、画像編集装置から携帯電話機などのモバイル端末に対して撮影画像や編集済画像を直接転送したり、あるいは画像編集装置からサーバに撮影画像や編集済画像をアップロードしておき、後でモバイル端末からアップロードした画像を閲覧したり、モバイル端末にダウンロードしたりすることが可能となっている。
2. Description of the Related Art Conventionally, an image editing apparatus (also referred to as an “image printing apparatus” or a “photo vending machine”) that captures a user with a camera and outputs the photographed image or an image obtained by editing the photographed image as a photo sticker or a photo card is known. It has been.
In recent years, with improvements in information communication technology, captured images and edited images can be directly transferred from an image editing device to a mobile terminal such as a mobile phone, or captured images and edited images can be transferred from an image editing device to a server. It is possible to upload and view images uploaded from the mobile terminal later or download to the mobile terminal.
かかる画像編集装置として、特許文献1に記載されているように、利用者の遊戯性又は娯楽性を高めるために、予め用意された多種多様なフレーム画像やスタンプ画像を撮影画像に合成したり、利用者がタッチペンで自由に落書きを行ったりする編集入力が可能なものがある。
これに加え、特許文献1の画像編集装置では、利用者がモバイル端末から更新しているブログに掲載するためのブログ画像やモバイル端末の待ち受け画面に表示させるための待ち受け画像の形状に合わせて、撮影画像の所望の領域を切り取る(トリミングする)ことができる。
As such an image editing device, as described in Patent Document 1, in order to improve the playability or amusement of the user, various frame images and stamp images prepared in advance are combined with the captured image, Some users can make editing input, such as graffiti freely with a touch pen.
In addition to this, in the image editing device of Patent Document 1, in accordance with the shape of a blog image for posting on a blog updated by a user from a mobile terminal or a standby image for display on a standby screen of a mobile terminal, A desired region of the captured image can be cut out (trimmed).
特許文献1の画像編集装置では、撮影画像の所望の領域を切り取るために、画像表示部に撮影画像とともに切り取る範囲(トリミング範囲)を表すトリミング枠が重ねて表示され、トリミング枠を移動、回転、及び拡大縮小させて、これを好みの位置、角度、大きさに配置して切り取り範囲を選択する(特許文献1の段落0159〜0167、及び図23〜図25参照)。   In the image editing apparatus of Patent Document 1, in order to cut out a desired area of a shot image, a trimming frame representing a range (trimming range) to be cut out together with the shot image is displayed on the image display unit, and the trimming frame is moved, rotated, and rotated. Then, the image is enlarged / reduced and placed at a desired position, angle, and size to select a cutout range (see paragraphs 0159 to 0167 and FIGS. 23 to 25 of Patent Document 1).
特開2012−141440号公報JP 2012-141440 A
上記特許文献1に記載の従来の画像編集装置では、撮影画像に対する切り取り範囲を表すトリミング枠のみを撮影画像に重ねて表示する構成である。
このため、従来の画像編集装置では、撮影画像に合成する合成用画像との相対的な位置関係を確認しながら、撮影画像のトリミング範囲に相当する部分(以下、「トリミング部分」ともいう。)を合成用画像に合成して、所望の合成画像を得るのが難しいという欠点があった
The conventional image editing apparatus described in Patent Document 1 has a configuration in which only a trimming frame representing a cutout range for a captured image is displayed so as to overlap the captured image .
For this reason, in a conventional image editing apparatus, a portion corresponding to a trimming range of a captured image (hereinafter also referred to as a “trimming portion”) while confirming a relative positional relationship with a composite image to be combined with the captured image. There is a drawback that it is difficult to obtain a desired composite image by combining the image with the image for synthesis .
本発明は、かかる従来の問題点に鑑み、合成用画像と撮影画像との相対的な位置関係を考慮しつつ、撮影画像のトリミング部分を選択できる遊戯用撮影装置等を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of the above-described conventional problems, and an object thereof is to provide a game shooting apparatus and the like that can select a trimming portion of a shot image while considering the relative positional relationship between the composition image and the shot image. To do.
(1) 本発明の遊戯用撮影装置は、利用者を被写体として複数回撮影して複数の撮影画像を取得する撮影部と、複数の前記撮影画像の中から少なくとも1つの画像を前記利用者が選択できるように当該撮影画像を表示し、選択された前記画像である編集対象画像と、トリミング範囲が設定された合成用画像とを重ねて表示する表示部と、前記編集対象画像の前記トリミング範囲に相当する部分を抽出し、抽出された前記部分を前記合成用画像に合成して合成画像を生成する画像処理部と、前記利用者が前記編集対象画像を確定させる操作を完了するまで前記画像の選択を受け付け、前記操作の完了前に別の前記画像が選択されると、前記合成用画像に重ねて表示する前記編集対象画像を選択された別の前記画像に切り替える制御部と、を備えることを特徴とする。 (1) In the game shooting device of the present invention, the user captures a user a plurality of times and acquires a plurality of captured images, and the user captures at least one image from the plurality of captured images. The photographed image is displayed so that it can be selected, the display unit that displays the selected image to be edited and the composition image in which the trimming range is set, and the trimming range of the editing target image An image processing unit that extracts a portion corresponding to the image, combines the extracted portion with the image for synthesis to generate a composite image, and the image until the user completes an operation for determining the image to be edited And a control unit that switches the editing target image to be displayed to be superimposed on the composition image when another image is selected before the operation is completed, to the selected another image. Characterized in that that.
本発明の遊戯用撮影装置は、表示部が、複数の撮影画像の中から少なくとも1つの画像を利用者が選択できるように当該撮影画像を表示し、選択された画像である編集対象画像と、トリミング範囲が設定された合成用画像とを重ねて表示し、画像処理部が、編集対象画像のトリミング範囲に相当する部分を抽出し、抽出された部分を合成用画像に合成して合成画像を生成する構成である。
このため、利用者は、合成用画像と撮影画像との相対的な位置関係を確認しながら、撮影画像のトリミング部分を選択することができるので、所望の合成画像を生成するのが容易になる。
In the game shooting apparatus of the present invention, the display unit displays the shot image so that the user can select at least one image from the plurality of shot images, and the editing target image that is the selected image; The composite image with the trimming range set is displayed in an overlapping manner, and the image processing unit extracts a portion corresponding to the trimming range of the image to be edited, and combines the extracted portion with the composite image to display the composite image. It is the structure to generate .
For this reason, the user can select a trimming portion of the photographed image while confirming the relative positional relationship between the composition image and the photographed image, so that a desired composite image can be easily generated. .
(2) 本発明の遊戯用撮影装置において、前記合成用画像は前記トリミング範囲を複数有しており、前記表示部は、複数の前記トリミング範囲に対応する前記撮影画像を、共通の複数の前記撮影画像の中からそれぞれ選択可能となるように表示することが好ましい。
(3) 本発明の遊戯用撮影装置において、前記合成用画像は、前記利用者を被写体とする撮影画像を含まない合成用画像であることが好ましい。
(2) In the game shooting device of the present invention, the composition image has a plurality of trimming ranges, and the display unit displays the shot images corresponding to a plurality of the trimming ranges as a plurality of common images. It is preferable to display so that each can be selected from the captured images.
(3) In the game photographing device of the present invention, it is preferable that the composition image is a composition image that does not include a photographed image of the user as a subject.
) 本発明の遊戯用撮影方法は、上述の(1)に記載した本発明の遊戯用撮影装置が行う遊戯用撮影方法である。
このため、本発明の遊戯用撮影方法は、本発明の遊戯用撮影装置と同様の作用効果を奏する。
( 4 ) The game shooting method of the present invention is a game shooting method performed by the game shooting device of the present invention described in (1) above.
For this reason, the shooting method for games of the present invention has the same effects as the shooting device for games of the present invention.
) 本発明のコンピュータプログラムは、コンピュータを遊戯用撮影装置として機能させるためのコンピュータプログラムであって、当該コンピュータが実行する各ステップは、上述の(1)に記載にした本発明の遊戯用撮影装置の各部が行う処理と実質的に同様の処理である。
このため、本発明のコンピュータプログラムは、本発明の遊戯用撮影装置と同様の作用効果を奏する。
( 5 ) The computer program of the present invention is a computer program for causing a computer to function as an imaging device for play, and each step executed by the computer is for play of the present invention described in (1) above. This process is substantially the same as the process performed by each unit of the photographing apparatus.
For this reason, the computer program of the present invention has the same effects as the shooting apparatus for games of the present invention.
以上の通り、本発明によれば、合成用画像と撮影画像との相対的な位置関係を考慮しつつ、撮影画像のトリミング部分を選択できるので、所望の合成画像を生成するのが容易になるAs described above, according to the present invention, it is possible to select a trimming portion of a photographed image while taking into account the relative positional relationship between the composition image and the photographed image, so that a desired composite image can be easily generated. .
本発明の実施形態に係る自動写真作成装置の外観図である。1 is an external view of an automatic photo creation apparatus according to an embodiment of the present invention. 撮影ユニットの正面図である。It is a front view of an imaging unit. 編集ユニットの正面図である。It is a front view of an editing unit. 出力ユニットの正面図である。It is a front view of an output unit. 撮影操作用のタッチパネルの画面構成図である。It is a screen block diagram of the touch panel for imaging operations. 本発明の実施形態に係る自動写真作成装置の機能ブロック図である。1 is a functional block diagram of an automatic photo creation apparatus according to an embodiment of the present invention. 撮影処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an imaging | photography process. 落書き編集処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a doodle edit process. 落書き編集処理の画面構成図である。It is a screen block diagram of graffiti edit processing. トリミング編集処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a trimming edit process. モバイルパーツの形状選択の画面構成図である。It is a screen block diagram of the shape selection of a mobile part. 顔画像選択の画面構成図である。It is a screen block diagram of face image selection. バナー用のトリミング範囲選択の画面構成図である。It is a screen block diagram of trimming range selection for a banner. バナー用のトリミング範囲選択の他の例の画面構成図である。It is a screen block diagram of the other example of trimming range selection for banners. タテ用のトリミング範囲選択の画面構成図である。It is a screen block diagram of the trimming range selection for length. トリミング編集処理後の落書き編集処理の画面構成図である。It is a screen block diagram of the graffiti edit process after a trimming edit process. 顔画像選択の他の例の画面構成図である。It is a screen block diagram of the other example of face image selection. 編集対象画像を拡大・縮小する他の例の画面構成図である。It is a screen block diagram of the other example which expands / reduces an edit object image. トリミング枠内の一部に編集対象画像が含まれない場合の画面表示図である。FIG. 6 is a screen display diagram when an image to be edited is not included in a part of a trimming frame.
以下、添付図面を参照しつつ、本発明の実施形態について説明する。
〔全体構造〕
図1は、本発明の実施形態に係る自動写真作成装置1の外観図である。具体的には、図1(a)は、同装置1の側面図であり、図1(b)は、同装置1の平面図である。
また、図2は、撮影ユニット3の正面図であり、図3は、編集ユニット4の正面図であり、図4は、出力ユニット5の正面図であり、図5は、撮影操作用のタッチパネル20の画面構成図である。
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
[Overall structure]
FIG. 1 is an external view of an automatic photo creation apparatus 1 according to an embodiment of the present invention. Specifically, FIG. 1A is a side view of the device 1, and FIG. 1B is a plan view of the device 1.
2 is a front view of the photographing unit 3, FIG. 3 is a front view of the editing unit 4, FIG. 4 is a front view of the output unit 5, and FIG. 5 is a touch panel for photographing operation. It is a screen block diagram of 20. FIG.
図1に示すように、本実施形態の自動写真作成装置1は、利用者Uが入室可能な撮影室2と、利用者Uの撮影と背景画像や前景画像の選択を受け付け可能な撮影ユニット3とを備えている。
また、自動写真作成装置1は、利用者Uによる撮影画像の切り取り(トリミング)や落書き(描画操作)を含む編集入力を受け付けて、撮影画像を基に編集した編集済画像を生成する編集ユニット4と、編集済画像を出力する出力ユニット5とを備えている。本発明の画像編集装置は本実施形態の編集ユニット4に対応する。
As shown in FIG. 1, an automatic photo creation device 1 according to the present embodiment includes a photographing room 2 in which a user U can enter, and a photographing unit 3 that can accept photographing of the user U and selection of a background image and a foreground image. And.
In addition, the automatic photo creation apparatus 1 receives an editing input including cropping (trimming) and graffiti (drawing operation) of a photographed image by the user U, and an editing unit 4 that generates an edited image edited based on the photographed image. And an output unit 5 for outputting the edited image. The image editing apparatus of the present invention corresponds to the editing unit 4 of the present embodiment.
撮影室2は、当該撮影室2の前後方向(図1の矢印X方向)に長い直方体状のフレーム構造であり、この撮影室2の前部に撮影ユニット3が配置されている。撮影室2の左右方向(図1の矢印Y方向)の両側面には、それぞれ利用者Uが出入りする開口部と、この開口部の一部又は全部を覆う遮光カーテン(図示せず)が設けられている。
また、撮影室2の後部には、電動ロール式のカーテン装置25が配置されている。カーテン装置25は撮影時に駆動し、カメラ10の撮影範囲にカーテンが現れる。このカーテンは、周知のクロマキー処理により、カメラ10が撮影した画像から被写体の画像(被写体画像)のみを抽出するためのものであり、青や緑色のものが使用される。
撮影室2内の撮影ユニット3とカーテン装置25の間の空間(撮影操作用のタッチパネル20の前側の空間)は、利用者Uの撮影を行う撮影空間を構成している。
The shooting room 2 has a rectangular parallelepiped frame structure that is long in the front-rear direction of the shooting room 2 (the direction of the arrow X in FIG. 1), and the shooting unit 3 is disposed at the front of the shooting room 2. On both side surfaces in the left-right direction (arrow Y direction in FIG. 1) of the photographing room 2, there are provided openings for the user U to enter and exit, and light-shielding curtains (not shown) for covering part or all of the openings. It has been.
In addition, an electric roll curtain device 25 is disposed at the rear of the photographing room 2. The curtain device 25 is driven during shooting, and a curtain appears in the shooting range of the camera 10. This curtain is for extracting only the image of the subject (subject image) from the image captured by the camera 10 by a known chroma key process, and blue or green ones are used.
A space between the photographing unit 3 and the curtain device 25 in the photographing room 2 (a space on the front side of the touch panel 20 for photographing operation) constitutes a photographing space for photographing the user U.
編集ユニット4は、カーテン装置25の背面に接続された、撮影室2の前後方向(図1の矢印X方向)に長い筐体を備え、この筐体の短辺方向(図1の矢印Y方向)の両側に、2人組の利用者Uがそれぞれ一緒に編集入力を行えるタッチパネル400が設けられている。この編集ユニット4の各タッチパネル400の前側の空間は、利用者Uが編集作業を行う編集空間を構成しており、この編集空間は、カーテン装置25を挟んで撮影空間とは異なる位置に設けられている。   The editing unit 4 includes a casing that is connected to the back surface of the curtain device 25 and that is long in the front-rear direction of the photographing room 2 (the direction of the arrow X in FIG. 1). ) Are provided on both sides of the touch panel 400 on which two users U can edit together. The space on the front side of each touch panel 400 of the editing unit 4 constitutes an editing space where the user U performs editing work, and this editing space is provided at a position different from the shooting space with the curtain device 25 interposed therebetween. ing.
また、後述の通り、本実施形態の自動写真作成装置1では、撮影空間での処理(撮影処理)と、編集空間での処理(編集処理)を並行して実行可能となっており、編集空間での処理を受け付けるタッチパネル400が、撮影空間での処理を受け付けるタッチパネル20よりも多く設置されている。
このため、撮影空間と編集空間にそれぞれ入室した利用者Uの作業を同時並行で行わせることができ、利用者Uの回転率を向上させることができる。
Further, as will be described later, in the automatic photo creation device 1 of the present embodiment, processing in the shooting space (shooting processing) and processing in the editing space (editing processing) can be executed in parallel. The touch panel 400 that accepts the process in the above is installed more than the touch panel 20 that accepts the process in the shooting space.
For this reason, the work of the user U who has entered the shooting space and the editing space can be performed simultaneously and the rotation rate of the user U can be improved.
〔撮影ユニットの構造〕
図1及び図2に示すように、撮影ユニット3は、利用者Uを撮影する撮像手段であるカメラ10と、カメラ10の上下両側と左右両側にそれぞれ配置された複数のストロボ11,12,13L,13R,14と、カメラ10の下方に配置された、利用者Uの操作の受け付けや撮影画像の表示などを行う撮影操作用のタッチパネル20とを備えている。
[Structure of the shooting unit]
As shown in FIGS. 1 and 2, the photographing unit 3 includes a camera 10 that is an imaging unit for photographing the user U, and a plurality of strobes 11, 12, and 13 </ b> L disposed on both the upper and lower sides and the left and right sides of the camera 10. , 13R, 14 and a touch panel 20 for photographing operation which is disposed below the camera 10 and accepts the operation of the user U and displays a photographed image.
カメラ10は、例えば、CCD(電荷結合素子)を利用してデジタル画像信号を生成するデジタルカメラよりなり、利用者Uの撮影によって取得したデジタル画像信号を出力する。各ストロボ11〜14は、カメラ10のシャッター時に利用者Uに閃光を発する。
タッチパネル20は、撮影作業の際に、利用者Uによる各種の操作を受け付けるための操作画面を提供する。また、タッチパネル20は、カメラ10が取得したデジタルの動画映像をリアルタイムで表示することもできる。
The camera 10 is composed of, for example, a digital camera that generates a digital image signal using a CCD (Charge Coupled Device), and outputs a digital image signal acquired by photographing of the user U. Each of the strobes 11 to 14 emits a flash to the user U when the camera 10 is shuttered.
The touch panel 20 provides an operation screen for accepting various operations by the user U during a shooting operation. The touch panel 20 can also display a digital moving image acquired by the camera 10 in real time.
図5に示すように、撮影操作用のタッチパネル20は、リアルタイムの動画映像を表示するプレビュー領域201と、ポーズの見本を表示するための第1表示領域202と、撮影によって得られた撮影画像を表示するための第2表示領域203とを有する。
撮影ユニット3は、パーソナルコンピュータを中心に構成された制御装置と、I/O制御装置と、編集及び印刷ユニット4,5と通信を行うためのネットワークアダプタとを内蔵している。また、撮影ユニット3には、その前面下方にコイン投入口26(図2参照)が設けられている。
As shown in FIG. 5, the touch panel 20 for shooting operation includes a preview area 201 for displaying a real-time moving image, a first display area 202 for displaying a sample of a pose, and a shot image obtained by shooting. And a second display area 203 for display.
The photographing unit 3 incorporates a control device mainly composed of a personal computer, an I / O control device, and a network adapter for communicating with the editing and printing units 4 and 5. Further, the photographing unit 3 is provided with a coin insertion slot 26 (see FIG. 2) below the front surface thereof.
〔編集ユニットの構造〕
図1に示すように、本実施形態の自動写真作成装置1では、例えば2人組である2組の利用者Uが同時に並行してプレイ可能となるように、編集ユニット4が2つのユニット4a,4bに分かれている(図1(b)参照)。
図3に示すように、2つのユニット4a,4bは、互いに対面した所定高さの傾斜した作業面を有し、この作業面に、編集を行う領域やその編集を行うためのメニュー又はツールを表示する領域を含む編集操作用のタッチパネル400と、タッチパネル400へのタッチ操作に使用するタッチペン49L,49Rが設けられている。
[Edit unit structure]
As shown in FIG. 1, in the automatic photo creating apparatus 1 of the present embodiment, the editing unit 4 includes two units 4a, 4a, 2 so that, for example, two users U who are two people can play simultaneously in parallel. 4b (see FIG. 1 (b)).
As shown in FIG. 3, each of the two units 4a and 4b has an inclined work surface facing each other and having a predetermined height. On this work surface, an area to be edited and a menu or tool for performing the editing are provided. A touch panel 400 for editing operation including a display area and touch pens 49L and 49R used for touch operation on the touch panel 400 are provided.
編集操作用のタッチパネル400は、各ユニット4a,4bにおいてそれぞれ2人の利用者Uが同時にトリミングや落書きを行えるように、左右対称の画面構成となっているが、タッチパネル400に対する編集入力の詳細については後述する。なお、本実施形態の編集操作用のタッチパネル400は、双方のタッチペン49L,49Rによる操作位置(ペン先の接触位置)を同時に検出可能に構成されており、かつ、検出される各操作位置が、各タッチペン49L,49Rのうちのいずれの操作に対応するものであるかも検出可能となっている。
編集ユニット4についても、撮影ユニット3と同様に、例えばパーソナルコンピュータを中心に構成された制御装置と、撮影及び印刷ユニット3,5と通信を行うためのネットワークアダプタとを内蔵している。
The touch panel 400 for editing operation has a symmetrical screen configuration so that two users U can perform trimming and graffiti at the same time in each unit 4a, 4b. Will be described later. Note that the touch panel 400 for editing operation according to the present embodiment is configured to be able to simultaneously detect the operation position (touch position of the pen tip) by both the touch pens 49L and 49R, and each detected operation position is It is possible to detect which one of the touch pens 49L and 49R corresponds to the operation.
Similarly to the photographing unit 3, the editing unit 4 also includes a control device mainly composed of a personal computer and a network adapter for communicating with the photographing and printing units 3 and 5, for example.
〔出力ユニットの構造〕
図1及び図4に示すように、出力ユニット5は、出力操作用のタッチパネル30と、その下方に配置された非接触の通信ポート31とを備えている。
また、通信ポート31の下方に、非接触通信の際に必要な操作方法や効果音などを音声によって利用者Uに知らせるスピーカ32と、編集ユニット4で編集操作が行われた編集済み画像を印刷した写真シールや写真カード等を取り出す取出口33が設けられている。
[Output unit structure]
As shown in FIGS. 1 and 4, the output unit 5 includes a touch panel 30 for output operation, and a non-contact communication port 31 disposed below the touch panel 30.
Also, below the communication port 31, a speaker 32 that informs the user U of operation methods and sound effects necessary for non-contact communication by voice, and an edited image that has been edited by the editing unit 4 are printed. An outlet 33 is provided for taking out the photograph sticker, the photograph card and the like.
上記通信ポート31は、例えば携帯電話機等のモバイル端末の赤外線ポートと近距離でかつ非接触の通信が可能であり、この通信によって利用者Uのモバイル端末に編集済み画像を送信することができる。
なお、通信ポート31は、電波を使用したフェリカ(登録商標)などの非接触通信方式の通信ポートであってもよい。
The communication port 31 is capable of non-contact communication with an infrared port of a mobile terminal such as a mobile phone at a short distance, and an edited image can be transmitted to the user U's mobile terminal through this communication.
The communication port 31 may be a non-contact communication type communication port such as Felica (registered trademark) using radio waves.
出力操作用のタッチパネル30は、利用者Uが、編集済み画像が印刷された写真シール等をモバイル端末でも見たい場合に、上記通信機能を備えたモバイル端末に送信するのに必要な各種操作を受け付けるための、操作画面を提供する。   The touch panel 30 for the output operation is used to perform various operations necessary for the user U to transmit to the mobile terminal having the communication function when the user U wants to view the photo sticker on which the edited image is printed on the mobile terminal. Provides an operation screen to accept.
なお、この操作を、例えば編集済み画像の写真シール等が印刷されるまでの時間を利用して行うようにすれば、利用者Uは写真シール等が印刷されるまでの時間を持て余すことなく有効に利用することができる。ただし、出力操作用のタッチパネル30が設けられていない装置の場合には、編集ユニット4のタッチパネル400で画像出力のための各種の操作を行わせてもよい。この場合、モバイル端末が編集済み画像を取得する処理は、第2の制御部80(図6で後述)が行う。   Note that if this operation is performed using, for example, the time until the photo sticker of the edited image is printed, the user U can effectively use the time until the photo sticker is printed. Can be used. However, in a case where the touch panel 30 for output operation is not provided, various operations for image output may be performed on the touch panel 400 of the editing unit 4. In this case, the process in which the mobile terminal acquires the edited image is performed by the second control unit 80 (described later in FIG. 6).
出力ユニット5についても、撮影ユニット3と同様に、パーソナルコンピュータを中心に構成された制御装置と、撮影及び編集ユニット3,4と通信を行うためのネットワークアダプタとを内蔵している。
また、出力ユニット5には、編集済み画像を写真シール等として印刷するためのネットワークプリンタ35(図1(a)及び(b)参照)も内蔵されている。
Similarly to the photographing unit 3, the output unit 5 also includes a control device mainly configured by a personal computer and a network adapter for communicating with the photographing and editing units 3 and 4.
The output unit 5 also includes a network printer 35 (see FIGS. 1A and 1B) for printing the edited image as a photo sticker or the like.
上記構成の自動写真作成装置1において、利用者Uは、撮影室2で撮影を行った後、編集用のいずれか一方のユニット4a,4bのタッチパネル400を使用して、撮影画像に対してトリミングや落書き等の編集入力を行う。
その後、利用者Uは、編集入力に応じて生成された編集済み画像のデータを、ネットワークプリンタ35に印刷させてプリントシートとして受領したり、非接触通信によって利用者Uのモバイル端末に転送したりすることができる。
In the automatic photo creating apparatus 1 configured as described above, the user U takes a picture in the photographing room 2 and then uses the touch panel 400 of one of the editing units 4a and 4b to trim the photographed image. And edit input such as graffiti.
Thereafter, the user U causes the network printer 35 to print the edited image data generated in response to the editing input and receive it as a print sheet, or transfer it to the mobile terminal of the user U by non-contact communication. can do.
なお、ネットワーク(LAN)6がインターネット等の公衆通信回線に接続されている場合には、本実施形態の自動写真作成装置1で生成した編集済み画像を、公衆通信回線を介してサーバコンピュータに送信し、このサーバコンピュータにて利用者Uのフォルダごとに編集済み画像を記憶することにしてもよい。
この場合、利用者Uは、自動写真作成装置1に対するプレイ後に、自身の携帯電話機やスマートフォンなどのモバイル端末からサーバコンピュータにアクセスすることにより、作製した編集済み画像の閲覧やダウンロードを行うことができる。
When the network (LAN) 6 is connected to a public communication line such as the Internet, the edited image generated by the automatic photo creation device 1 of this embodiment is transmitted to the server computer via the public communication line. The edited image may be stored for each folder of the user U in this server computer.
In this case, the user U can view and download the created edited image by accessing the server computer from a mobile terminal such as his mobile phone or smartphone after playing the automatic photo creation apparatus 1. .
〔自動写真作成装置の機能的構成〕
図6は、本実施形態に係る自動写真作成装置1を機能面から見た場合の構成を示す、機能ブロック図である。
図6に示すように、自動写真作成装置1は、機能的には、利用者Uを撮影する処理(撮影処理)を行うための撮影処理部7と、編集対象画像に対する利用者Uの操作に応じて画像処理を行うための編集処理部8と、編集済み画像を写真シール等として印刷したり、非接触通信で転送したりする出力処理を行うための出力処理部9とを備える。本発明の画像処理装置は本実施形態の編集処理部8に対応する。
[Functional configuration of automatic photo creation device]
FIG. 6 is a functional block diagram showing a configuration when the automatic photo creating apparatus 1 according to the present embodiment is viewed from the functional aspect.
As shown in FIG. 6, the automatic photo creation device 1 functionally includes an imaging processing unit 7 for performing processing (imaging processing) for capturing the user U, and operation of the user U with respect to the editing target image. Accordingly, an editing processing unit 8 for performing image processing and an output processing unit 9 for performing output processing for printing the edited image as a photo sticker or the like or transferring it by non-contact communication are provided. The image processing apparatus of the present invention corresponds to the edit processing unit 8 of the present embodiment.
撮影処理部7は、第1の制御部70と、撮影部71と、第1の表示・操作部72と、I/O制御部73と、照明部74と、第1の通信部75とから構成されている。
編集処理部8は、第2の制御部80と、第2の表示・操作部81,82と、第2の通信部83とから構成されている。
出力処理部9は、第3の制御部90と、第3の表示・操作部91と、印刷出力部92と、音声出力部93と、非接触通信部94と、第3の通信部95とから構成されている。
The imaging processing unit 7 includes a first control unit 70, an imaging unit 71, a first display / operation unit 72, an I / O control unit 73, an illumination unit 74, and a first communication unit 75. It is configured.
The edit processing unit 8 includes a second control unit 80, second display / operation units 81 and 82, and a second communication unit 83.
The output processing unit 9 includes a third control unit 90, a third display / operation unit 91, a print output unit 92, an audio output unit 93, a non-contact communication unit 94, and a third communication unit 95. It is composed of
ネットワークアダプタよりなる第1、第2及び第3の通信部75,83,95は、LAN(Local Area Network)であるネットワーク6を介してそれぞれ相互に通信可能となっている。   The first, second, and third communication units 75, 83, and 95 including network adapters can communicate with each other via a network 6 that is a LAN (Local Area Network).
撮影部71は、CCD等の撮像素子を内蔵したカメラ10に相当する。撮影部71は、映像データをリアルタイムに取り込んで第1の制御部70に出力する。第1の制御部70は、シャッター動作の時点の映像データ(静止画データ)を撮影画像とし、内部のメモリに一時的に記憶する。
また、第1の制御部70は、撮影部71から得られる映像データを、第1の表示・操作部72に常時供給する。これにより、利用者Uの現況がリアルタイムに表示される。
The photographing unit 71 corresponds to the camera 10 including an image sensor such as a CCD. The imaging unit 71 captures the video data in real time and outputs it to the first control unit 70. The first control unit 70 uses video data (still image data) at the time of the shutter operation as a captured image and temporarily stores it in an internal memory.
In addition, the first control unit 70 constantly supplies the video data obtained from the photographing unit 71 to the first display / operation unit 72. Thereby, the present condition of the user U is displayed in real time.
第1の表示・操作部72は、撮影操作用のタッチパネル20に相当する。第1の表示・操作部72は、撮影画像に合成する背景画像又は前景画像を選択する操作やシャッター操作、撮影画像の画質を選択する操作などの撮影に関する操作の入力を受け付け、入力された操作信号を第1の制御部70に送る。
第1の制御部70は、第1の表示・操作部72からの操作信号に基づいて、その操作信号に対応する所定の処理を実行する。
The first display / operation unit 72 corresponds to the touch panel 20 for shooting operation. The first display / operation unit 72 receives input of operations related to shooting such as an operation for selecting a background image or a foreground image to be combined with a shot image, a shutter operation, and an operation for selecting the image quality of the shot image. A signal is sent to the first control unit 70.
Based on the operation signal from the first display / operation unit 72, the first control unit 70 executes a predetermined process corresponding to the operation signal.
例えば、第1の制御部70は、シャッター操作の入力があると、数秒程度の予め決められた時間の経過後にカメラ10をシャッター動作させるとともに、ストロボ11〜14を閃光させる。
照明部74は、カメラ10の前記ストロボ11,12,13L,13R,14に相当する。照明部74は、第1の制御部70からの指示に基づいて、I/O制御部73によって点灯/消灯および調光が制御される。
For example, when there is an input of a shutter operation, the first control unit 70 causes the camera 10 to perform a shutter operation after a predetermined time of about several seconds, and also causes the flashes 11 to 14 to flash.
The illumination unit 74 corresponds to the strobes 11, 12, 13 L, 13 R, and 14 of the camera 10. The lighting unit 74 is controlled to be turned on / off and dimmed by the I / O control unit 73 based on an instruction from the first control unit 70.
I/O制御部73は、撮影ユニット3に内蔵されるI/O制御装置に相当する。I/O制御部73は、第1の制御部70からの指示に基づいて照明部74を制御するとともに、コイン検出部(不図示)からの検出信号を第1の制御部70へ転送する。
第1の通信部75は、撮影ユニット3に内蔵されるネットワークアダプタに相当する。第1の通信部75は、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。
The I / O control unit 73 corresponds to an I / O control device built in the photographing unit 3. The I / O control unit 73 controls the illumination unit 74 based on an instruction from the first control unit 70 and transfers a detection signal from a coin detection unit (not shown) to the first control unit 70.
The first communication unit 75 corresponds to a network adapter built in the photographing unit 3. The first communication unit 75 functions as an interface for data transmission / reception via the network 6.
第1の制御部70は、撮影ユニット3に内蔵された、CPU、メモリ、フレームバッファ、タイマー及び補助記憶装置を含むコンピュータ(制御装置)に相当する。
第1の制御部70は、メモリに格納されたプログラムをCPUが実行することで、撮影処理に関する全体の制御を行う。
例えば、第1の制御部70は、複数の撮影画像をすべて編集対象画像としてフレームバッファに書き込み、第1の表示・操作部72に表示させる。
The first control unit 70 corresponds to a computer (control device) that is built in the photographing unit 3 and includes a CPU, a memory, a frame buffer, a timer, and an auxiliary storage device.
The first control unit 70 performs overall control related to shooting processing by the CPU executing a program stored in the memory.
For example, the first control unit 70 writes all of the plurality of photographed images as edit target images in the frame buffer and causes the first display / operation unit 72 to display them.
また、第1の制御部70は、所定の背景画像や前景画像の選択入力があった場合は、撮影画像における利用者Uの像を、ユーザによって選択された背景画像や前景画像に合成した画像を生成し、その画像についても、編集対象画像としてフレームバッファに書き込んで、第1の表示・操作部72に表示させる。
第1の制御部70は、フレームバッファに書き込んだ撮影画像(背景画像等が合成された画像を含む。)を、第1の通信部75を介して、編集ユニット4に対応する第2の制御部80に送信する。
Further, when there is a selection input of a predetermined background image or foreground image, the first control unit 70 combines the image of the user U in the captured image with the background image or foreground image selected by the user. The image is also written in the frame buffer as an image to be edited and displayed on the first display / operation unit 72.
The first control unit 70 performs second control corresponding to the editing unit 4 via the first communication unit 75 on the captured image (including images obtained by combining background images and the like) written in the frame buffer. To the unit 80.
第2の制御部80は、編集ユニット4に内蔵された、CPU、メモリ80a、フレームバッファ、タイマー及び補助記憶装置を含むコンピュータ(制御装置)に相当する。
第2の制御部80は、メモリ80aに第2の表示・操作部81,82に表示するための編集対象画像の表示用データと、表示用データにより表示される編集対象画像よりも高精細な編集対象画像に対応する出力用データの2種類のデータを保存する。また、第2の制御部80は、第2の表示・操作部81,82に表示用データに対応する編集対象画像を表示する。
The second control unit 80 corresponds to a computer (control device) built in the editing unit 4 and including a CPU, a memory 80a, a frame buffer, a timer, and an auxiliary storage device.
The second control unit 80 has display data for an editing target image to be displayed on the second display / operation unit 81 or 82 in the memory 80a and a higher definition than the editing target image displayed by the display data. Two types of output data corresponding to the image to be edited are stored. Further, the second control unit 80 displays the image to be edited corresponding to the display data on the second display / operation units 81 and 82.
第2の制御部80は、メモリ80aに格納されたプログラムをCPUが実行することで、編集処理に関する全体の制御を行う。
例えば、第2の制御部80は、第1の制御部70から受信した撮影画像に対する編集処理の入力信号に基づいて、編集対象画像に対する編集済み画像を生成する。
このとき、第2の制御部80は、編集入力に基づき、編集対象画像の表示用データを演算・加工することで、編集済み画像の表示用データを生成する。また、第2の制御部80は、上記演算・加工処理の内容を処理順にメモリ80aに保存する。
The second control unit 80 performs overall control related to editing processing by the CPU executing a program stored in the memory 80a.
For example, the second control unit 80 generates an edited image for the editing target image based on the input signal of the editing process for the captured image received from the first control unit 70.
At this time, the second control unit 80 generates display data for the edited image by calculating / processing the display data for the editing target image based on the editing input. Further, the second control unit 80 stores the contents of the calculation / processing in the memory 80a in the order of processing.
生成された表示用データに対応する編集済み画像は、第2の表示・操作部81,82に表示される。上記のような編集済み画像の生成が終了すると、第2の制御部80は、編集対象画像の出力用データ、及び上記演算・加工処理の内容に基づいて高精細な編集済み画像の出力用データを生成し、これを出力ユニット5に送信する。なお、印刷出力部92が別の編集済み画像を出力中である場合には、その旨が第2の表示・操作部81,82に表示されるとともに、その終了を待って送信される。   The edited image corresponding to the generated display data is displayed on the second display / operation unit 81, 82. When the generation of the edited image as described above is completed, the second control unit 80 outputs the editing target image output data and the high-definition edited image output data based on the contents of the calculation / processing. Is transmitted to the output unit 5. When the print output unit 92 is outputting another edited image, the fact is displayed on the second display / operation unit 81 or 82 and transmitted after waiting for the end.
第2の表示・操作部81,82は、タッチペン49L,49Rによるトリミングや落書き等の編集入力が可能な編集操作用のタッチパネル400に相当する。すなわち、第2の表示・操作部81は、タッチパネル400の左側の入力領域40Lに相当し、第2の表示・操作部82は、タッチパネル400の右側の入力領域40Rに相当する。
第2の通信部83は、編集ユニット4に内蔵されるネットワークアダプタに相当する。第2の通信部83は、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。
The second display / operation units 81 and 82 correspond to the touch panel 400 for editing operation capable of editing input such as trimming and graffiti using the touch pens 49L and 49R. That is, the second display / operation unit 81 corresponds to the left input area 40L of the touch panel 400, and the second display / operation unit 82 corresponds to the right input area 40R of the touch panel 400.
The second communication unit 83 corresponds to a network adapter built in the editing unit 4. The second communication unit 83 functions as an interface for data transmission / reception via the network 6.
第3の制御部90は、出力ユニット5に内蔵された、CPU、メモリ90a、フレームバッファ、タイマー及び補助記憶装置を含むコンピュータ(制御装置)に相当する。
第3の制御部90は、メモリ90aに格納されたプログラムをCPUが実行することで、出力処理に関する全体の制御を行う。
例えば、第3の制御部90は、第2の制御部80から受信した高精細な編集済み画像の出力用データをメモリ90aに格納する。
The third control unit 90 corresponds to a computer (control device) that is built in the output unit 5 and includes a CPU, a memory 90a, a frame buffer, a timer, and an auxiliary storage device.
The third control unit 90 performs overall control related to output processing by causing the CPU to execute a program stored in the memory 90a.
For example, the third control unit 90 stores the output data of the high-definition edited image received from the second control unit 80 in the memory 90a.
印刷出力部92は、出力ユニット5に内蔵されるネットワークプリンタ35に相当する。印刷出力部92は、メモリ90aに格納された編集済み画像のデータを写真シールや写真カードとして印刷する。
印刷された写真シール等は、出力ユニット5の正面下方に設けられた取出口33に排出される。
The print output unit 92 corresponds to the network printer 35 built in the output unit 5. The print output unit 92 prints the edited image data stored in the memory 90a as a photo sticker or a photo card.
The printed photo sticker or the like is discharged to an outlet 33 provided at the lower front of the output unit 5.
第3の表示・操作部91は、出力操作用のタッチパネル30に相当する。第3の制御部90は、高精細な編集済み画像の出力用データをサーバからダウンロードできるように、利用者Uの入力操作を受け付けるための操作画面を第3の表示・操作部91に表示させる。   The third display / operation unit 91 corresponds to the touch panel 30 for output operation. The third control unit 90 causes the third display / operation unit 91 to display an operation screen for accepting an input operation of the user U so that high-definition edited image output data can be downloaded from the server. .
第3の制御部90は、第3の表示・操作部91に入力された操作信号に基づいて、利用者Uのモバイル端末に出力用データを送信するように、非接触通信部94に対して指示を出す。この非接触通信部94は通信ポート31に相当する。出力用データは、非接触通信部94から赤外線信号として利用者Uのモバイル端末に直接送信される。
第3の通信部95は、出力ユニット5に内蔵されるネットワークアダプタに相当する。第3の通信部95は、ネットワーク6を介したデータ送受信の際のインタフェースとして機能する。
The third control unit 90 sends the output data to the mobile terminal of the user U based on the operation signal input to the third display / operation unit 91, with respect to the non-contact communication unit 94. Give instructions. This non-contact communication unit 94 corresponds to the communication port 31. The output data is directly transmitted from the non-contact communication unit 94 to the user U's mobile terminal as an infrared signal.
The third communication unit 95 corresponds to a network adapter built in the output unit 5. The third communication unit 95 functions as an interface for data transmission / reception via the network 6.
第3の制御部90は、編集を終えた利用者Uが出力操作を始めるまでの間、補助記憶装置に予め記憶されたデモ画像(デモンストレーション用の画像)を、フレームバッファに書き込むことによって第3の表示・操作部91に表示させる。
音声出力部93は、スピーカ32に相当する。音声出力部93は、第3の表示・操作部91に表示される操作画面と連動して操作方法を利用者Uに説明する。また、音声出力部93は、デモ画像に応じた楽曲を流す。なお、入力操作方法の説明や楽曲等は補助記憶装置としてのハードディスク等に予め格納されている。
The third control unit 90 writes the demo image (demonstration image) stored in advance in the auxiliary storage device into the frame buffer until the user U who has finished editing starts the output operation. Is displayed on the display / operation unit 91.
The audio output unit 93 corresponds to the speaker 32. The voice output unit 93 explains the operation method to the user U in conjunction with the operation screen displayed on the third display / operation unit 91. The audio output unit 93 plays music according to the demo image. The description of the input operation method, music, and the like are stored in advance in a hard disk or the like as an auxiliary storage device.
なお、上記の各制御装置が実行する所定のプログラムは、例えば、そのプログラムを記録した記録媒体であるDVD−ROMによって提供される。
すなわち、プログラムの記録媒体としてのDVD−ROMが補助記憶装置として制御装置に内蔵されたDVD−ROMの駆動装置に装着され、そのDVD−ROMからプログラムが読み出されて補助記憶装置としてのハードディスク装置にインストールされる。プログラムは、DVD−ROM以外の記録媒体(CD−ROM等)や通信回線を介して提供されてもよい。
The predetermined program executed by each of the control devices is provided by, for example, a DVD-ROM that is a recording medium on which the program is recorded.
That is, a DVD-ROM as a program recording medium is mounted on a DVD-ROM drive device built in a control device as an auxiliary storage device, and a program is read from the DVD-ROM to provide a hard disk device as an auxiliary storage device. To be installed. The program may be provided via a recording medium (CD-ROM or the like) other than the DVD-ROM or a communication line.
なお、上記第1〜第3の制御部70,80,90は、自動写真作成装置1における異なる部位(撮影ユニット3など)に内蔵される異なるコンピュータを含む装置に相当するものとして説明したが、このような構成は一例であって、第1〜第3の制御部70,80,90は、2つ以下または4つ以上の装置により実現されてもよい。
例えば、2つの制御部を設けておき、一方の制御部で撮影ユニット3と出力ユニット5を制御し、他方の制御部で編集ユニット4を制御することもできる。
In addition, although the said 1st-3rd control part 70,80,90 demonstrated as what was corresponded to the apparatus containing a different computer incorporated in a different site | part (photographing unit 3 etc.) in the automatic photo production apparatus 1, Such a configuration is an example, and the first to third control units 70, 80, 90 may be realized by two or less devices or four or more devices.
For example, two control units may be provided, and the photographing unit 3 and the output unit 5 may be controlled by one control unit, and the editing unit 4 may be controlled by the other control unit.
このような場合には各制御部において、それぞれ実現されるべき機能に応じたプログラムが実行される。
更に、各制御部70,80,90を構成する制御装置は、いずれのユニット3,4,5に内蔵されていてもよく、例えば、すべての制御装置を編集ユニット4に内蔵していてもよい。また、撮影ユニット3、編集ユニット4、および出力ユニット5は、物理的に3つに分かれているが、これを1つ又は2つのユニットとして構成することもできる。
In such a case, each control unit executes a program according to the function to be realized.
Further, the control devices constituting the control units 70, 80, 90 may be built in any of the units 3, 4, 5. For example, all the control devices may be built in the editing unit 4. . Further, the photographing unit 3, the editing unit 4, and the output unit 5 are physically divided into three, but can be configured as one or two units.
〔自動写真作成装置における並行処理〕
上述の通り、本実施形態の自動写真作成装置1は、撮影ユニット3と編集ユニット4と出力ユニット5とを含み、撮影ユニット3では撮影処理が行われ、編集ユニット4では編集処理が行われ、出力ユニット5では出力処理が行われる。
本実施形態の自動写真作成装置1では、各ユニット3,4,5のコンピュータにより、撮影処理と編集処理と出力処理とが同時並行で行われるようになっている。以下、撮影処理、編集処理及び出力処理の手順について説明する。
[Parallel processing in automatic photo creation equipment]
As described above, the automatic photo creation device 1 of the present embodiment includes the photographing unit 3, the editing unit 4, and the output unit 5. The photographing unit 3 performs photographing processing, and the editing unit 4 performs editing processing. The output unit 5 performs output processing.
In the automatic photo creation apparatus 1 of the present embodiment, photographing processing, editing processing, and output processing are performed simultaneously and in parallel by the computers of the units 3, 4, and 5. Hereinafter, procedures of the photographing process, the editing process, and the output process will be described.
〔撮影処理〕
図7は、撮影処理の手順を示すフローチャートである。
プレイが行われていない待機状態では、撮影操作用のタッチパネル20にデモ画像が表示されている。
その後、利用者Uが来場して、デモ画像の表示中にコイン投入口26にコインを投入すると、第1の制御部70はプレイを開始する(ステップS100)。
[Shooting process]
FIG. 7 is a flowchart showing the procedure of the photographing process.
In a standby state where no play is performed, a demonstration image is displayed on the touch panel 20 for shooting operation.
Thereafter, when the user U arrives and inserts a coin into the coin insertion slot 26 during display of the demo image, the first control unit 70 starts play (step S100).
また、第1の制御部70は、プレイを開始した後に、利用者Uによる撮影モードの選択を受け付ける(ステップS110)。
ステップS110では、例えば画質(具体的にはコントラストが高いくっきりとした画質、柔らかなふんわりとした画質、または透明感のあるクールな画質のうちのいずれか)の選択、明るさの選択、すなわち第1の制御部70が撮影画像に対して行う画像補正の種類の選択が行われる。
In addition, after starting the play, the first control unit 70 accepts selection of a shooting mode by the user U (step S110).
In step S110, for example, selection of image quality (specifically, clear image quality with high contrast, soft fluffy image quality, or cool image quality with transparency), brightness selection, The type of image correction performed by the first control unit 70 on the captured image is selected.
この場合、第1の制御部70は、予め用意された複数の撮影用テーマの中から1つ以上の撮影用テーマを利用者Uに選択させる画面をタッチパネル20に表示し、利用者Uによる選択操作を受け付ける。
その後、第1の制御部70は、撮影画像の背景や前景として合成する背景画像の候補を選択可能にタッチパネル20に複数表示し、利用者による選択操作を受け付ける。
In this case, the first control unit 70 displays a screen on the touch panel 20 that allows the user U to select one or more shooting themes from among a plurality of shooting themes prepared in advance, and the user U selects them. Accept the operation.
Thereafter, the first control unit 70 displays a plurality of background image candidates to be combined as the background of the captured image or the background as a foreground on the touch panel 20 and accepts a selection operation by the user.
利用者Uによって背景画像が所定枚数選択されると、ステップS120に進む。そして、背景画像の選択された順番に基づいて、利用者Uの撮影が行われる。この撮影により、利用者Uを含む静止画データである撮影画像(利用者Uの被写体画像に、利用者によって選ばれた背景画像が合成されたもの)が第1の制御部70のメモリに格納される。   When the user U selects a predetermined number of background images, the process proceeds to step S120. Then, the user U is photographed based on the order in which the background images are selected. As a result of this shooting, a shot image that is still image data including the user U (a combination of the subject image of the user U and the background image selected by the user) is stored in the memory of the first control unit 70. Is done.
ステップS130では、撮影画像がタッチパネル20に表示される。具体的には、ステップS120での撮影が行われる度に、タッチパネル20の第2表示領域203に、編集対象画像となる撮影画像が1枚ずつ順次追加されて表示される。   In step S130, the captured image is displayed on touch panel 20. Specifically, each time shooting is performed in step S120, shot images that are images to be edited are sequentially added and displayed in the second display area 203 of the touch panel 20.
その後、ステップS140において、第1の制御部70は、予め定められた制限時間(例えば3分)が終了したか否かを判定する。第1の制御部70は、判定の結果、所定の制限時間が終了していれば、処理をステップS150に進め、所定の制限時間が終了していなければ、処理をステップS120に戻す。
ステップS150では、第1の制御部70は、撮影された複数の撮影画像(第2表示領域203に表示された画像)を、ネットワーク6を通じて編集処理部8に送信する。
Thereafter, in step S140, the first control unit 70 determines whether or not a predetermined time limit (for example, 3 minutes) has ended. If the predetermined time limit has expired as a result of the determination, the first control unit 70 proceeds to step S150. If the predetermined time limit has not expired, the first control unit 70 returns the process to step S120.
In step S <b> 150, the first control unit 70 transmits a plurality of captured images (images displayed in the second display area 203) to the editing processing unit 8 through the network 6.
従って、本実施形態では、撮影処理で得られた利用者Uの撮影画像のデータは、すべてそのまま編集対象画像として編集処理部8に送られる。もっとも、ステップS150において、編集対象とする画像を選択する作業を利用者Uに行わせてもよい。
この場合、タッチパネル20の第2表示領域203に表示された撮影画像の中から、写り方が気に入った撮影画像を複数枚タッチさせて残すか、或いは逆に、撮影が失敗した撮影画像をタッチさせて消去させることにより、編集対象画像を選択させればよい。このような場合、第1の制御部70は、利用者Uの選択によって決定された編集対象画像のデータを、ネットワーク6を通じて編集処理部8に送信する。
Therefore, in the present embodiment, all of the captured image data of the user U obtained by the imaging process is sent as it is to the editing processing unit 8 as an editing target image. However, in step S150, the user U may perform an operation of selecting an image to be edited.
In this case, from the captured images displayed in the second display area 203 of the touch panel 20, a plurality of captured images that are preferred to be captured are left to touch, or conversely, a captured image that has failed to be captured is touched. The image to be edited may be selected by deleting the image. In such a case, the first control unit 70 transmits the editing target image data determined by the selection of the user U to the editing processing unit 8 through the network 6.
ステップS150の終了後、第1の制御部70は、処理をステップS160に進めて案内画面の表示を行う。具体的には、第1の制御部70は、編集ユニット4の2つのユニット4a,4bのうちのいずれかに利用者Uを誘導する画面を撮影操作用のタッチパネル20に表示する。これにより、撮影処理が終了する。
なお、ステップS160の処理において、上記案内画面の表示に加えて、或いは、上記案内画面の表示の代わりに、2つのユニット4a,4bのいずれかに利用者Uを案内する音声を出力するようにしてもよい。
After the end of step S150, the first control unit 70 advances the process to step S160 and displays a guidance screen. Specifically, the first control unit 70 displays a screen for guiding the user U to one of the two units 4 a and 4 b of the editing unit 4 on the touch panel 20 for shooting operation. Thereby, the photographing process is completed.
In the process of step S160, in addition to displaying the guidance screen or instead of displaying the guidance screen, a voice for guiding the user U is output to one of the two units 4a and 4b. May be.
〔編集処理〕
編集処理には、主に写真シールや写真カードとして出力するための落書き編集処理と、主に携帯電話やスマートフォンなどのモバイル端末にモバイルパーツとして出力するためのトリミング編集処理とがある。
[Edit processing]
The editing process mainly includes a graffiti editing process for outputting as a photo sticker or a photo card, and a trimming editing process for outputting as a mobile part mainly to a mobile terminal such as a mobile phone or a smartphone.
〔落書き編集処理〕
図8は、落書き編集処理の手順を示すフローチャートである。
図8の落書き編集処理において、第2の制御部80は、まず、ネットワーク6を介して第1の制御部70が送信した編集対象画像のデータを取得する(ステップS200)。
[Doodle editing process]
FIG. 8 is a flowchart showing the procedure of the doodle editing process.
In the graffiti editing process of FIG. 8, the second control unit 80 first acquires the data of the image to be edited transmitted by the first control unit 70 via the network 6 (step S200).
第2の制御部80は、取得した編集対象画像のデータに基づいて、第2の表示・操作部81,82に表示するための編集対象画像の表示用データと、表示用データにより表示される編集対象画像よりも高精細な編集対象画像に対応する出力用データの2種類のデータを生成し、メモリ80aに保存する。表示用データは、表示に適した解像度の編集対象画像のデータである。また、出力用データは、携帯送信用あるいは印刷用の画像を作成するのに適した解像度の編集対象画像のデータであり、それぞれに適した別のデータを作成するが、以下では両方とも出力用データとして説明を行う。   The second control unit 80 is displayed based on the acquired editing target image data, the editing target image display data to be displayed on the second display / operation units 81 and 82, and the display data. Two types of output data corresponding to an image to be edited with higher definition than the image to be edited are generated and stored in the memory 80a. The display data is data of an image to be edited having a resolution suitable for display. Also, the output data is the data of the image to be edited with a resolution suitable for creating an image for portable transmission or printing, and separate data suitable for each is created. It explains as data.
なお、表示用データに関して、表示に適した解像度とは、「拡大」ボタン55(後述の図13等参照)により編集対象画像を最も大きく表示したときのサイズに対応する解像度である。このようにすることで、「拡大」ボタン55により、表示用データに係る編集対象画像をどんなに大きく表示したとしても、引き延ばされる(画像が補間される)ことがなく、表示される編集対象画像が荒くなることがない。これにより、表示される編集対象画像の大きさによらず、編集対象画像をきれいに表示できるという効果がある。   Regarding the display data, the resolution suitable for display is the resolution corresponding to the size when the image to be edited is displayed in the largest size by the “enlarge” button 55 (see FIG. 13 described later). By doing so, the “enlarge” button 55 does not stretch the image (the image is interpolated), no matter how large the image to be edited related to the display data is displayed. Will not be rough. Thereby, there is an effect that the edit target image can be displayed neatly regardless of the size of the displayed edit target image.
その後、第2の制御部80は、第2の表示・操作部81,82に表示用データに対応する編集対象画像を表示し、タイマーを所定時間(利用者Uに編集入力を許可する時間)に設定して、カウントダウンを開始する(ステップS210)。   Thereafter, the second control unit 80 displays the image to be edited corresponding to the display data on the second display / operation units 81 and 82, and sets a timer for a predetermined time (time for allowing the user U to input editing). To start counting down (step S210).
タイマーのカウントダウン開始後、第2の制御部80は、利用者Uによるタッチパネル400への落書き(描画)等の編集操作の入力を受け付ける(ステップS220)。
また、第2の制御部80は、編集処理の残り時間が60秒になると、編集時間を延長するか否かを判定する(ステップS230)。この判定は、当該編集処理実行中の編集ユニット4(編集ユニット4aあるいは4b)でプレイすべき後続の利用者Uが撮影ユニット3で撮影処理を行っているか否かによって行われる。
After the timer countdown starts, the second control unit 80 accepts input of an editing operation such as graffiti (drawing) on the touch panel 400 by the user U (step S220).
In addition, when the remaining time of the editing process reaches 60 seconds, the second control unit 80 determines whether or not to extend the editing time (step S230). This determination is made based on whether or not a subsequent user U who should play in the editing unit 4 (editing unit 4a or 4b) that is executing the editing process is performing the shooting process with the shooting unit 3.
第2の制御部80は、上記判定の結果が肯定的である場合は、処理をステップS240に進め、否定的である場合は、処理をステップS250に進める。
第2の制御部80は、ステップS240では、タイマーを所定の再設定時間(利用者Uに追加の編集入力を許可する時間)に設定される。この場合、タイマーによるカウントダウンが再度開始され、処理がステップS250に進む。
If the result of the determination is affirmative, the second control unit 80 advances the process to step S240, and if negative, advances the process to step S250.
In step S240, the second control unit 80 sets a timer to a predetermined resetting time (a time during which additional editing input is permitted for the user U). In this case, the countdown by the timer is started again, and the process proceeds to step S250.
ステップS250において、第2の制御部80は、利用者Uによるタッチパネル400に表示された編集対象画像に対する落書き(描画)等の編集操作の入力を受け付ける。
その後、第2の制御部80は、タイマーの再設定時間が0になる、あるいは、図9及び16に示す落書き(描画)等の編集操作の入力画面おいて後述する「終わり」ボタンが選択されると、出力するプリントシートの分割パターン(編集対象画像を何枚どの位置に配置するのか)の選択処理に移行する(ステップS260)。具体的には、第2の制御部80は、予め用意された複数の分割パターンの候補をタッチパネル400に選択可能に表示する。利用者Uが、複数の分割パターンのうちの1つを選択すると、その選択情報を取得し、処理がステップS270に進む。
In step S <b> 250, the second control unit 80 accepts input of an editing operation such as graffiti (drawing) on the editing target image displayed on the touch panel 400 by the user U.
Thereafter, the second control unit 80 sets the timer reset time to 0, or selects an “end” button to be described later on the input screen for editing operations such as graffiti (drawing) shown in FIGS. Then, the process proceeds to a process of selecting a division pattern of the print sheet to be output (how many edit target images are arranged at which position) (step S260). Specifically, the second control unit 80 displays a plurality of prepared division pattern candidates on the touch panel 400 in a selectable manner. When the user U selects one of the plurality of division patterns, the selection information is acquired, and the process proceeds to step S270.
ステップS270では、案内画面の表示が行われる。具体的には、第2の制御部80は、利用者Uを出力ユニット5に導くための画面を編集操作用のタッチパネル400に表示する。第2の制御部80は、上記出力用データと編集入力された落書きや貼り付け画像のデータを合成したデータを出力ユニット5に送信する。
これにより、編集処理が終了する。
なお、ステップS270の処理において、上記案内画面の表示に加えて、或いは、上記案内画面の表示の代わりに、利用者Uを出力ユニット5のいずれかに案内する音声を出力するようにしてもよい。
In step S270, a guidance screen is displayed. Specifically, the second control unit 80 displays a screen for guiding the user U to the output unit 5 on the touch panel 400 for editing operation. The second control unit 80 transmits to the output unit 5 data obtained by synthesizing the output data and edited graffiti and pasted image data.
Thereby, the editing process ends.
In addition, in the process of step S270, in addition to the display of the guide screen or instead of the display of the guide screen, a voice for guiding the user U to any of the output units 5 may be output. .
〔落書き編集操作用のタッチパネルの構成及び機能〕
タッチパネル400は、左右の2人の利用者Uがそれぞれペン入力可能な左右一対の2つの入力領域40L,40Rに分割されている。図9は、プリントシートとして印刷される編集対象画像を編集するための画面(以下、「印刷用画像編集画面」という)であって、編集操作用のタッチパネル400の右側の入力領域40Rの画面の構成図である。入力領域40Rには、それぞれ、画像選択部46、落書き部41、タブ42によるメニュー切り替えが可能なパレット部43、モード選択部44、コマンド選択部45、タイマー表示部(図示省略)及びガイド表示部(図示省略)が配置されている。
[Configuration and function of touch panel for graffiti editing operation]
The touch panel 400 is divided into a pair of left and right input areas 40L and 40R in which two left and right users U can respectively perform pen input. FIG. 9 is a screen for editing an image to be edited printed as a print sheet (hereinafter referred to as “print image editing screen”), and is a screen of the input area 40R on the right side of the touch panel 400 for editing operation. It is a block diagram. The input area 40R includes an image selection unit 46, a graffiti unit 41, a palette unit 43 capable of menu switching using a tab 42, a mode selection unit 44, a command selection unit 45, a timer display unit (not shown), and a guide display unit. (Not shown) is arranged.
以下、図9に示す右側の入力領域40Rを例にとって、上記各部の構成及び機能を説明する。なお、左側の入力領域40Lも、右側の入力領域40Rと同様の構成及び機能となっている。
画像選択部46は、各編集対象画像に対応するサムネイル画像をそれぞれ選択可能に表示する。本例では、編集対象画像は、全部で7枚なのでそれぞれに対応するサムネイル画像P1´〜P7´が画像選択部46に表示される。
図9に示すように、落書き部41は、入力領域40Rにおける中央部から上縁部に渡る大半の部分を占めている。この画像選択部46には、画像選択部46から選択されたサムネイル画像に対応する編集対象画像が表示される。表示される編集対象画像は表示用データに基づくものである。図9に示す画面においては、サムネイル画像P1´が選択されており、このサムネイル画像P1´に対応する編集対象画像P1が落書き部41に表示されている。
Hereinafter, the configuration and functions of the above-described units will be described by taking the input area 40R on the right side shown in FIG. 9 as an example. The left input area 40L has the same configuration and function as the right input area 40R.
The image selection unit 46 displays a thumbnail image corresponding to each image to be edited in a selectable manner. In this example, since there are seven images to be edited, thumbnail images P1 ′ to P7 ′ corresponding to each of the images are displayed on the image selection unit 46.
As shown in FIG. 9, the graffiti portion 41 occupies most of the input region 40R from the central portion to the upper edge portion. The image selection unit 46 displays an image to be edited corresponding to the thumbnail image selected from the image selection unit 46. The displayed image to be edited is based on display data. In the screen shown in FIG. 9, the thumbnail image P1 ′ is selected, and the editing target image P1 corresponding to the thumbnail image P1 ′ is displayed on the graffiti unit 41.
本実施形態の落書き部41では、その落書き部41内に表示された編集対象画像に対して、タッチペン49Rによる落書き入力や画像の貼り付けなどの編集入力を同時に受け付けるようになっている。   In the graffiti unit 41 of the present embodiment, an edit input such as graffiti input or image pasting with the touch pen 49R is simultaneously accepted with respect to the editing target image displayed in the graffiti unit 41.
パレット部43の内部には、複数種類のスタンプ画像やフレーム画像などの編集対象画像に対して合成可能な貼り付け画像が多数表示されている。
利用者Uは、所望の貼り付け画像をペン先でタッチしてから、その画像を貼り付ける編集対象画像の所定位置にペン先をタッチすることにより、所定の編集対象画像に貼り付け画像を合成することができる。
A large number of pasted images that can be combined with an image to be edited such as a plurality of types of stamp images and frame images are displayed in the palette unit 43.
The user U touches the desired pasted image with the pen tip, and then touches the pen tip at a predetermined position of the editing target image to which the image is pasted, thereby synthesizing the pasted image with the predetermined editing target image. can do.
パレット部43のタブ42には、「くり抜き」、「シャイン」、「シャドウ」などの利用者Uの嗜好に沿った複数のアイテムがある。
従って、利用者Uが所望のアイテムをペン先でタッチすると、パレット部43の内部に配列される貼り付け画像の種類が、当該アイテムの趣旨に沿って予め収集された貼り付け画像に切り替わるようになっている。
On the tab 42 of the pallet unit 43, there are a plurality of items according to the preference of the user U, such as “cut out”, “shine”, and “shadow”.
Therefore, when the user U touches the desired item with the pen tip, the type of the pasted image arranged in the palette unit 43 is switched to the pasted image collected in advance according to the purpose of the item. It has become.
モード選択部44には、複数種類のモード選択ボタンが配列されており、本実施形態では、「らくがきセット」、「スペシャル」、「ペン」、「スタンプ」及び「もじ」のモード選択ボタンが用意されている。
このうち、例えば、「ペン」の選択ボタンは、タッチペン49Rで描画する線の種類をパレット部43に表示させるボタンであり、「スタンプ」の選択ボタンは、タッチペン49Rで貼り付けるスタンプの種類をパレット部43に表示させるボタンである。
A plurality of types of mode selection buttons are arranged in the mode selection unit 44. In this embodiment, mode selection buttons for “Rakugaki Set”, “Special”, “Pen”, “Stamp” and “Moji” are prepared. Has been.
Among these, for example, the “Pen” selection button is a button for displaying the type of line to be drawn with the touch pen 49R on the palette unit 43, and the “Stamp” selection button is a palette for selecting the type of stamp to be pasted with the touch pen 49R. This button is displayed on the unit 43.
コマンド選択部45には、上から順に、「終わり」、「ワンタッチクリア」、複数サイズの「消しゴム」、「すすむ」及び「もどる」の各ボタンが設けられている。
このうち、「終わり」は、タッチペン49Rによる編集入力を強制終了させるボタンであり、「ワンタッチクリア」は、1つの編集対象画像P1に対して行った編集入力をすべて取り消すためのボタンである。
The command selection unit 45 is provided with buttons “End”, “One-touch clear”, “Eraser”, “Proceed”, and “Return” in multiple sizes in order from the top.
Among these, “END” is a button for forcibly terminating editing input by the touch pen 49R, and “ONE TOUCH CLEAR” is a button for canceling all editing inputs made to one editing target image P1.
「消しゴム」は、タッチペン49Rによるペン入力を線消去のための消しゴム入力に変換するボタンである。また、「もどる」は、タッチペン49Rの編集入力を1つ取り消すボタンであり、「すすむ」は当該「もどる」処理による取り消しを戻すボタンである。   “Eraser” is a button for converting a pen input by the touch pen 49R into an eraser input for erasing a line. “Return” is a button for canceling one editing input of the touch pen 49R, and “Proceed” is a button for returning cancellation by the “return” processing.
〔トリミング編集処理〕
図10は、編集対象画像のトリミング編集処理の手順を示すフローチャートである。
上述した図9に示す印刷用画像編集画面において、「モバイルパーツ作成」ボタン45aが選択されると(ステップS300)、モバイル端末に送信するモバイルパーツの作成処理が開始される。
[Trimming edit processing]
FIG. 10 is a flowchart illustrating a procedure of trimming editing processing of an editing target image.
When the “create mobile part” button 45a is selected on the above-described image editing screen for printing shown in FIG. 9 (step S300), a process for creating a mobile part to be transmitted to the mobile terminal is started.
「モバイルパーツ作成」ボタン45aが選択されると(ステップS300)、第2の制御部80は、図11に示すモバイルパーツの形状選択画面をタッチパネル400に表示する(ステップS310)。
タッチパネル400には、モバイルパーツとして、例えばヨコ(480×402)、スクエア(480×480)、タテ(480×624)、タテロング(480×800)、バナー(240×100)、及び絵文字(20×20)が表示される。また、タッチパネル400には、利用者Uにモバイルパーツの選択を促す表示がなされる。
図11に示される枠内は、各モバイルパーツにおいて上記の各種画像を表示する領域を意味する。利用者Uは、これらの中から作りたいモバイルパーツの形状を選択することができる。
When the “create mobile part” button 45a is selected (step S300), the second control unit 80 displays the mobile part shape selection screen shown in FIG. 11 on the touch panel 400 (step S310).
The touch panel 400 includes, for example, horizontal (480 × 402), square (480 × 480), vertical (480 × 624), vertical (480 × 800), banner (240 × 100), and pictograms (20 ×) as mobile parts. 20) is displayed. Further, the touch panel 400 is displayed to prompt the user U to select a mobile part.
The frame shown in FIG. 11 means an area for displaying the above-described various images in each mobile part. The user U can select the shape of the mobile part to be created from these.
利用者Uが、タッチペン49Rで絵文字(20×20)を選択して、「決定」ボタンを選択すると(ステップS320でYES)、第2の制御部80は、図12に示す顔画像選択画面をタッチパネル400に表示する(ステップS325)。
タッチパネル400には、各編集対象画像から顔認識手段により切り出された顔画像が表示される。本例では、編集対象画像は全部で7枚であり、それぞれに2人ずつ写っているので14枚の顔画像が選択可能に表示される。ただし、図12に示す例では、顔画像は10枚しか表示されていないが、図12に示す画面にはスクロールボタン(不図示)が含まれており、このスクロールボタンをタッチペン49Rでタッチすることにより、表示中の顔画像に代えて表示されていない顔画像を表示することができる。
When the user U selects a pictograph (20 × 20) with the touch pen 49R and selects the “OK” button (YES in step S320), the second control unit 80 displays the face image selection screen shown in FIG. The information is displayed on the touch panel 400 (step S325).
On the touch panel 400, a face image cut out from each editing target image by the face recognition means is displayed. In this example, there are seven images to be edited in total, and two face images are shown in each of them, so that 14 face images are displayed in a selectable manner. However, in the example shown in FIG. 12, only 10 face images are displayed, but the screen shown in FIG. 12 includes a scroll button (not shown), and this scroll button is touched with the touch pen 49R. Thus, a face image that is not displayed can be displayed instead of the currently displayed face image.
また、タッチパネル400には、利用者Uに絵文字にしたい顔画像の選択を促す表示がなされる。利用者Uは、この中から絵文字にしたい顔画像を、タッチペン49Rで選択して「決定」ボタンを選択することで選ぶことができる。なお、顔画像選択画面において「戻る」ボタンを選択すると、タッチパネル400の画面表示がひとつ前の形状選択画面に切り替わる。   In addition, the touch panel 400 displays a message that prompts the user U to select a face image that the user U wants to use as a pictograph. The user U can select a face image that he / she wants to use as a pictogram by selecting it with the touch pen 49R and selecting the “OK” button. When the “return” button is selected on the face image selection screen, the screen display of the touch panel 400 is switched to the previous shape selection screen.
一方、利用者Uが、絵文字(20×20)以外のモバイルパーツの形状を選択した場合の画面遷移は同じである。例えばバナー(240×100)を選択し、「決定」ボタンを選択すると(ステップS320でNO)、第2の制御部80は、編集対象画像をトリミング枠53で切り取る(トリミングする)処理を行う(ステップS330〜S350)。   On the other hand, the screen transition when the user U selects the shape of the mobile part other than the pictograph (20 × 20) is the same. For example, when a banner (240 × 100) is selected and the “OK” button is selected (NO in step S320), the second control unit 80 performs a process of trimming (trimming) the image to be edited with the trimming frame 53 (trimming) (step S320). Steps S330 to S350).
先ず、第2の制御部80は、タッチパネル400に、バナーにおける上記の各種画像(編集対象画像や貼り付け画像等)を表示する領域(240×100の領域)内において、トリミング枠53で切り取られる編集対象画像の部分の表示範囲が1カ所か2カ所か(更にそれ以上の複数カ所か)の決定を促す表示をする(ステップS330)。   First, the second control unit 80 is cut out by the trimming frame 53 in an area (240 × 100 area) where the above-described various images (an image to be edited, a pasted image, etc.) on the banner are displayed on the touch panel 400. A display prompting the determination of whether the display range of the image to be edited is one place or two places (more than that) is displayed (step S330).
利用者Uが、バナーにおける上記の各種画像を表示する領域52内において、トリミング範囲を1カ所のみに決定した場合、第2の制御部80は、図13に示すバナー用のトリミング範囲選択画面をタッチパネル400に表示する(ステップS335)。
図13に示すように、入力領域40Rには、モード選択部44及びコマンド選択部45の他に、編集対象画像及びトリミング枠等が表示されるトリミング部51、トリミングされる編集対象画像を選択する画像選択部58、トリミング範囲を決定する「決定」ボタン59等が表示される。
When the user U determines only one trimming range in the area 52 for displaying the above-described various images in the banner, the second control unit 80 displays the banner trimming range selection screen shown in FIG. The information is displayed on the touch panel 400 (step S335).
As shown in FIG. 13, in addition to the mode selection unit 44 and the command selection unit 45, a trimming unit 51 in which an editing target image and a trimming frame are displayed, and an editing target image to be trimmed are selected in the input area 40R. An image selection unit 58, a “decision” button 59 for determining a trimming range, and the like are displayed.
トリミング部51には、トリミングされる編集対象画像(例えばP1)とともに、バナーにおける各種画像を表示する領域52及びこの領域52の右半分の領域に編集対象画像P1のトリミング範囲を示すトリミング枠53が表示される。トリミング部51に表示される編集対象画像P1は表示用データに対応するものである。
トリミング枠53はトリミング部51の中央部分に配置される。バナーにおける各種画像を表示する領域52であって、トリミング枠外の部分には、予めこの領域52内に付加されるように設定されている付加画像Q1も表示される。
The trimming unit 51 includes an image 52 to be trimmed, an area 52 for displaying various images in the banner, and a trimming frame 53 indicating the trimming range of the image to be edited P1 in the right half of the area 52. Is displayed. The editing target image P1 displayed on the trimming unit 51 corresponds to display data.
The trimming frame 53 is disposed at the center portion of the trimming unit 51. An additional image Q1 that is set in advance to be added to the area 52 is also displayed in the area 52 that displays various images in the banner and outside the trimming frame.
タッチペン49Rにより、編集対象画像P1を選択してディスプレイ400の表面に接触させながら移動させる編集入力が行われると、第2の制御部80は、当該編集入力に応じてディスプレイ400上で編集対象画像P1を移動させて表示する。
また、トリミング部51には、編集対象画像P1をそれぞれ回転、拡大及び縮小するための「回転」ボタン54、「拡大」ボタン55及び「縮小」ボタン56が表示される。利用者Uがタッチペン49Rで「回転」ボタン54、「拡大」ボタン55又は「縮小」ボタン56を選択することで、第2の制御部80は、編集対象画像P1を回転、拡大又は縮小する。「回転」ボタン54、「拡大」ボタン55及び「縮小」ボタン56は、編集対象画像P1の移動に伴って移動する。
When the editing input is performed by the touch pen 49R to select the editing target image P1 and move it while touching the surface of the display 400, the second control unit 80 displays the editing target image on the display 400 according to the editing input. P1 is moved and displayed.
In the trimming unit 51, a “rotate” button 54, an “enlarge” button 55, and a “reduce” button 56 for rotating, enlarging, and reducing the image to be edited P1 are displayed. When the user U selects the “rotate” button 54, the “enlarge” button 55, or the “reduction” button 56 with the touch pen 49R, the second control unit 80 rotates, enlarges, or reduces the editing target image P1. The “rotate” button 54, the “enlarge” button 55, and the “reduce” button 56 move as the editing target image P1 moves.
第2の制御部80は、複数(図13の例では7枚)の編集対象画像P1〜P7に対応するサムネイル画像P1´〜P7´を画像選択部58に表示するとともに、利用者Uにバナーに使用したい編集対象画像の変更が可能であることを促す。利用者Uは、バナーに使用したい編集対象画像がトリミング部51に表示されていない場合は、画像選択部58に表示されているサムネイル画像P1´〜P7´の中から所望のサムネイル画像を選択すると、選択したサムネイル画像に対応する編集対象画像をトリミング部51に表示させることができる。   The second control unit 80 displays thumbnail images P1 ′ to P7 ′ corresponding to a plurality (seven images in the example of FIG. 13) P1 to P7 on the image selection unit 58 and also displays a banner to the user U. It is urged that the edit target image to be used can be changed. When the user U wants to use an image to be edited for the banner and the trimming unit 51 does not display the image to be edited, the user U selects a desired thumbnail image from the thumbnail images P1 ′ to P7 ′ displayed in the image selection unit 58. The image to be edited corresponding to the selected thumbnail image can be displayed on the trimming unit 51.
第2の制御部80は、図13に示すように、編集対象画像P1とトリミング枠53を重ねて表示する場合に、編集対象画像P1のうちトリミング枠53で囲まれた部分だけでなく、編集対象画像P1におけるトリミング枠53で囲まれた部分以外も含む編集対象画像P1の全体をトリミング部51に表示する。ただし、図13に示すように、編集対象画像P1において、トリミング枠53に囲まれた部分の領域の表示態様は、トリミング枠53に囲まれた部分以外の表示態様よりも目立つようにすることがより好ましい。これにより、編集対象画像P1のどの部分がトリミング範囲であるのかを明確に利用者に示すことができる。   As shown in FIG. 13, when the editing target image P1 and the trimming frame 53 are displayed in an overlapping manner, the second control unit 80 edits not only the portion surrounded by the trimming frame 53 in the editing target image P1, but also the editing target image P1. The entire editing target image P1 including the portion other than the portion surrounded by the trimming frame 53 in the target image P1 is displayed on the trimming unit 51. However, as shown in FIG. 13, in the editing target image P <b> 1, the display mode of the area surrounded by the trimming frame 53 should be made more conspicuous than the display mode other than the part surrounded by the trimming frame 53. More preferred. Thus, it is possible to clearly show the user which part of the editing target image P1 is in the trimming range.
利用者Uは、トリミング枠53に対する編集対象画像P1の相対的な移動、回転、及び拡大縮小の少なくとも1つの編集入力により、所望の編集対象画像P1の部分をトリミング枠53で囲まれたトリミング範囲に表示させて、「決定」ボタン59を選択することができる。
「決定」ボタン59が選択されると、第2の制御部80は、トリミング枠53で囲まれるように選択された当該編集対象画像P1の部分を切り取る(トリミングする)(ステップS335)。
The user U makes a trimming range in which a portion of the desired editing target image P1 is surrounded by the trimming frame 53 by at least one editing input of relative movement, rotation, and enlargement / reduction of the editing target image P1 with respect to the trimming frame 53. And the “OK” button 59 can be selected.
When the “OK” button 59 is selected, the second control unit 80 cuts out (trims) the portion of the editing target image P1 selected so as to be surrounded by the trimming frame 53 (step S335).
具体的には、第2の制御部80は、編集対象画像P1の表示用データから、トリミング枠53で選択された編集対象画像P1の部分に対応する表示用データを生成してメモリ80aに保存し、編集対象画像P1の上記部分のみをトリミング部51に表示する。さらに、第2の制御部80は、メモリ80aに、図13に示すトリミング範囲選択画面が表示されてから「決定」ボタン59が選択されるまでに行われた上記移動、回転、及び拡大縮小並びにトリミング範囲の決定の処理内容を処理順に記憶する。   Specifically, the second control unit 80 generates display data corresponding to the portion of the edit target image P1 selected by the trimming frame 53 from the display data of the edit target image P1, and stores it in the memory 80a. Then, only the part of the editing target image P1 is displayed on the trimming unit 51. Furthermore, the second control unit 80 performs the above movement, rotation, enlargement / reduction, and the like performed from when the trimming range selection screen shown in FIG. 13 is displayed in the memory 80a until the “OK” button 59 is selected. The processing contents for determining the trimming range are stored in the order of processing.
一方、上述のステップS330において、利用者Uがバナーにおける各種画像を表示する領域52(240×100の領域)内でトリミング範囲を2カ所選択した場合、第2の制御部80は、図14に示すバナー用のトリミング範囲選択画面をタッチパネル400に表示する(ステップS340〜S350)。   On the other hand, when the user U selects two trimming ranges in the area 52 (240 × 100 area) for displaying various images in the banner in the above-described step S330, the second control unit 80 displays the image in FIG. A banner trimming range selection screen is displayed on the touch panel 400 (steps S340 to S350).
第2の制御部80は、図14に示すように、バナーにおける各種画像を表示する領域52の右半分の領域に第1トリミング枠53Aを表示するとともに、左半分の領域に第2トリミング枠53Bを表示する。また、第2の制御部80は、トリミング部51に所定の編集対象画像(例えばP1)を表示する。   As shown in FIG. 14, the second control unit 80 displays the first trimming frame 53A in the right half area of the area 52 for displaying various images in the banner, and the second trimming frame 53B in the left half area. Is displayed. Further, the second control unit 80 displays a predetermined edit target image (for example, P1) on the trimming unit 51.
第2の制御部80は、図13のトリミング選択画面と同様に、複数のサムネイル画像P1´〜P7´を画像選択部58に表示するとともに、利用者Uにバナーの右半分の部分に使用したい編集対象画像の変更が可能であることを促す。利用者Uは、バナーの右半分の部分に使用したい編集対象画像がトリミング部51に表示されていない場合は、画像選択部58に表示されているサムネイル画像P1´〜P7´の中から所望の画像を選択することにより、選択したサムネイル画像に対応する編集対象画像をトリミング部51に表示させることができる。   Similar to the trimming selection screen of FIG. 13, the second control unit 80 displays a plurality of thumbnail images P1 ′ to P7 ′ on the image selection unit 58 and wants the user U to use the right half portion of the banner. Encourage that the image to be edited can be changed. If the editing target image that the user U wants to use for the right half portion of the banner is not displayed in the trimming unit 51, the user U selects a desired thumbnail image P1 ′ to P7 ′ displayed in the image selection unit 58. By selecting an image, the image to be edited corresponding to the selected thumbnail image can be displayed on the trimming unit 51.
そして、先ず、上述のステップS335(図13)の処理と同様に、第2の制御部80は、トリミング部51の中央部分に配置された第1トリミング枠53Aに対する編集対象画像の相対的な移動、回転、及び拡大縮小の少なくとも1つの編集入力により、第1トリミング枠53Aで囲まれるように選択された編集対象画像の部分CP1を切り取る(ステップS340)。   First, as in the above-described processing of step S335 (FIG. 13), the second control unit 80 moves the editing target image relative to the first trimming frame 53A arranged in the central portion of the trimming unit 51. The portion CP1 of the image to be edited selected so as to be surrounded by the first trimming frame 53A is cut out by at least one editing input of rotation, enlargement / reduction (step S340).
具体的には、第2の制御部80は、編集対象画像の表示用データから、トリミング枠53Aで選択された編集対象画像P1の部分に対応する表示用データを生成してメモリ80aに保存し、編集対象画像P1の上記部分CP1のみをトリミング部51に表示する。さらに、第2の制御部80は、図13で説明したのと同様に、メモリ80aに、上記移動、回転、及び拡大縮小並びにトリミング範囲の決定の処理内容を処理順に記憶する。   Specifically, the second control unit 80 generates display data corresponding to the portion of the edit target image P1 selected by the trimming frame 53A from the display data of the edit target image, and stores it in the memory 80a. Only the portion CP1 of the editing target image P1 is displayed on the trimming unit 51. Further, the second control unit 80 stores the processing contents of the movement, rotation, enlargement / reduction, and trimming range determination in the processing order in the memory 80a as described in FIG.
第2の制御部80は、編集対象画像P1の上記部分CP1に対応する表示用データに基づき、編集対象画像P1のうちの選択された当該部分CP1のみを表示する。
次に、第2の制御部80は、画像選択部58に表示された複数のサムネイル画像P1´〜P7´の中から、第2トリミング枠53Bでトリミングしたい編集対象画像(図14の例では編集対象画像P3)に対応するサムネイル画像を選択するように利用者Uに促す。
The second control unit 80 displays only the selected portion CP1 of the editing target image P1 based on the display data corresponding to the portion CP1 of the editing target image P1.
Next, the second control unit 80 edits an image to be trimmed by the second trimming frame 53B from among the plurality of thumbnail images P1 ′ to P7 ′ displayed on the image selection unit 58 (editing in the example of FIG. 14). The user U is prompted to select a thumbnail image corresponding to the target image P3).
また、第2の制御部80は、図14に示すように、第2の制御部80は、第2トリミング枠53Bをトリミング部51の中央部分に表示する。
利用者Uがバナーの左半分の部分に使用したい編集対象画像P3に対応するサムネイル画像P3´を選択すると、第2の制御部80は、トリミング部51に編集対象画像P3を表示する。
第2の制御部80は、第2トリミング枠53Bに対する編集対象画像P3の相対的な移動、回転、及び拡大縮小の少なくとも1つの編集入力により、第2トリミング枠53Bで囲まれるように選択された編集対象画像P3の部分を切り取る(ステップS350)。
Further, as shown in FIG. 14, the second control unit 80 displays the second trimming frame 53 </ b> B at the center portion of the trimming unit 51 as shown in FIG. 14.
When the user U selects a thumbnail image P3 ′ corresponding to the editing target image P3 that he wants to use for the left half portion of the banner, the second control unit 80 displays the editing target image P3 on the trimming unit 51.
The second control unit 80 is selected to be surrounded by the second trimming frame 53B by at least one editing input of relative movement, rotation, and enlargement / reduction of the editing target image P3 with respect to the second trimming frame 53B. The part of the editing target image P3 is cut out (step S350).
具体的には、第2の制御部80は、編集対象画像P3の表示用データから、トリミング枠53Bで選択された編集対象画像P3の部分に対応する表示用データを生成してメモリ80aに保存する。また、第2の制御部80は、編集対象画像P3の上記部分のみをトリミング部51に表示し、メモリ80aに、編集対象画像P3に関する上記移動、回転、及び拡大縮小並びにトリミング範囲の決定の処理内容を処理順に記憶する。   Specifically, the second control unit 80 generates display data corresponding to the portion of the edit target image P3 selected by the trimming frame 53B from the display data of the edit target image P3, and stores it in the memory 80a. To do. Further, the second control unit 80 displays only the portion of the editing target image P3 on the trimming unit 51, and processes the movement, rotation, enlargement / reduction, and determination of the trimming range regarding the editing target image P3 in the memory 80a. The contents are stored in the order of processing.
図15は、ステップS310のモバイルパーツの形状選択において、携帯電話の待ち受け画面に使用する形状であるタテ(480×624)が選択された場合の、トリミング範囲選択の画面を示す。
図15に示すように、モバイルパーツの形状選択の他の例として、タテ(480×624)が選択されると、第2の制御部80は、トリミング部51にタテ用の形状を有するトリミング枠53を表示して上述と同様のトリミング範囲選択の処理を行う。図15に示す例では、図13に示した例とは異なり、作成する画像と同じ形状(480×624)の範囲を、選択された編集対象画像からトリミングする。その他のトリミングする手順等については図13と同じなので説明は省略する。
FIG. 15 shows a screen for selecting a trimming range when the vertical (480 × 624) shape used for the mobile phone standby screen is selected in the mobile part shape selection in step S310.
As shown in FIG. 15, as another example of the mobile part shape selection, when the vertical (480 × 624) is selected, the second control unit 80 causes the trimming unit 51 to have a vertical trimming frame. 53 is displayed and the same trimming range selection process as described above is performed. In the example illustrated in FIG. 15, unlike the example illustrated in FIG. 13, a range having the same shape (480 × 624) as the image to be created is trimmed from the selected editing target image. The other trimming procedures are the same as in FIG.
図10の説明に戻る。
ステップS325において、顔画像が選択されるか、或いはステップS335又はステップS350において、選択された編集対象画像の部分が切り取られる(トリミングされる)と、第2の制御部80は、顔画像や選択された編集対象画像の部分に落書き(描画)等の編集を行うモバイルパーツ編集画面をディスプレイ400に表示する(ステップS360)。
Returning to the description of FIG.
When a face image is selected in step S325, or when a part of the selected image to be edited is cut (trimmed) in step S335 or step S350, the second control unit 80 selects the face image or the selection. A mobile part editing screen for editing graffiti (drawing) or the like is displayed on the display 400 in the edited image portion (step S360).
図16は、図13で説明したトリミング範囲選択画面に対応するモバイルパーツ編集画面の一例を示す図である。
モバイルパーツ編集画面は、トリミングされた編集対象画像を含む領域52に対して編集操作が行われるが、その編集操作は、図10で説明した印刷用画像編集画面のそれとほぼ同じであり、画面構成もほぼ同じであるので違いのみを説明する。違いとしては、「モバイルパーツ作成」ボタン45aの代わりに「通常のらくがきに戻る」ボタン45bが設けられている点である。そして、さらなる違いとしては、「アニメーションチェック」ボタン62と、「2つ目を編集」ボタン60と、「カタチを変更する」ボタン61とが設けられている点である。
「アニメーションチェック」ボタン62が選択されると、領域52に対してなされた落書きが動画像を含むものである場合は、動画像で構成された落書き部分がアニメーション表示される。
FIG. 16 is a diagram illustrating an example of a mobile parts editing screen corresponding to the trimming range selection screen described in FIG.
In the mobile part editing screen, an editing operation is performed on the area 52 including the trimmed editing target image. The editing operation is almost the same as that of the printing image editing screen described with reference to FIG. Are almost the same, so only the differences will be explained. The difference is that a “return to normal graffiti” button 45b is provided instead of the “create mobile part” button 45a. As a further difference, an “animation check” button 62, an “edit second” button 60, and a “change shape” button 61 are provided.
When the “animation check” button 62 is selected, if the graffiti made for the region 52 includes a moving image, the graffiti portion composed of the moving image is displayed as an animation.
ステップS360において、「2つ目を編集」ボタン60が選択される(ステップS370でYES)と、図16の例で説明すると、第2の制御部80は、モバイルパーツ編集画面に含まれる編集対象画像P1の出力用データ及び上記処理内容(トリミング範囲を決定する際の移動や拡大縮小、回転の順番を示す情報)に基づき、編集対象画像P1のトリミング範囲として選択された部分CP1(図16参照)に対応するトリミング済出力用データを生成する。そして、第2の制御部80は、当該トリミング済出力用データと、編集入力された落書きや貼り付け画像のデータ(以下、「入力画像データ」という)と、モバイルパーツの作成領域(例えば、バナーにおける画像を表示する領域52)内におけるこれらのデータに対応する画像の位置を指定するためのデータ(以下、「画像配置データ」という)を生成する。さらに、第2の制御部80は、トリミング済出力用データ、入力画像データおよび画像配置データを出力ユニット5に送信し、ステップS300へ戻り、2つ目のモバイルパーツの作成処理を行う。   If the “edit second button” button 60 is selected in step S360 (YES in step S370), the second control unit 80 will edit the editing target included in the mobile part editing screen, as described in the example of FIG. A portion CP1 selected as the trimming range of the image P1 to be edited (see FIG. 16) based on the output data of the image P1 and the above processing contents (information indicating the order of movement, enlargement / reduction, and rotation when determining the trimming range). Trimmed output data corresponding to () is generated. The second control unit 80 then outputs the trimmed output data, the edited graffiti and pasted image data (hereinafter referred to as “input image data”), and a mobile part creation area (for example, a banner). Data for designating the position of the image corresponding to these data in the image display area 52) is generated (hereinafter referred to as “image arrangement data”). Further, the second control unit 80 transmits the trimmed output data, the input image data, and the image arrangement data to the output unit 5, and returns to step S300 to perform the process of creating the second mobile part.
また、ステップS360において、「カタチを変更する」ボタン61が選択されると、第2の制御部80は、1つ目の編集済み画像に関する上記処理内容等のデータを破棄して、ステップS300へ戻り、モバイルパーツの作成処理をやり直す(ステップS370でYES)。   When the “change shape” button 61 is selected in step S360, the second control unit 80 discards the data such as the processing content related to the first edited image, and the process advances to step S300. Returning, the mobile part creation process is redone (YES in step S370).
一方、ステップS360において、「通常のらくがきに戻る」ボタン45bが選択される(ステップS370でNO)と、図9の印刷用画像編集画面に切り替わり、モバイルパーツ作成処理が終了する(ステップS380)。このとき、第2の制御部80は、上記と同様、切り替わる前のモバイルパーツ編集画面等においてなされた利用者の操作に基づいて、トリミング済出力用データ、入力画像データおよび画像配置データを作成する。作成されたデータは、出力ユニット5に送信される。なお、モバイルパーツ撮影処理の終了およびトリミング済出力用データ等の生成は、「通常のらくがきに戻る」ボタン45bの選択だけでなく、「終わる」ボタンの選択、および、タイマーの再設定時間が0になったことをトリガーにしている。「終わる」ボタンおよびタイマーの再設定時間に関しては、図8にて説明したとおりなので説明は省略する。   On the other hand, when the “return to normal graffiti” button 45b is selected in step S360 (NO in step S370), the screen is switched to the image editing screen for printing in FIG. 9, and the mobile part creation process is terminated (step S380). At this time, the second control unit 80 creates trimmed output data, input image data, and image arrangement data based on the user's operation performed on the mobile part editing screen before switching, as described above. . The created data is transmitted to the output unit 5. Note that the end of the mobile part photographing process and the generation of trimmed output data and the like are not limited to the selection of the “return to normal graffiti” button 45b but also the selection of the “end” button and the resetting time of the timer is 0. It is triggered by becoming. The “End” button and the resetting time of the timer are the same as described with reference to FIG.
〔出力処理〕
出力ユニット5の第3の制御部90は、トリミング済出力用データ、入力画像データおよび画像配置データを受信すると、これらを紐づけたデータを第3の制御部90のメモリ90aに保存する。また、このデータに基づく携帯送信用画像(図16のモバイルパーツ編集画面で編集された画像であって、トリミング済出力用データを利用した画像)を生成してメモリ90aに保存する。
[Output processing]
When receiving the trimmed output data, the input image data, and the image arrangement data, the third control unit 90 of the output unit 5 stores the data associated with them in the memory 90a of the third control unit 90. Further, an image for mobile transmission based on this data (an image edited on the mobile part editing screen of FIG. 16 and using the trimmed output data) is generated and stored in the memory 90a.
第3の制御部90は、利用者Uによる出力操作により、携帯送信用画像をモバイル端末に対して非接触通信部94から出力する。また、携帯送信用画像と、この携帯送信画像に係るトリミング済出力用データ、入力画像データおよび画像配置データを含むデータとを、インターネットを介してサーバに送信する。サーバは、モバイル端末からのアクセスおよび指示に基づいて、携帯送信用画像をモバイル端末に送信する。携帯送信用画像は、受信したトリミング済出力用データ、入力画像データおよび画像配信データに基づいてサーバで作成することもできる。これにより、高精細な画像を利用者はモバイル端末で取得することができる。   The third control unit 90 outputs the mobile transmission image from the non-contact communication unit 94 to the mobile terminal by an output operation by the user U. In addition, the mobile transmission image and the trimmed output data, the input image data, and the data including the image arrangement data related to the mobile transmission image are transmitted to the server via the Internet. The server transmits the mobile transmission image to the mobile terminal based on the access and instruction from the mobile terminal. The portable transmission image can be created by the server based on the received trimmed output data, input image data, and image distribution data. Thereby, the user can acquire a high-definition image with a mobile terminal.
ところで、第3の制御部90は、印刷用画像編集画面(図9参照)に関する出力用データ、入力画像データおよび画像配置データを第2の制御部80から受信しており、これらのデータを紐づけたデータをメモリ90aに保存する。また、このデータに基づいて印刷用画像(印刷用画像編集画面で編集された画像であって、出力用データを利用した画像)を生成する。そして、印刷用画像を印刷した写真シール等を印刷出力部92から出力する。これにより、高精細な画像が印刷された写真シールを利用者は取得することができる。
なお、第3の制御部90は、携帯送信用画像および印刷用画像を上記のように利用者に提供するだけでなく、携帯送信用画像を写真シールに印刷することもできるし、印刷用画像を携帯端末やサーバに送信することもできる。
Incidentally, the third control unit 90 receives the output data, the input image data, and the image arrangement data related to the print image editing screen (see FIG. 9) from the second control unit 80, and these data are linked. The attached data is stored in the memory 90a. Further, based on this data, a printing image (an image edited on the printing image editing screen and using the output data) is generated. Then, a photo sticker on which a printing image is printed is output from the print output unit 92. Accordingly, the user can obtain a photographic sticker on which a high-definition image is printed.
Note that the third control unit 90 can not only provide the mobile transmission image and the print image to the user as described above, but can also print the mobile transmission image on the photo sticker. Can be transmitted to a portable terminal or a server.
〔変形例〕
上述のトリミング編集処理では、第2の制御部80は、予め、メモリ80aにトリミング範囲選択のための編集対象画像に関する移動等の処理内容を処理順に記憶させておき、これに基づいて、当該編集対象画像の出力用データから編集済み画像の出力用データを生成する。
しかし、編集済み画像の出力用データを生成する構成はこれに限定されない。例えば、第2の制御部80は、編集対象画像に対する移動等の編集入力ごとに、表示用データに対する演算・加工処理と並行して、出力用データに対しても演算・加工処理を逐一行うことで編集済み画像の出力用データを生成してもよい。また、その他の方法で生成してもよい。
[Modification]
In the trimming editing process described above, the second control unit 80 stores processing contents such as movement related to the editing target image for selecting a trimming range in the processing order in advance in the memory 80a, and based on this, the editing is performed. The output data of the edited image is generated from the output data of the target image.
However, the configuration for generating the output data of the edited image is not limited to this. For example, the second control unit 80 performs the calculation / processing on the output data one by one in parallel with the calculation / processing on the display data for each editing input such as movement with respect to the image to be edited. In this case, the output data of the edited image may be generated. Further, it may be generated by other methods.
さらに、上述のトリミング編集処理では、編集済み画像の出力用データを編集処理部8の第2の制御部80が生成するが、出力処理部9の第3の制御部90がこの処理を行ってもよい。   Furthermore, in the above-described trimming editing process, the output data of the edited image is generated by the second control unit 80 of the editing processing unit 8, and the third control unit 90 of the output processing unit 9 performs this processing. Also good.
また、上述した実施形態では、トリミングする画像である編集対象画像として被写体の画像に背景画像等が合成されたものとして説明したがこれに限らない。背景画像等が合成されていない被写体のみの画像(上述の被写体画像)とすることもできる。   In the above-described embodiment, the background image or the like is combined with the image of the subject as the editing target image that is an image to be trimmed. However, the present invention is not limited to this. An image of only a subject to which a background image or the like is not combined (the above-described subject image) can also be used.
また、上述した実施形態では、絵文字(20×20)の画像の基となる顔画像を選択する際に、図12に示した顔画像選択画面を用いたがこれに限らない。例えば、図17に示す顔画像選択画面とすることもできる。
図17は、変形例に係る顔画像選択画面を示す図である。
この顔画顔画像選択画面には、上述したサムネイル画像P1´〜P7´を選択可能に表示する画像選択部101が含まれる。さらに、顔画像選択画面には、選択されたサムネイル画像に対応する編集対象画像に含まれるすべての顔画像が、選択可能に表示される顔画像選択部102が設けられる。
In the embodiment described above, the face image selection screen shown in FIG. 12 is used when selecting the face image that is the basis of the image of the pictogram (20 × 20), but the present invention is not limited to this. For example, the face image selection screen shown in FIG. 17 may be used.
FIG. 17 is a diagram illustrating a face image selection screen according to a modification.
This face image selection screen includes an image selection unit 101 that displays the thumbnail images P1 ′ to P7 ′ described above in a selectable manner. Further, the face image selection screen is provided with a face image selection unit 102 that displays all face images included in the image to be edited corresponding to the selected thumbnail image in a selectable manner.
図17に示す例では、利用者は、タッチペン49RによってサムネイルP1´を選択すると、編集対象画像P1からそれに含まれる2つの顔画像が切出され、切出された2つの顔画像が画像選択部101に表示される。そして、利用者は、画像選択部101に表示された2つの顔画像の中から編集するものをタッチペン49Rを用いて選択する。
このような構成によれば、編集対象画像にたくさんの顔が含まれていたとしても、タッチパネル400の表示範囲内に表示することができる。利用者は効率的に顔画像を選択することができる。
In the example shown in FIG. 17, when the user selects the thumbnail P1 ′ with the touch pen 49R, two face images included therein are cut out from the editing target image P1, and the two cut out face images are displayed in the image selection unit. 101. Then, the user selects an image to be edited from the two face images displayed on the image selection unit 101 using the touch pen 49R.
According to such a configuration, even if a large number of faces are included in the editing target image, it can be displayed within the display range of the touch panel 400. The user can select a face image efficiently.
また、上述した実施形態では、トリミングする編集対象画像の表示サイズを変更するために「拡大」ボタン55および「縮小」ボタン56(図13等参照)を備えているが、この代替えとして図18に示す「拡大・縮小」ボタン111a〜111dを設けてもよい。
「拡大・縮小」ボタン111a〜111dは、トリミングする編集対象画像の四隅に1つずつ配置される。
In the above-described embodiment, the “enlarge” button 55 and the “reduce” button 56 (see FIG. 13 and the like) are provided to change the display size of the editing target image to be trimmed. “Enlargement / reduction” buttons 111 a to 111 d may be provided.
“Enlargement / reduction” buttons 111a to 111d are arranged one by one at the four corners of the image to be edited.
利用者は、「拡大・縮小」ボタン111a〜111dのいずれかをタッチペン49Rでタッチし、所定の方向にスライドさせることにより編集対象画像の表示サイズの拡大・縮小を行う。図18に示す例では、タッチペン49Rで「拡大・縮小」ボタン111dをタッチしている。「拡大・縮小」ボタン111aに近づけるようにタッチペン49Rをスライドさせることで編集対象画像P1の表示サイズが小さくなり、「拡大・縮小」ボタン111aから遠ざかるようにスライドさせることで編集対象画像P1の表示サイズが大きくなる。このとき、「拡大・縮小」ボタン111aが配置される編集対象画像P1の隅の位置は変更されない。
このような構成とすることで、利用者はトリミングする編集対象画像P1の表示サイズの変更を直観的に行うことができ、容易にトリミング範囲を設定することができる。
The user touches any of the “enlargement / reduction” buttons 111a to 111d with the touch pen 49R and slides it in a predetermined direction to enlarge / reduce the display size of the image to be edited. In the example shown in FIG. 18, the “enlarge / reduce” button 111d is touched with the touch pen 49R. The display size of the image to be edited P1 is reduced by sliding the touch pen 49R closer to the “enlarge / reduce” button 111a, and the image to be edited P1 is displayed by sliding away from the “enlarge / reduce” button 111a. Increase in size. At this time, the position of the corner of the editing target image P1 where the “enlarge / reduce” button 111a is arranged is not changed.
With such a configuration, the user can intuitively change the display size of the editing target image P1 to be trimmed, and can easily set the trimming range.
また、上述した実施形態において、図19に示すように、トリミング枠53の範囲内の一部に編集対象画像P1が含まれないような非表示領域がある状態でトリミングを行うと、範囲53aが編集対象画像P1から切り出されるが、この切り出された画像のサイズは、図11にて選択されたサイズ(480×624)とは異なる。そこで、トリミング枠53内の非表示領域に対応する部分53bに所定の画像を追加して、切り出された画像と当該所定の画像とを合体させて選択されたサイズ(480×624)にする。   In the above-described embodiment, as shown in FIG. 19, when trimming is performed in a state where there is a non-display area that does not include the editing target image P <b> 1 within the trimming frame 53, the range 53 a is displayed. Although it is cut out from the editing target image P1, the size of this cut out image is different from the size (480 × 624) selected in FIG. Therefore, a predetermined image is added to the portion 53b corresponding to the non-display area in the trimming frame 53, and the cut-out image and the predetermined image are merged to a selected size (480 × 624).
また、上述した実施形態において、トリミング枠53を利用者の指示に基づいて、移動、拡大・縮小あるいは回転のいずれか1つの処理を行うようにすることもできる。ただし、トリミング枠53の位置等を固定した後に、上述したような編集対象画像を動かす処理を行うようにすることが好ましい。これにより、利用者は、編集対象画像のトリミング範囲をより正確に設定できるようになる。   In the above-described embodiment, the trimming frame 53 can be subjected to any one process of movement, enlargement / reduction, and rotation based on a user instruction. However, it is preferable to perform the process of moving the image to be edited as described above after fixing the position of the trimming frame 53 and the like. As a result, the user can set the trimming range of the image to be edited more accurately.
また、上述した実施形態では、表示用データと出力用データを用意したが、表示用データだけ用意することもできる。この場合、編集対象画像のトリミングを行う際に、表示用データからトリミングを行いトリミング画像を生成する。このトリミング画像を生成に関しては、表示用データと出力用データとの対応関係を演算する必要がないので、コンピュータに対する負荷を低減することができ、ゲームの速度を高めることができる。これにより、回転率を向上させることができる、という効果がある。   In the above-described embodiment, display data and output data are prepared. However, only display data can be prepared. In this case, when the image to be edited is trimmed, trimming is performed from the display data to generate a trimmed image. Regarding the generation of the trimmed image, it is not necessary to calculate the correspondence between the display data and the output data, so that the load on the computer can be reduced and the game speed can be increased. Thereby, there exists an effect that a rotation rate can be improved.
〔編集処理部の効果〕
以上の通り、本実施形態の編集処理部8(編集ユニット4)では、第2の制御部80がトリミング枠53,53A,53Bに対する編集対象画像P1〜P7の相対的な移動、回転、及び拡大縮小の少なくとも1つの編集入力により、トリミング枠53,53A,53Bで囲まれるように選択された編集対象画像P1〜P7の部分を、画像データとしてメモリ80a,90aに記憶させる構成である。
[Effects of the editing processor]
As described above, in the editing processing unit 8 (editing unit 4) of the present embodiment, the second control unit 80 moves, rotates, and enlarges the editing target images P1 to P7 relative to the trimming frames 53, 53A, and 53B. In this configuration, the portions of the editing target images P1 to P7 selected so as to be surrounded by the trimming frames 53, 53A, and 53B by at least one editing input for reduction are stored in the memories 80a and 90a as image data.
このため、利用者Uは、トリミング枠53,53A,53Bに対して編集対象画像P1〜P7を相対的に移動、回転させてトリミング範囲を選択することができるため、視線を移動させたり、顔を傾けずともトリミング枠53,53A,53Bで切り取られる画像の出来栄えを確認することができる。さらに、利用者Uは、トリミング枠53,53A,53Bに対して編集対象画像P1〜P7を相対的に拡大縮小させてトリミング範囲を選択することができるため、トリミング枠53,53A,53Bで切り取られる画像の画質の程度を認識することができる。また、編集対象画像P1〜P7の詳細な部分も精度良く選択することができる。
したがって、編集対象画像P1〜P7に対してトリミング枠53,53A,53Bを相対的に移動、回転又は拡大縮小させてトリミング範囲を選択する場合に比べて、利用者Uは、トリミング枠53で切り取られる画像の出来栄えを認識し易い。
For this reason, the user U can select the trimming range by moving and rotating the editing target images P1 to P7 relative to the trimming frames 53, 53A, and 53B. It is possible to confirm the quality of the image cut out by the trimming frames 53, 53A, 53B without tilting the frame. Furthermore, since the user U can select the trimming range by relatively enlarging and reducing the editing target images P1 to P7 with respect to the trimming frames 53, 53A, and 53B, the user U can cut the trimming frames 53, 53A, and 53B. It is possible to recognize the degree of image quality of the image to be displayed. Further, detailed portions of the editing target images P1 to P7 can be selected with high accuracy.
Therefore, compared with the case where the trimming frame 53, 53A, 53B is moved, rotated or enlarged / reduced relative to the editing target images P1 to P7 and the trimming range is selected, the user U cuts the trimming frame 53 using the trimming frame 53. It is easy to recognize the quality of the resulting image.
本実施形態の編集処理部8(編集ユニット4)は、編集操作用のタッチパネル400は、編集対象画像P1〜P7とトリミング枠53,53A,53Bとを重ねて表示する場合において、編集対象画像P1〜P7におけるトリミング枠外の部分も表示する。
このため、利用者Uは、トリミング範囲以外の部分を含んだ編集対象画像P1〜P7全体を見ながら編集対象画像P1〜P7の移動等の操作を行うことができるため、トリミング範囲の選択を容易に行うことができる。
The editing processing unit 8 (editing unit 4) of the present embodiment is configured to edit the editing target image P1 when the editing operation touch panel 400 displays the editing target images P1 to P7 and the trimming frames 53, 53A, and 53B in an overlapping manner. The portion outside the trimming frame in .about.P7 is also displayed.
For this reason, the user U can perform operations such as moving the editing target images P1 to P7 while looking at the entire editing target images P1 to P7 including the portion other than the trimming range, so that the trimming range can be easily selected. Can be done.
本実施形態の編集処理部8(編集ユニット4)では、メモリ80a,90aに記憶された画像データを出力する印刷出力部92及び非接触通信部94を更に備え、画像データとして、編集操作用のタッチパネル400に表示される表示用データと、表示用データの画像より高精細な画像に対応する出力用データとが記憶されており、印刷出力部92及び非接触通信部94は出力用データを出力する。
このため、表示用データに対応する画像よりも高精細な出力用データに対応する画像を利用者Uに提供することができる。
The editing processing unit 8 (editing unit 4) according to the present embodiment further includes a print output unit 92 and a non-contact communication unit 94 that output image data stored in the memories 80a and 90a. Display data displayed on the touch panel 400 and output data corresponding to a higher definition image than the display data image are stored, and the print output unit 92 and the non-contact communication unit 94 output the output data. To do.
Therefore, it is possible to provide the user U with an image corresponding to the output data with higher definition than the image corresponding to the display data.
本実施形態の編集処理部8(編集ユニット4)では、編集操作用のタッチパネル400は、編集対象画像P1〜P7及びトリミング枠53以外に、バナーにおける画像を表示する領域52内であってトリミング枠53外の部分と、この部分に予め設定された付加画像Q1を表示する。
このため、利用者Uは、付加画像Q1と編集対象画像P1〜P7との相対的な位置関係を確認しながら、仕上がり具合を予想してトリミング範囲を選択することができるため、所望の編集済み画像を得ることができる。
In the editing processing unit 8 (editing unit 4) of the present embodiment, the touch panel 400 for editing operation is in the area 52 for displaying the image in the banner in addition to the editing target images P1 to P7 and the trimming frame 53, and the trimming frame. A portion outside 53 and an additional image Q1 preset in this portion are displayed.
For this reason, the user U can select the trimming range in anticipation of the finish while confirming the relative positional relationship between the additional image Q1 and the editing target images P1 to P7. An image can be obtained.
4 編集ユニット(画像編集装置)
8 編集処理部(画像編集装置)
31 通信ポート(出力手段)
35 ネットワークプリンタ(出力手段)
52 バナーにおける画像を表示する領域
53 トリミング枠
53A 第1トリミング枠(トリミング枠)
53B 第2トリミング枠(トリミング枠)
80 第2の制御部(編集手段)
80a メモリ(記憶手段)
81 第2の表示・操作部(表示手段)
82 第2の表示・操作部(表示手段)
90a メモリ(記憶手段)
92 印刷出力部(出力手段)
94 非接触通信部(出力手段)
400 編集操作用のタッチパネル(表示手段)
P1〜P7 編集対象画像
Q1 付加画像
CP1 選択された編集対象画像の部分(選択された撮影画像の部分)
4. Editing unit (image editing device)
8 Editing processing unit (Image editing device)
31 Communication port (output means)
35 Network printer (output means)
52 Area for Displaying Image in Banner 53 Trimming Frame 53A First Trimming Frame (Trimming Frame)
53B Second trimming frame (trimming frame)
80 Second control unit (editing means)
80a memory (storage means)
81 Second display / operation unit (display means)
82 Second display / operation unit (display means)
90a Memory (storage means)
92 Print output section (output means)
94 Non-contact communication part (output means)
400 Touch panel (display means) for editing operations
P1 to P7 Image to be edited Q1 Additional image CP1 Part of the selected image to be edited (part of the selected photographed image)

Claims (5)

  1. 利用者を被写体として複数回撮影して複数の撮影画像を取得する撮影部と、
    複数の前記撮影画像の中から少なくとも1つの画像を前記利用者が選択できるように当該撮影画像を表示し、選択された前記画像である編集対象画像と、トリミング範囲が設定された合成用画像とを重ねて表示する表示部と、
    前記編集対象画像の前記トリミング範囲に相当する部分を抽出し、抽出された前記部分を前記合成用画像に合成して合成画像を生成する画像処理部と、
    前記利用者が前記編集対象画像を確定させる操作を完了するまで前記画像の選択を受け付け、前記操作の完了前に別の前記画像が選択されると、前記合成用画像に重ねて表示する前記編集対象画像を選択された別の前記画像に切り替える制御部と、を備える遊戯用撮影装置。
    An imaging unit that captures a user multiple times and obtains a plurality of captured images;
    The photographed image is displayed so that the user can select at least one image from a plurality of the photographed images, and the editing target image that is the selected image, the composition image in which the trimming range is set, A display unit that displays
    An image processing unit that extracts a portion corresponding to the trimming range of the image to be edited and combines the extracted portion with the combining image to generate a combined image;
    The editing accepts the selection of the image until the user completes the operation of confirming the image to be edited, and when another image is selected before the operation is completed, the editing is displayed so as to be superimposed on the image for synthesis. And a control unit that switches the target image to another selected image.
  2. 前記合成用画像は前記トリミング範囲を複数有しており、
    前記表示部は、複数の前記トリミング範囲に対応する前記撮影画像を、共通の複数の前記撮影画像の中からそれぞれ選択可能となるように表示する請求項1に記載の遊戯用撮影装置。
    The composition image has a plurality of the trimming ranges,
    The game photographing apparatus according to claim 1, wherein the display unit displays the photographed images corresponding to the plurality of trimming ranges so as to be selectable from a plurality of common photographed images.
  3. 前記合成用画像は、前記利用者を被写体とする撮影画像を含まない合成用画像である請求項1又は2に記載の遊戯用撮影装置。The game photographing apparatus according to claim 1, wherein the composition image is a composition image that does not include a photographed image of the user.
  4. 利用者を被写体として複数回撮影して複数の撮影画像を取得するステップと、
    複数の前記撮影画像の中から少なくとも1つの画像を前記利用者が選択できるように当該撮影画像を表示し、選択された前記画像である編集対象画像と、トリミング範囲が設定された合成用画像とを重ねて表示するステップと、
    前記編集対象画像の前記トリミング範囲に相当する部分を抽出し、抽出された前記部分を前記合成用画像に合成して合成画像を生成するステップと、
    前記利用者が前記編集対象画像を確定させる操作が完了するまで前記画像の選択を受け付け、前記操作の完了前に別の前記画像が選択されると、前記合成用画像に重ねて表示する前記編集対象画像を選択された別の前記画像に切り替えるステップと、を含む遊戯用撮影方法。
    Capturing a plurality of captured images by capturing a user as a subject multiple times;
    The photographed image is displayed so that the user can select at least one image from a plurality of the photographed images, and the editing target image that is the selected image, the composition image in which the trimming range is set, The step of displaying
    Extracting a portion corresponding to the trimming range of the image to be edited, and combining the extracted portion with the image for synthesis to generate a composite image;
    The editing accepts the selection of the image until the user completes the operation of determining the image to be edited, and displays another image superimposed on the composition image when another image is selected before the operation is completed. And a step of switching the target image to another selected image.
  5. コンピュータを遊戯用撮影装置として機能させるためのコンピュータプログラムであって、前記コンピュータに
    利用者を被写体として複数回撮影して複数の撮影画像を取得するステップと、
    複数の前記撮影画像の中から少なくとも1つの画像を前記利用者が選択できるように当該撮影画像を表示し、選択された前記画像である編集対象画像と、トリミング範囲が設定された合成用画像とを重ねて表示するステップと、
    前記編集対象画像の前記トリミング範囲に相当する部分を抽出し、抽出された前記部分を前記合成用画像に合成して合成画像を生成するステップと、
    前記利用者が前記編集対象画像の確定させる操作が完了するまで前記画像の選択を受け付け、前記操作の完了前に別の前記画像が選択されると、前記合成用画像に重ねて表示する前記編集対象画像を選択された別の前記画像に切り替えるステップと、を実行させるためのコンピュータプログラム。
    A computer program for causing a computer to function as a game for shooting device, to the computer,
    Capturing a plurality of captured images by capturing a user as a subject multiple times;
    The photographed image is displayed so that the user can select at least one image from a plurality of the photographed images, and the editing target image that is the selected image, the composition image in which the trimming range is set, The step of displaying
    Extracting a portion corresponding to the trimming range of the image to be edited, and combining the extracted portion with the image for synthesis to generate a composite image;
    The editing accepts the selection of the image until the user completes the operation of confirming the image to be edited, and when another image is selected before the completion of the operation, the editing is displayed so as to be superimposed on the composition image. computer program for executing the steps of switching to another of the image to the selected object image.
JP2015149638A 2015-07-29 2015-07-29 Game shooting device, game shooting method and computer program Active JP6090380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015149638A JP6090380B2 (en) 2015-07-29 2015-07-29 Game shooting device, game shooting method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015149638A JP6090380B2 (en) 2015-07-29 2015-07-29 Game shooting device, game shooting method and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015111132A Division JP5787041B1 (en) 2015-06-01 2015-06-01 Game shooting device, game shooting method and computer program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016046003A Division JP5988002B2 (en) 2016-03-09 2016-03-09 Game shooting device, game shooting method and computer program

Publications (2)

Publication Number Publication Date
JP2016006990A JP2016006990A (en) 2016-01-14
JP6090380B2 true JP6090380B2 (en) 2017-03-08

Family

ID=55225180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015149638A Active JP6090380B2 (en) 2015-07-29 2015-07-29 Game shooting device, game shooting method and computer program

Country Status (1)

Country Link
JP (1) JP6090380B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007066177A (en) * 2005-09-01 2007-03-15 Media Groove:Kk Image processor, and image processing method and program
JP5012668B2 (en) * 2008-05-30 2012-08-29 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5338805B2 (en) * 2010-12-28 2013-11-13 フリュー株式会社 Photo sticker creation apparatus and processing method
JP5888694B2 (en) * 2011-01-13 2016-03-22 株式会社メイクソフトウェア Photography game machine, photography game method and control program

Also Published As

Publication number Publication date
JP2016006990A (en) 2016-01-14

Similar Documents

Publication Publication Date Title
JP5782873B2 (en) Game shooting device, game shooting method and program
JP6582466B2 (en) Image processing apparatus, image processing method, and image processing program
JP5757279B2 (en) Game shooting device, game shooting method and computer program
JP2013243466A (en) Imaging apparatus for game, imaging method for game, and program
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP5988002B2 (en) Game shooting device, game shooting method and computer program
JP6090380B2 (en) Game shooting device, game shooting method and computer program
JP5787041B1 (en) Game shooting device, game shooting method and computer program
JP5958047B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP5527460B2 (en) Game shooting device, game shooting method and computer program
JP5887752B2 (en) Photography game device, photography game method, and photography game program
JP6245529B2 (en) Game shooting device, game shooting method and program
JP6090369B2 (en) Game shooting device, game shooting method and program
JP5974611B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP2013090325A (en) Image printing apparatus, image printing method, and computer program
JP5910639B2 (en) Image processing apparatus, image processing method, and computer program
JP5273282B2 (en) Image editing apparatus, image editing method, image printing apparatus, and computer program
JP5273281B2 (en) Image editing apparatus, image editing method, and computer program
JP5045841B1 (en) Image printing apparatus, image printing method, and computer program
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP5790896B2 (en) Game shooting device, game shooting method, and game shooting program
JP2013090340A (en) Image printing apparatus, image printing method, and computer program
JP5967283B2 (en) Photo shooting game machine, its control method and control program
JP5742891B2 (en) Photo sticker creation device
JP5660243B2 (en) Game shooting device, game shooting method and computer program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170123

R150 Certificate of patent or registration of utility model

Ref document number: 6090380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250