JP5854333B2 - Image output device - Google Patents

Image output device Download PDF

Info

Publication number
JP5854333B2
JP5854333B2 JP2013091663A JP2013091663A JP5854333B2 JP 5854333 B2 JP5854333 B2 JP 5854333B2 JP 2013091663 A JP2013091663 A JP 2013091663A JP 2013091663 A JP2013091663 A JP 2013091663A JP 5854333 B2 JP5854333 B2 JP 5854333B2
Authority
JP
Japan
Prior art keywords
image
pixel
unit
smoothing
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013091663A
Other languages
Japanese (ja)
Other versions
JP2014216788A (en
Inventor
石田 裕之
裕之 石田
由明 堀
由明 堀
Original Assignee
株式会社メイクソフトウェア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社メイクソフトウェア filed Critical 株式会社メイクソフトウェア
Priority to JP2013091663A priority Critical patent/JP5854333B2/en
Publication of JP2014216788A publication Critical patent/JP2014216788A/en
Application granted granted Critical
Publication of JP5854333B2 publication Critical patent/JP5854333B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画質の低下を抑えつつ、データ量を削減できる画像出力装置に関する。   The present invention relates to an image output apparatus capable of reducing the amount of data while suppressing deterioration in image quality.

近年、ゲームセンター等の遊戯を提供する店舗では、写真を撮影してシールプリントを出力する画像出力装置が数多く設置されている。このような画像出力装置は、一般に、被写体であるユーザを装置付属のカメラで撮影し、得られた撮影画像をタブレットディスプレイなどに表示して付属のタッチペンで文字や図形などを入力する、いわゆる落書きやお絵描きといわれている編集機能があるものが一般的になっている。そして、このような編集入力された編集画像は撮影画像と合成され、合成画像がプリンタで印刷されてユーザに提供される。   In recent years, stores providing games such as game centers have many image output devices that take pictures and output sticker prints. Such an image output device generally captures a user, who is a subject, with a camera attached to the device, displays the obtained photographed image on a tablet display, etc., and inputs characters or figures with an attached touch pen. The ones that have an editing function called drawing are becoming common. Then, the edited and edited image is combined with the captured image, and the combined image is printed by a printer and provided to the user.

また、画像出力装置は通信手段を備え、画像出力装置にて作成した撮影画像または合成画像を、ネットワークを介して外部のサーバ装置に送信して蓄積し、ユーザの携帯電話機等に配信できるようにした画像配信システムが登場している。   Further, the image output device includes a communication unit so that a captured image or a composite image created by the image output device can be transmitted and stored to an external server device via a network and distributed to a user's mobile phone or the like. An image distribution system has appeared.

このような画像を携帯電話機に配信する技術に関して、例えば、特許文献1には、画像合成装置で撮影され、合成出力された画像を通信回線を介して任意の携帯電話機、PHS、PDA等の端末に送信して表示可能にする技術が開示されている。   With regard to a technique for distributing such an image to a mobile phone, for example, Patent Document 1 discloses a terminal such as an arbitrary mobile phone, PHS, PDA, etc. via a communication line. A technique for transmitting data to and displaying it is disclosed.

特開2001−245290号公報JP 2001-245290 A

上述した画像出力装置では、撮影画像又はユーザによって編集された合成画像をシール紙に印刷してユーザに提供するので、印刷用に比較的高精細な画像を用いることが多い。すなわち、画像出力装置の付属カメラにより画素数が多い画像を用意しておき、この画像に対する編集入力を受付けた上でシール紙に印刷するので、画像出力装置で用いる画像は、一般的な画面表示用の画像と比較して、データ量が大きいことが多い。   In the above-described image output apparatus, a captured image or a composite image edited by the user is printed on a sticker sheet and provided to the user, so that a relatively high-definition image is often used for printing. That is, an image having a large number of pixels is prepared by an attached camera of the image output apparatus, and an edit input for this image is received and printed on a sticker sheet. Therefore, an image used in the image output apparatus is displayed on a general screen. In many cases, the amount of data is larger than that of a conventional image.

このため、画像出力装置で作成された撮影画像又は合成画像を圧縮せずにサーバ装置にアップロードした場合、非常に時間が掛かるという問題点を有している。一方、データ量を削減するために高圧縮率で画像を圧縮した場合、画質の劣化が発生し易いので、ユーザに提供する閲覧用の画像として適さないという問題点を有している。   For this reason, when a captured image or a composite image created by the image output device is uploaded to the server device without being compressed, there is a problem that it takes a very long time. On the other hand, when an image is compressed at a high compression rate in order to reduce the amount of data, there is a problem that image quality is likely to be deteriorated, so that it is not suitable as a browsing image provided to a user.

本発明は斯かる事情に鑑みてなされたものであり、画質の低下を抑えつつ、データ量を削減できる画像出力装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and an object thereof is to provide an image output apparatus capable of reducing the amount of data while suppressing deterioration in image quality.

本発明に係る画像出力装置は、被写体を撮影して撮影画像を出力する撮影手段、前記撮影画像に対する編集を受付ける編集手段、及び前記撮影画像と前記編集手段により編集された編集画像とを合成し、合成画像を生成する合成手段を備える画像出力装置において、前記被写体の複数の部位に対応する画像領域を前記撮影画像から夫々抽出する抽出手段と、該抽出手段により抽出した各画像領域内の注目画素を含む画素領域内にエッジに相当する画素が含まれない場合、前記注目画素に対する平滑化処理を行い、前記画素領域内にエッジに相当する画素が含まれる場合、前記平滑化処理を禁止する平滑化手段と、該平滑化手段より得られる画像データを符号化する符号化手段と、該符号化手段が符号化した画像データを外部へ送信する送信手段とを備え、前記平滑化処理を実行するか否かの判断基準を示す所定値を、前記抽出手段が抽出する少なくとも2つの画像領域で異ならせることを特徴とする。 An image output apparatus according to the present invention includes a photographing means for photographing a subject and outputting a photographed image, an editing means for accepting an edit on the photographed image, and the photographed image and an edited image edited by the editing means. In the image output apparatus including a synthesis unit that generates a synthesized image, an extraction unit that extracts each of image regions corresponding to a plurality of parts of the subject from the photographed image, and attention in each image region extracted by the extraction unit When a pixel corresponding to an edge is not included in the pixel area including the pixel, the smoothing process is performed on the pixel of interest, and when the pixel corresponding to the edge is included in the pixel area, the smoothing process is prohibited. Smoothing means, encoding means for encoding image data obtained from the smoothing means, and a transmitter for transmitting the image data encoded by the encoding means to the outside With the door, a predetermined value indicating whether the criteria to perform the smoothing process, and wherein the varied in at least two image area said extracting means extracts.

本発明に係る画像出力装置は、前記平滑化手段は、前記撮影画像又は合成画像中の注目画素及び複数の周辺画素を含む画素領域内で、前記注目画素の画素値と各周辺画素の画素値との差分を算出する手段、前記画素領域内で前記差分が所定値以上となる周辺画素を含むか否かを判断する手段、前記周辺画素を含むと判断した場合には前記注目画素の画素値を出力し、前記周辺画素を含まないと判断した場合には前記画素領域内の各画素の平均値を前記注目画素の画素値として出力する出力手段を備え、前記出力手段が出力した画素値に基づき、平滑化処理を施した画像データを生成するようにしてあることを特徴とする。   In the image output apparatus according to the present invention, the smoothing unit includes a pixel value of the target pixel and a pixel value of each peripheral pixel in a pixel region including the target pixel and a plurality of peripheral pixels in the captured image or the composite image. A means for calculating a difference between the pixel value, a means for determining whether or not the pixel area includes a peripheral pixel in which the difference is equal to or greater than a predetermined value, and a pixel value of the target pixel if the pixel is determined to include the peripheral pixel Output means for outputting the average value of each pixel in the pixel area as the pixel value of the pixel of interest when it is determined that the peripheral pixel is not included, and the pixel value output by the output means Based on the above, image data subjected to smoothing processing is generated.

本発明に係る画像出力装置は、前記被写体の特定の部位に対応する特定画像領域を前記撮影画像から抽出する第2の抽出手段を備え、該第2の抽出手段が抽出した特定画像領域に対して前記平滑化処理を施し、前記特定画像領域以外の領域に対して前記平滑化処理を施さないようにしてあることを特徴とする。 The image output apparatus according to the present invention includes a second extracting means for extracting a specific image area corresponding to a specific site of the object from the captured image, for a particular image region said second extraction means extracts The smoothing process is performed, and the smoothing process is not performed on areas other than the specific image area.

本発明に係る画像出力装置は、前記平滑化処理を特徴付ける変数を、前記抽出手段が抽出する少なくとも2つの画像領域で異ならせることを特徴とする。 The image output apparatus according to the present invention, the pre-Symbol variables characterizing the smoothing process, and wherein the varied in at least two image area said extracting means extracts.

本発明に係る画像出力装置は、前記撮影画像又は合成画像に基づき、前記平滑化手段による平滑化処理及び前記符号化手段による符号化を行っていない印刷用の画像データを生成する画像処理手段と、該画像処理手段が生成した印刷用の画像データに基づいてシール紙への印刷を行う印刷手段とを更に備える。   An image output device according to the present invention comprises: image processing means for generating image data for printing that is not subjected to smoothing processing by the smoothing means and encoding by the encoding means, based on the captured image or composite image; And printing means for printing on the sticker paper based on the image data for printing generated by the image processing means.

本願では、画像出力装置にて写真撮影された画像のうち、ユーザの顔の輪郭、目、髪の毛などのエッジが強い部分、すなわち、色差がある程度存在している部分を劣化させずに、ユーザの頬などの類似色で構成された画素の色が平均化される。このような画像を符号化することで、画像出力装置に適した画像の特徴を維持しつつ、画像データのデータ量が削減される。   In the present application, a part of a user's face contour, eyes, hair, and other strong edges in an image photographed by the image output device, that is, a part where a color difference exists to some extent is not deteriorated. The colors of pixels composed of similar colors such as cheeks are averaged. By encoding such an image, the amount of image data can be reduced while maintaining image characteristics suitable for the image output apparatus.

本発明による場合、画質を維持しつつ、画像データのデータ量を削減することができるので、通信コストを抑制することができ、画像出力装置から外部のサーバ装置へ画像データをアップロードする時間、及び外部サーバからユーザの端末に画像データをダウンロードする時間を短縮することができる。   According to the present invention, it is possible to reduce the data amount of the image data while maintaining the image quality, so that the communication cost can be suppressed, the time for uploading the image data from the image output device to the external server device, and The time for downloading image data from the external server to the user's terminal can be shortened.

本実施の形態に係る画像出力装置の外観を示す斜視図である。It is a perspective view which shows the external appearance of the image output device which concerns on this Embodiment. 本実施の形態に係る画像出力装置の外観を示す斜視図である。It is a perspective view which shows the external appearance of the image output device which concerns on this Embodiment. 本実施の形態に係る画像出力装置の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the image output device which concerns on this Embodiment. 本実施の形態に係る画像出力装置の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the image output device which concerns on this Embodiment. 画像処理部の機能的構成の一例を示すブロック図である。It is a block diagram which shows an example of a functional structure of an image process part. 領域設定部により設定される画素領域を説明する模式図である。It is a schematic diagram explaining the pixel area | region set by the area | region setting part. 本実施の形態に係る画像出力装置が実行する処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process which the image output device which concerns on this Embodiment performs. 送信用画像データの生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of the image data for transmission. 実施の形態2に係る画像処理部が実行する処理の手順の一部を示すフローチャートである。12 is a flowchart illustrating a part of a procedure of processing executed by the image processing unit according to the second embodiment.

以下、本発明をその実施の形態を示す図面に基づいて具体的に説明する。
実施の形態1.
図1及び図2は本実施の形態に係る画像出力装置の外観を示す斜視図である。画像出力装置は全体として略直方体形状のボックス型の装置であり、鉛直方向に略半分に分けるように仕切りが設けられている。画像出力装置は、この仕切りによって撮影空間R1及び編集空間R2に分けられている。図1は主に画像出力装置の撮影空間R1側から観た外観斜視図を示しており、図2は主に編集空間R2側から観た画像出力装置の外観斜視図を示している。
Hereinafter, the present invention will be specifically described with reference to the drawings showing embodiments thereof.
Embodiment 1 FIG.
1 and 2 are perspective views showing the appearance of the image output apparatus according to the present embodiment. The image output apparatus is a box-type apparatus having a substantially rectangular parallelepiped shape as a whole, and is provided with a partition so as to be divided in substantially half in the vertical direction. The image output apparatus is divided into an imaging space R1 and an editing space R2 by this partition. FIG. 1 shows an external perspective view mainly viewed from the photographing space R1 side of the image output apparatus, and FIG. 2 shows an external perspective view of the image output apparatus mainly viewed from the editing space R2 side.

図1の斜視図に示すように、撮影空間R1は略直方体をなすフレームに囲まれた空間である。撮影空間R1は、ユーザからの料金の投入を受け付け、ユーザの写真撮影を実行するための空間である。撮影空間R1には、所定料金を受け付ける受付部1が外側に設けられており、また、編集空間R2との仕切りに相当する内部壁面にはユーザを撮影するためのカメラ21、ディスプレイ22等の機器を含む撮影部2が設けられている。   As shown in the perspective view of FIG. 1, the imaging space R1 is a space surrounded by a frame that forms a substantially rectangular parallelepiped. The shooting space R1 is a space for accepting the input of a fee from the user and for taking a picture of the user. The photographing space R1 is provided with a receiving unit 1 that accepts a predetermined fee on the outside, and devices such as a camera 21 and a display 22 for photographing a user on an inner wall surface corresponding to a partition with the editing space R2. An imaging unit 2 including is provided.

受付部1には、硬貨の投入を受け付けるコイン投入口10と、コイン投入口10から投入される硬貨の真偽を判定するコインセレクタ11と、投入された硬貨の総額又は投入残額等の各種情報を表示するための表示パネル12とが含まれる。コインセレクタ11は、コイン投入口10から投入される硬貨の真偽を判定して判定信号を送出する。コインセレクタ11は、硬貨が偽と判定された場合、又は硬貨を受け付けないように設定されている間、図示しないコイン返却口へ硬貨を吐き出す。表示パネル12は、液晶パネル、セグメントLED等からなり、制御信号を受け付けてコインの投入を促す案内、投入すべき料金、投入総額、残額、又は他のユーザが撮影中でありコインの投入を受け付けていない旨の案内等を表示する。   The reception unit 1 includes a coin insertion slot 10 that accepts coin insertion, a coin selector 11 that determines the authenticity of coins inserted from the coin insertion slot 10, and various types of information such as the total amount of coins inserted or the amount remaining. And a display panel 12 for displaying. The coin selector 11 determines the authenticity of the coin inserted from the coin insertion slot 10 and sends a determination signal. The coin selector 11 discharges a coin to a coin return port (not shown) when the coin is determined to be false or while it is set not to accept a coin. The display panel 12 is composed of a liquid crystal panel, a segment LED, etc., and receives a control signal to prompt the insertion of coins, a charge to be inserted, the total amount to be inserted, the remaining amount, or another user is shooting and accepts the insertion of a coin A message indicating that it has not been displayed.

受付部1に含まれている表示パネル12及びコインセレクタ11は、後述する第1筐体の内部に収納された制御機構に接続されており、制御機構との間で判定信号、制御信号等を送受信する。   The display panel 12 and the coin selector 11 included in the receiving unit 1 are connected to a control mechanism housed in a first housing described later, and a determination signal, a control signal, and the like are transmitted to the control mechanism. Send and receive.

ユーザは、受付部1のコイン投入口10から所定料金に相当する硬貨を投入することにより、画像出力装置によるサービスを受けることができる。   The user can receive a service by the image output device by inserting coins corresponding to a predetermined fee from the coin insertion slot 10 of the reception unit 1.

撮影空間R1の内部、即ち撮影ブース内部には、撮影部2を構成する各機器が設置されている。撮影ブース内部の編集空間R2との空間を仕切る壁面の下部には、各機器を制御する制御機構を収納した第1筐体20が設置されている。第1筐体20の上方であって、立った状態のユーザの略目線の高さの位置にカメラ21が設置されている。カメラ21の下方には、カメラ21から出力される映像信号に基づきプレビュー画面を表示し、且つユーザの操作を受け付けるタッチパネル式のディスプレイ22が設定されている。また、カメラ21及びディスプレイ22を囲むように被写体に光を照射するストロボ・ランプ23が設置されている。また、第1筐体20上部には音楽、案内音声を出力するスピーカ24,24が設置されている。   In the imaging space R1, that is, inside the imaging booth, each device constituting the imaging unit 2 is installed. A first housing 20 containing a control mechanism for controlling each device is installed at the lower part of the wall surface that partitions the space with the editing space R2 inside the photographing booth. A camera 21 is installed above the first housing 20 and at a height that is approximately the height of the standing user. A touch panel display 22 that displays a preview screen based on a video signal output from the camera 21 and accepts a user operation is set below the camera 21. Further, a strobe lamp 23 for irradiating the subject with light is provided so as to surround the camera 21 and the display 22. Speakers 24 and 24 for outputting music and guidance voice are installed on the upper portion of the first housing 20.

撮影部2を構成するカメラ21、ディスプレイ22、ストロボ・ランプ23及びスピーカ24,24は夫々、第1筐体20の内部に設置されている制御機構に夫々接続されている。   The camera 21, the display 22, the strobe lamp 23, and the speakers 24 and 24 constituting the photographing unit 2 are respectively connected to a control mechanism installed in the first housing 20.

カメラ21は、ユーザを被写体として撮影するため、内部にレンズ群、絞り、シャッター、CCD(Charge Coupled Device)等の撮像素子を含むデジタルカメラである。カメラ21は、タイマー機能によりシャッターが動作して撮像素子から静止画像を取得し記憶することにより写真撮影を実行する。また、カメラ21は起動している間、撮像素子から出力されるデジタル化された映像信号を制御機構へ出力している。制御機構からは、この映像信号に基づくプレビュー画面の表示用の撮影画像が出力される。   The camera 21 is a digital camera that includes an imaging element such as a lens group, a diaphragm, a shutter, and a CCD (Charge Coupled Device) in order to photograph a user as a subject. The camera 21 takes a picture by acquiring and storing a still image from the imaging device by operating a shutter by a timer function. While the camera 21 is activated, the camera 21 outputs a digitized video signal output from the image sensor to the control mechanism. The control mechanism outputs a captured image for displaying a preview screen based on the video signal.

ディスプレイ22は撮影中の操作を案内する操作画面とプレビュー画面とを表示するための液晶パネルを有し、カメラ21からリアルタイムに出力される映像信号に基づいて制御機構から出力されている画像を受け付けて表示する。また、ディスプレイ22はタッチパネル式であり、ユーザによってタッチされた箇所の画面上の位置の情報を含む信号が制御機構へ出力される。   The display 22 has a liquid crystal panel for displaying an operation screen for guiding operations during shooting and a preview screen, and accepts an image output from the control mechanism based on a video signal output from the camera 21 in real time. To display. Further, the display 22 is a touch panel type, and a signal including information on a position on the screen at a location touched by the user is output to the control mechanism.

ストロボ・ランプ23は、撮影ブース内の照明機器であると共に、写真撮影時にはフラッシュとして機能する。なお、本実施の形態ではストロボ・ランプ23は図に示すように7つに分けられており、制御機構に含まれる制御基盤を介して夫々の発光のタイミングがカメラ21による写真撮影(シャッターの動作)に同期して制御される。   The strobe lamp 23 is a lighting device in the photographing booth and functions as a flash when taking a picture. In the present embodiment, the strobe lamp 23 is divided into seven as shown in the figure, and the timing of each light emission is taken by the camera 21 via the control base included in the control mechanism (the operation of the shutter). ) Is controlled in synchronization with

撮影ブースの外周は遮光性を有するシート材(図示せず)によって覆われている。このシート材によって外部からの光が遮断され、且つ外部からの覗き見を防止することができ、さらにユーザが撮影ブース内で自由にポーズをとることができるプライベート空間が実現される。   The outer periphery of the photography booth is covered with a light-shielding sheet material (not shown). This sheet material blocks external light, prevents peeping from the outside, and realizes a private space where the user can freely pose in the shooting booth.

また、撮影ブース内側から見たシート材は均等な色調及び明度となるようにしてある。カメラ21から観た場合にユーザの後方がシート材の均等な色調及び明度となるので、後述にて説明するようにユーザが写っている領域以外を透明化するクロマキー処理が可能になる。   In addition, the sheet material viewed from the inside of the photographing booth has uniform color tone and brightness. When viewed from the camera 21, the rear side of the user has the same color tone and lightness of the sheet material, so that the chroma key process for making the area other than the area in which the user is visible transparent becomes possible, as will be described later.

ユーザは撮影ブース内に入り、ディスプレイ22に表示される案内及びスピーカ24,24から出力される案内音声に従い操作画面を操作し、ストロボ・ランプ23からの照明を受けてポーズを決め、カメラ21による写真撮影を実行することができる。まず、ユーザはタッチパネル式のディスプレイ22に表示される操作画面から、ユーザが写る写真を装飾する前景画像及び/又は背景画像を選択することができる。ユーザが前景画像及び/又は背景画像を選択した場合、ディスプレイ22には、カメラ21から制御機構を介してリアルタイムに出力されている画像、即ちカメラ21から出力されている撮影画像、選択された前景画像及び/又は背景画像に基づく印刷結果のプレビュー画面が表示される。ユーザはプレビュー画面を確認しながらポーズを決め、写真撮影を実行することができる。   The user enters the shooting booth, operates the operation screen according to the guidance displayed on the display 22 and the guidance voice output from the speakers 24, 24, determines the pose by receiving illumination from the strobe lamp 23, and uses the camera 21. A photo shoot can be performed. First, the user can select a foreground image and / or a background image that decorates a photograph taken by the user from an operation screen displayed on the touch panel display 22. When the user selects the foreground image and / or the background image, the display 22 displays an image output in real time from the camera 21 via the control mechanism, that is, a captured image output from the camera 21, and the selected foreground. A print result preview screen based on the image and / or the background image is displayed. The user can determine a pose while confirming the preview screen, and execute a photo shoot.

写真撮影が実行された場合、制御機構はカメラ21で記憶された静止画像を取得し、後にユーザによる編集操作を受け付けるための画像、及び、後に印刷出力するための画像として夫々複製する。   When a photograph is taken, the control mechanism acquires a still image stored by the camera 21 and copies it as an image for later accepting an editing operation by the user and an image for later printing out.

次に図2の斜視図に示す編集空間R2に設置されている各構成部について説明する。編集空間R2は、上述の撮影空間R1の内部のカメラ21、ディスプレイ22、ストロボ・ランプ23、スピーカ24,24及び第1筐体20が設置されていた壁面の裏側の空間であり、ユーザが写真撮影を実行した後に画像の編集をすることができる空間である。図2に示す編集空間R2は撮影空間R1の上面から延設されているバーに取り付けられたカーテン状のシート材(図示せず)によって他の空間から仕切られる。そして編集空間R2には、以下に示す各構成部を内外に備える略直方体の第2筐体30が設置されている。   Next, each component installed in the editing space R2 shown in the perspective view of FIG. 2 will be described. The editing space R2 is a space behind the wall where the camera 21, display 22, strobe / lamp 23, speakers 24 and 24, and the first housing 20 are installed, and the user can take photographs. This is a space where an image can be edited after shooting. The editing space R2 shown in FIG. 2 is partitioned from other spaces by a curtain-like sheet material (not shown) attached to a bar extending from the upper surface of the photographing space R1. The editing space R <b> 2 is provided with a substantially rectangular parallelepiped second housing 30 having the following components inside and outside.

第2筐体30の一方の側面は撮影空間R1との仕切りである壁面に接しており、他の三側面の内の対向する面には夫々、写真撮影された画像及びその他の画像を編集するためのインタフェースを備える第1編集部4a及び第2編集部4bが設けられている。他方の側面には編集された画像を所定の写真シール用紙に印刷出力する印刷部5が設けられている。また、第2筐体30の内部には、第1編集部4a、第2編集部4b及び印刷部5の各構成部を制御する制御機構が設置されている。   One side surface of the second housing 30 is in contact with a wall surface that is a partition with the imaging space R1, and a photographed image and other images are edited on the opposing surfaces of the other three side surfaces, respectively. A first editing unit 4a and a second editing unit 4b having an interface for the above are provided. On the other side, a printing unit 5 is provided for printing out the edited image on a predetermined photo sticker sheet. In addition, a control mechanism that controls each component of the first editing unit 4 a, the second editing unit 4 b, and the printing unit 5 is installed in the second housing 30.

なお、第1筐体20及び第2筐体30の相互に接している面は夫々が有する開口部(図示せず)を介して内部が連通しており、第1筐体20の内部に設置されている撮影部2の制御機構と、第2筐体30の内部に設置されている第1編集部4a、第2編集部4b及び印刷部5の制御機構とは、複数のケーブル類によって接続されている。   Note that the surfaces of the first casing 20 and the second casing 30 that are in contact with each other communicate with each other through an opening (not shown) of each, and are installed inside the first casing 20. The control mechanism of the photographing unit 2 and the control mechanism of the first editing unit 4a, the second editing unit 4b, and the printing unit 5 installed in the second housing 30 are connected by a plurality of cables. Has been.

第1編集部4aには夫々、写真撮影された画像及び他の画像を編集するための操作画面を表示するタブレットディスプレイ40aと、2つのタッチペン41a,42aと、スピーカ43aとが含まれる。なお後述の第2編集部4bにもタブレットディスプレイ40bと、2つのタッチペン41b,42bと、スピーカ43bとが含まれている。第1編集部4a及び第2編集部4b夫々のタブレットディスプレイ40a,40b、タッチペン41a,42a,41b,42b、及びスピーカ43a,43bは夫々、第2筐体30の対向する面に向かい合うように設置されている。また、タブレットディスプレイ40a,40b、タッチペン41a,42a,41b,42b及びスピーカ43a,43bは第2筐体30の内部の制御機構に接続されている。   The first editing unit 4a includes a tablet display 40a that displays an operation screen for editing a photographed image and other images, two touch pens 41a and 42a, and a speaker 43a. Note that the second editing unit 4b described later also includes a tablet display 40b, two touch pens 41b and 42b, and a speaker 43b. The tablet displays 40a and 40b, the touch pens 41a, 42a, 41b, and 42b, and the speakers 43a and 43b of the first editing unit 4a and the second editing unit 4b are installed so as to face the opposing surfaces of the second housing 30, respectively. Has been. The tablet displays 40 a and 40 b, the touch pens 41 a, 42 a, 41 b and 42 b and the speakers 43 a and 43 b are connected to a control mechanism inside the second housing 30.

印刷部5には、第2筐体30の内部に設置されており画像を所定の用紙に印刷するプリンタ50と、印刷された用紙がプリンタから吐き出されるシール吐出口51と、各種情報を表示する表示パネル52とが含まれる。表示パネル52は第2筐体30の内部に設置された制御機構に接続されており、プリンタ50も第2筐体30の内部で制御機構に接続されている。   The printing unit 5 displays a printer 50 that is installed inside the second housing 30 and prints an image on a predetermined sheet, a seal discharge port 51 through which the printed sheet is discharged from the printer, and various types of information. Display panel 52. The display panel 52 is connected to a control mechanism installed inside the second housing 30, and the printer 50 is also connected to the control mechanism inside the second housing 30.

ユーザは、撮影ブース内で撮影部2により撮影を完了した後、第1編集部4a又は第2編集部4bにより印刷する画像の選択、選択した画像に対する落書き等の作業が可能である。第1編集部4a又は第2編集部4b夫々のタブレットディスプレイ40a,40bには、写真撮影が実行されたことによって取得された画像と、選択された前景画像及び/又は背景画像とが共に表示される。タブレットディスプレイ40a,40bは、共に設置されているタッチペン41a,42a,41b,42bによる操作を受け付けるようにしてあり、ユーザはタッチペン41a,42a,41b,42bにより印刷する画像の選択及び選択した画像への文字、スタンプ状の絵柄の挿入などの操作が可能である。   The user can perform operations such as selecting an image to be printed by the first editing unit 4a or the second editing unit 4b and graffiti on the selected image after completing the shooting by the shooting unit 2 in the shooting booth. On the tablet displays 40a and 40b of the first editing unit 4a and the second editing unit 4b, both the image acquired by executing the photography and the selected foreground image and / or background image are displayed. The The tablet displays 40a and 40b are configured to accept operations by the touch pens 41a, 42a, 41b, and 42b installed together, and the user selects an image to be printed by the touch pens 41a, 42a, 41b, and 42b, and selects the selected image. Operations such as insertion of characters and stamp-like patterns.

制御機構により、写真撮影された画像に対し、後述する画像処理部7(図3を参照)による補正処理が行なわれる。そして、ユーザによる編集が完了した場合、補正処理後の印刷出力用の画像に、選択された前景画像及び/又は背景画像、更に編集結果に基づく文字、絵柄等などが合成される。合成された後の画像は、第2筐体30内部に設置されているプリンタ50によって所定のシール紙に印刷され、写真シールとしてシール吐出口51に吐き出される。ユーザは、シール吐出口51から完成した写真シールを取得することができ、これにより写真シールの撮影提供サービスが実現する。   The control mechanism performs a correction process on the photographed image by an image processing unit 7 (see FIG. 3) described later. When the editing by the user is completed, the selected foreground image and / or background image, and characters, designs, and the like based on the editing result are combined with the print output image after the correction process. The combined image is printed on a predetermined sticker sheet by a printer 50 installed in the second housing 30 and discharged to the sticker discharge port 51 as a photographic sticker. The user can obtain the completed photo sticker from the sticker discharge port 51, thereby realizing a photo sticker photographing providing service.

図3及び図4は本実施の形態に係る画像出力装置の構成を模式的に示すブロック図である。図3は、主に以下に説明する制御部6、画像処理部7、電源部8、通信部9及び受付部1の構成を示し、図4は、撮影部2、第1編集部4a、第2編集部4b及び印刷部5の構成を示している。図3及び図4に示すように画像出力装置は、各構成部を制御する制御部6と、撮影された画像を補正する画像処理部7と、AC電源から電力を供給する電源部8と、インターネット等の外部ネットワークNへ通信が可能な通信部9と、上述のコイン投入口10、コインセレクタ11及び表示パネル12を含む受付部1と、カメラ21、ディスプレイ22、ストロボ・ランプ23及びスピーカ24,24を含む撮影部2と、タブレットディスプレイ40a、2つのタッチペン41a,42a及びスピーカ43aを含む第1編集部4aと、タブレットディスプレイ40b、2つのタッチペン41b,42b及びスピーカ43bを含む第2編集部4bと、プリンタ50、シール吐出口51及び表示パネル52を含む印刷部5と、各部を接続するバス100とにより構成される。なお、制御部6、画像処理部7、電源部8、通信部9及びバス100が、第1筐体20及び第2筐体30の内部に設置された制御機構に対応する。   3 and 4 are block diagrams schematically showing the configuration of the image output apparatus according to this embodiment. 3 mainly shows configurations of the control unit 6, the image processing unit 7, the power supply unit 8, the communication unit 9, and the receiving unit 1 described below. FIG. 4 shows the photographing unit 2, the first editing unit 4a, and the first unit. 2 shows the configuration of the editing unit 4b and the printing unit 5. As shown in FIGS. 3 and 4, the image output apparatus includes a control unit 6 that controls each component, an image processing unit 7 that corrects a captured image, a power supply unit 8 that supplies power from an AC power source, A communication unit 9 capable of communicating with an external network N such as the Internet, a reception unit 1 including the above-described coin insertion slot 10, coin selector 11 and display panel 12, a camera 21, a display 22, a strobe lamp 23, and a speaker 24. , 24, a first editing unit 4a including a tablet display 40a, two touch pens 41a and 42a and a speaker 43a, and a second editing unit including a tablet display 40b, two touch pens 41b and 42b and a speaker 43b. 4b, a printer 50, a printing unit 5 including a seal discharge port 51 and a display panel 52, and a bus connecting the units 00 and by the constructed. The control unit 6, the image processing unit 7, the power supply unit 8, the communication unit 9, and the bus 100 correspond to control mechanisms installed inside the first casing 20 and the second casing 30.

受付部1、撮影部2、第1編集部4a、第2編集部4b及び印刷部5を夫々構成する各ハードウェアは、上述のように、画像出力装置のユーザによる操作が可能なように撮影空間R1、編集空間R2に設置されており、第1筐体20及び第2筐体30内部に設置されている制御機構内のバス100に接続されている。これに対し制御部6、画像処理部7、電源部8及び通信部9は第1筐体20及び第2筐体30の内部に設置されている制御機構内に含まれており、制御機構内に配されたバス100に接続されている。   As described above, the hardware constituting each of the receiving unit 1, the photographing unit 2, the first editing unit 4a, the second editing unit 4b, and the printing unit 5 is photographed so that it can be operated by the user of the image output apparatus. It is installed in the space R1 and the editing space R2, and is connected to the bus 100 in the control mechanism installed in the first housing 20 and the second housing 30. On the other hand, the control unit 6, the image processing unit 7, the power supply unit 8, and the communication unit 9 are included in a control mechanism installed inside the first casing 20 and the second casing 30. Are connected to the bus 100.

制御機構は、第1筐体20及び第2筐体30の内部に設置された複数のパーソナルコンピュータ(以下、PC:Personal Computerという。)と、上述の受付部1、撮影部2、第1編集部4a、第2編集部4b及び印刷部5を構成する各ハードウェアをPCから制御するための制御基盤とを含んで構成される。なお、複数のPCは夫々、その制御対象によって機能が分割される。例えば、撮影空間R1の受付部1を制御するPCと、撮影部2を制御するPCと、第1編集部4a及び第2編集部4bを制御するPCと、撮影された画像に画像処理を施し印刷部5にて出力するPCと、夫々機能が分割されて動作するように構成される。本実施の形態では、画像処理について主に説明するため仮想的に、受付部1、撮影部2、第1編集部4a及び第2編集部4bを制御する第1PCと、画像処理を行ない印刷部5にて出力する第2PCとの動作によって各構成部が制御されるとして以下に説明する。   The control mechanism includes a plurality of personal computers (hereinafter referred to as PC: Personal Computer) installed in the first housing 20 and the second housing 30, the above-described reception unit 1, imaging unit 2, and first editing. And a control base for controlling each hardware constituting the unit 4a, the second editing unit 4b, and the printing unit 5 from a PC. Note that the functions of each of the plurality of PCs are divided depending on the control target. For example, the PC that controls the reception unit 1 of the imaging space R1, the PC that controls the imaging unit 2, the PC that controls the first editing unit 4a and the second editing unit 4b, and the captured image are subjected to image processing. The PC that is output by the printing unit 5 is configured so that the functions are divided and operated. In the present embodiment, in order to mainly describe image processing, a first PC that virtually controls the receiving unit 1, the photographing unit 2, the first editing unit 4a, and the second editing unit 4b, and a printing unit that performs image processing. It will be described below that each component is controlled by the operation with the second PC that outputs at 5.

制御部6には第1PCに備えられた、各構成部のハードウェアを制御するCPU60と、CPU60の動作により発生する情報を一時的に記憶するDRAM(Dynamic Random Access Memory)等のメモリ61と、各種データを記憶するHDD(Hard Disk Drive)62と、撮影部2のカメラ21から出力された映像信号から静止画像を撮影画像としてキャプチャし、クロマキー処理を実行するためのキャプチャ・クロマキーボード63とが含まれる。   The control unit 6 includes a CPU 60 provided in the first PC that controls hardware of each component, a memory 61 such as a DRAM (Dynamic Random Access Memory) that temporarily stores information generated by the operation of the CPU 60, An HDD (Hard Disk Drive) 62 for storing various data, and a capture / chroma keyboard 63 for capturing a still image as a photographed image from the video signal output from the camera 21 of the photographing unit 2 and executing chroma key processing. included.

CPU60は、HDD62に記憶されている後述の制御プログラム6Pを読み出して実行することにより、受付部1のコインセレクタ11からの判定信号を受け付け、受け付けた判定信号に応じて表示パネル12へ制御信号を送出し、所定料金の受け付けを実現する。またCPU60は、制御プログラム6Pを読み出して実行することにより、撮影部2のカメラ21による撮影と、ストロボ・ランプ23との動作を同期させる制御を行ない、カメラ21によって写真撮影されて記憶された印刷出力用の画像を取得する処理、更に、カメラ21から出力される映像信号を、キャプチャ・クロマキーボード63を介してプレビュー画面、編集画面用の撮影画像として取得する処理、ディスプレイ22に表示する処理、第1編集部4a及び第2編集部4bによる編集を受け付ける処理等の各種処理を実行する。   The CPU 60 reads and executes a later-described control program 6P stored in the HDD 62, thereby accepting a judgment signal from the coin selector 11 of the accepting unit 1, and sending a control signal to the display panel 12 in accordance with the accepted judgment signal. Send out and realize acceptance of a predetermined charge. Further, the CPU 60 reads out and executes the control program 6P, thereby performing control to synchronize the photographing with the camera 21 of the photographing unit 2 and the operation with the strobe lamp 23, and the print photographed by the camera 21 and stored. A process of acquiring an image for output; a process of acquiring a video signal output from the camera 21 as a captured image for a preview screen and an editing screen via the capture / chroma keyboard 63; a process of displaying on the display 22; Various processes such as a process of accepting editing by the first editing unit 4a and the second editing unit 4b are executed.

HDD62には、CPU60が各構成部のハードウェアを制御するための制御プログラム6Pが記憶されている。CPU60がHDD62から制御プログラム6Pをメモリ61に読み出して実行することにより、各ハードウェアの制御及び種々のソフトウェア機能が実現される。   The HDD 62 stores a control program 6P for the CPU 60 to control the hardware of each component. When the CPU 60 reads the control program 6P from the HDD 62 to the memory 61 and executes it, control of each hardware and various software functions are realized.

また、HDD62には、制御プログラム6Pの他に、写真撮影された印刷出力用の画像と合成するための前景/背景画像、撮影部2のディスプレイ22に撮影画像と共に表示するための前景/背景画像が記憶されている。HDD62には更に、撮影部2のディスプレイ22に表示される操作画面に用いられる各画像、第1及び第2編集部4a,4bのタブレットディスプレイ40a,40bに表示される編集画面に用いられる画像、テキストファイル、スピーカ24,24,43a,43bに出力する案内音声などの音声データ等のデータが記憶されている。また、HDD62には、ユーザが写真撮影を実行したことでCPU60によりカメラ21から取得された印刷出力用の画像、前景画像及び/又は背景画像と合成処理が実行されることで得られる合成画像及び編集処理によって得られる編集画像が記憶される。   In addition to the control program 6P, the HDD 62 includes a foreground / background image to be combined with a photographed printout image, and a foreground / background image to be displayed on the display 22 of the photographing unit 2 together with the photographed image. Is remembered. The HDD 62 further includes images used for operation screens displayed on the display 22 of the photographing unit 2, images used for editing screens displayed on the tablet displays 40a and 40b of the first and second editing units 4a and 4b, Data such as a text file and voice data such as guidance voices output to the speakers 24, 24, 43a, and 43b are stored. The HDD 62 also includes a composite image obtained by executing a composite process with a print output image, foreground image, and / or background image acquired from the camera 21 by the CPU 60 when the user has taken a picture. An edited image obtained by the editing process is stored.

キャプチャ・クロマキーボード63は、受け付けた映像信号から例えば毎秒30枚の静止画像を取得して出力するキャプチャ機能と、キャプチャされた各静止画像から所定の色調及び明度の画素を認識し、一定の範囲内で同一の色調及び明度の画素に対してα値(透明度)を設定することにより透明化し出力するクロマキー機能とを有するハードウェアである。キャプチャ・クロマキーボード63は、カメラ21から出力される映像信号を受け付けるように接続されている。また、キャプチャ及びクロマキー処理された後の静止画像は、キャプチャ・クロマキーボード63に内蔵される図示しないメモリに書き込まれる。CPU60は当該メモリから静止画像をプレビュー用の撮影画像として読み出し、クロマキー処理を行なわせ、ディスプレイ22のプレビュー画面に表示する処理を実行する。   The capture / chroma keyboard 63 acquires, for example, 30 still images per second from the received video signal and outputs them, and recognizes pixels of a predetermined color tone and brightness from each captured still image, and has a certain range. Hardware having a chroma key function for transparentizing and outputting an alpha value (transparency) for pixels having the same color and lightness. The capture / chroma keyboard 63 is connected to receive a video signal output from the camera 21. The still image after the capture and chroma key processing is written in a memory (not shown) built in the capture / chroma keyboard 63. The CPU 60 reads a still image from the memory as a photographed image for preview, performs a chroma key process, and executes a process for displaying on the preview screen of the display 22.

また、キャプチャ・クロマキーボード63は、ドライバソフトにより毎秒取得する静止画像の枚数、及び透明化する所定の色調及び明度、例えばRGB値の設定が可能である。CPU60は、カメラ21によって撮影される画像の内のユーザの後方に位置するシート材が写っている領域の色調及び明度を透明化するように指示する。これにより、CPU60は、キャプチャ・クロマキーボード63にて、クロマキー処理された人物のみの人物画像を得ることができ、前景画像及び/又は背景画像と重ねてプレビュー画面を表示させることができる。   In addition, the capture / chroma keyboard 63 can set the number of still images acquired every second by the driver software, and a predetermined color tone and lightness to be made transparent, for example, RGB values. The CPU 60 instructs to make the color tone and lightness of the area in which the sheet material located behind the user in the image photographed by the camera 21 is shown transparent. As a result, the CPU 60 can obtain a person image of only the person who has been subjected to the chroma key processing with the capture / chroma keyboard 63, and can display a preview screen superimposed on the foreground image and / or the background image.

画像処理部7には第2PCに備えられた、各構成部のハードウェアを制御するCPU70と、CPU70の動作により発生する情報を一時的に記憶するDRAM等のメモリ71と、各種データを記憶するHDD72と、画像及び描画命令を受け付けて描画処理を行なうグラフィックボード73とが含まれる。画像処理部7は単独で、対象となる画像に対して後述する画像処理を行なう装置として動作することが可能である。   The image processing unit 7 stores a CPU 70 provided in the second PC for controlling the hardware of each component, a memory 71 such as a DRAM for temporarily storing information generated by the operation of the CPU 70, and various data. An HDD 72 and a graphic board 73 that receives an image and a drawing command and performs a drawing process are included. The image processing unit 7 alone can operate as an apparatus that performs image processing to be described later on a target image.

CPU70は、HDD72に記憶されている後述の画像処理プログラム7Pを読み出して実行することにより、制御部6の制御に基づく写真撮影によってカメラ21にて撮影された画像を加工する画像処理を実現する。詳細には、制御部6の制御により、ユーザが写真撮影を実行してカメラ21にて写真撮影された画像が画像処理部7へ受け渡される。そしてCPU70は、制御部6から写真撮影された画像を取得してメモリ71に書き込み、画像処理を実行することによって、画像中のユーザの顔を小顔にするなどの見栄えを良くする加工を行なう。   The CPU 70 reads out and executes an image processing program 7P, which will be described later, stored in the HDD 72, thereby realizing image processing for processing an image photographed by the camera 21 by photographing based on the control of the control unit 6. Specifically, under the control of the control unit 6, an image taken by the user and photographed by the camera 21 is delivered to the image processing unit 7. The CPU 70 obtains a photographed image from the control unit 6, writes it in the memory 71, and executes image processing so as to improve the appearance such as making the user's face in the image a small face. .

HDD72には、CPU70が、取得した画像に対する加工などの画像処理を行なうための画像処理プログラム7Pが記憶されている。画像処理プログラム7Pは、図示しないCD−ROM、DVD等の記録媒体に記録された画像処理プログラムをHDD72に複製したものでもよいし、通信部9を介して取得したものでもよい。   The HDD 72 stores an image processing program 7P for the CPU 70 to perform image processing such as processing on the acquired image. The image processing program 7P may be a copy of the image processing program recorded on a recording medium such as a CD-ROM or DVD (not shown) in the HDD 72, or may be acquired via the communication unit 9.

グラフィックボード73は、受け付けた画像及び描画命令に基づき、図示しない内蔵メモリに画像を描画するハードウェアである。CPU70は、自身が制御部6から取得してメモリ71に一時的に記憶した画像に対する画像処理を、グラフィックボード73を用いて行なう。具体的には、CPU70は画像と、画像処理に伴なう描画命令とをグラフィックボード73に与えて描画処理を行なわせ、描画処理によって得られた画像をメモリ71に取得する。   The graphic board 73 is hardware for drawing an image in a built-in memory (not shown) based on the received image and drawing command. The CPU 70 uses the graphic board 73 to perform image processing on the image acquired from the control unit 6 and temporarily stored in the memory 71. Specifically, the CPU 70 gives an image and a drawing command accompanying the image processing to the graphic board 73 to perform the drawing processing, and acquires the image obtained by the drawing processing in the memory 71.

電源部8は、第1PC及び第2PCのみならず各構成部へのAC電源からの電力の供給を実現する。画像出力装置には、電源を投入する電源スイッチ(図示せず)が設けられており、電源部8に接続されている。電源部8は電源スイッチのオン/オフを検知し、画像出力装置の稼動/動作を切り替える。なお、電源部8はUPS(Uninterruptible Power Supply:無停電電源装置)ユニット80を含んで構成される。UPSユニット80により、AC電源からの電力が突然遮断された場合でも、各構成部へのダメージを減らすことができる。電源スイッチがオフに切り替えられた場合、UPSユニット80は停電信号をCPU60へ出力し、CPU60は停電信号を検知したときの所定の終了処理を行ない画像出力装置全体の電源をオフにする。   The power supply unit 8 realizes power supply from the AC power supply to each component as well as the first PC and the second PC. The image output apparatus is provided with a power switch (not shown) for turning on the power, and is connected to the power supply unit 8. The power supply unit 8 detects the on / off of the power switch, and switches the operation / operation of the image output apparatus. The power supply unit 8 includes a UPS (Uninterruptible Power Supply) unit 80. Even when the power from the AC power supply is suddenly cut off by the UPS unit 80, damage to each component can be reduced. When the power switch is switched off, the UPS unit 80 outputs a power failure signal to the CPU 60, and the CPU 60 performs predetermined termination processing when the power failure signal is detected, and turns off the power of the entire image output apparatus.

通信部9は、PHSユニット90により構成され、制御部6(CPU60)に内部バス100を介して接続されている。PHSユニット90は、インターネット等の外部ネットワークNに接続してデータの送受信を実現する。CPU60は、通信部9のPHSユニット90を介して外部ネットワークN上の他の装置と通信してデータの送受信が可能である。本実施の形態における画像出力装置は、CPU60はユーザの名前、メールアドレス等の識別情報又は送信先のURLと共に、撮影して編集した後の画像データを外部ネットワークNに接続している不図示のサーバ装置へ送信(アップロード)する機能を有している。この機能により、サーバ装置に蓄積されているユーザ自身の画像を携帯電話機又は自宅のPCから閲覧することができるサービス、及びサーバ装置に蓄積されているユーザ自身の画像データを携帯電話機又はPCへダウンロードすることができるサービスを実現する。   The communication unit 9 includes a PHS unit 90 and is connected to the control unit 6 (CPU 60) via the internal bus 100. The PHS unit 90 is connected to an external network N such as the Internet to realize data transmission / reception. The CPU 60 can transmit and receive data by communicating with other devices on the external network N via the PHS unit 90 of the communication unit 9. In the image output apparatus according to the present embodiment, the CPU 60 connects image data after being shot and edited to an external network N together with identification information such as a user's name and mail address or a URL of a transmission destination (not shown). It has a function of transmitting (uploading) to the server device. With this function, the user's own image stored in the server device can be viewed from the mobile phone or home PC, and the user's own image data stored in the server device can be downloaded to the mobile phone or PC. Realize a service that can.

本実施の形態では、画像出力装置にて撮影した画像をユーザが編集した後、シール紙に印刷することで写真シールを作成すると共に、ユーザによって編集された画像を符号化することでデータ量を削減し、その後にサーバ装置にアップロードする構成としている。   In the present embodiment, after the user edits the image taken by the image output device, the photo sticker is created by printing on the sticker paper, and the amount of data is reduced by encoding the image edited by the user. The number is reduced and then uploaded to the server device.

画像出力装置の主たるユーザは女性であり、女性の顔を綺麗に見せるために、目や髪の毛といった顔の重要なパーツにはシャープ感が求められるが、肌の部分については意図的にぼかすことが要求される。このような要求を満たすために、本実施の形態に係る画像出力装置では、画像内に含まれるユーザの顔の輪郭、目、鼻、口、髪の毛など、エッジとして抽出される部分をぼかさないように、画素間の色差に着目して画像全体に対する平滑化処理を行う。そして、画像出力装置は、平滑化処理後の画像データを符号化することにより、サーバ装置へアップロードする画像のデータ量を削減するようにしている。   The main user of the image output device is a woman, and in order to make the face of the woman look beautiful, sharp parts are required for important parts of the face such as eyes and hair, but the skin part may be intentionally blurred. Required. In order to satisfy such a requirement, the image output apparatus according to the present embodiment does not blur the parts extracted as edges, such as the contours of the user's face, eyes, nose, mouth, and hair included in the image. In addition, the entire image is smoothed by paying attention to the color difference between the pixels. Then, the image output device encodes the image data after the smoothing process to reduce the data amount of the image uploaded to the server device.

以下、画像出力装置が実行する平滑化処理及び符号化処理について説明を行う。図5は画像処理部7の機能的構成の一例を示すブロック図である。なお、図5に示す例では、平滑化処理及び符号化処理に関する機能的構成のみを示し、画像処理部7が備える他の機能についての構成は図示していない。画像処理部7の機能的構成は、CPU70が、HDD72に記憶されている画像処理プログラム7Pを読み出して実行することにより実現される。   Hereinafter, the smoothing process and the encoding process executed by the image output apparatus will be described. FIG. 5 is a block diagram illustrating an example of a functional configuration of the image processing unit 7. In the example illustrated in FIG. 5, only the functional configuration related to the smoothing process and the encoding process is illustrated, and the configuration of other functions included in the image processing unit 7 is not illustrated. The functional configuration of the image processing unit 7 is realized by the CPU 70 reading and executing the image processing program 7P stored in the HDD 72.

画像処理部7は機能的構成として、領域設定部701、差分算出部702、処理判断部703、平均値算出部704及び出力部705を含む平滑化処理部700、並びに符号化部750を備える。   The image processing unit 7 includes an area setting unit 701, a difference calculation unit 702, a process determination unit 703, a smoothing processing unit 700 including an average value calculation unit 704 and an output unit 705, and an encoding unit 750 as functional configurations.

平滑化処理の対象の画像(以下、処理対象画像という)は、カメラ21にて写真撮影された撮影画像又はユーザによって編集処理された合成画像であり、制御部6の制御により、HDD62に格納されているものとする。平滑化処理を実行する際、画像処理部7は、HDD62に格納された処理対象画像のデータをメモリ71に読み込む。また、画像処理部7は、作業領域として処理対象画像と同サイズの記憶領域をメモリ71内に確保する。   An image to be smoothed (hereinafter referred to as a processing target image) is a captured image taken by the camera 21 or a composite image edited by the user, and is stored in the HDD 62 under the control of the control unit 6. It shall be. When executing the smoothing process, the image processing unit 7 reads the processing target image data stored in the HDD 62 into the memory 71. Further, the image processing unit 7 secures a storage area in the memory 71 having the same size as the processing target image as a work area.

領域設定部701は、処理対象画像の任意の画素を注目画素としたとき、この注目画素と、注目画素を囲む8個の周辺画素とからなる画素領域を設定する。図6は領域設定部701により設定される画素領域を説明する模式図である。図6に示す3×3の画素領域のうち中央の画素を注目画素とし、その画素値をP[x][y]で表す。このとき、この注目画素に対する8つの周辺画素の画素値は、例えば、P[x−1][y−1]、P[x][y−1]、P[x+1][y−1]、P[x−1][y]、P[x+1][y]、P[x−1][y+1]、P[x][y+1]、P[x+1][y+1]のように表すことができる。なお、平滑化処理部700内の各機能構成部は、領域設定部701が設定した画素領域内の各画素の画素値を適宜参照できるように構成されている。   The area setting unit 701 sets a pixel area including the target pixel and eight peripheral pixels surrounding the target pixel when an arbitrary pixel of the processing target image is the target pixel. FIG. 6 is a schematic diagram for explaining a pixel region set by the region setting unit 701. In the 3 × 3 pixel region shown in FIG. 6, the central pixel is a target pixel, and the pixel value is represented by P [x] [y]. At this time, the pixel values of the eight peripheral pixels corresponding to the target pixel are, for example, P [x−1] [y−1], P [x] [y−1], P [x + 1] [y−1], P [x-1] [y], P [x + 1] [y], P [x-1] [y + 1], P [x] [y + 1], P [x + 1] [y + 1] . Each functional component in the smoothing processing unit 700 is configured so that the pixel value of each pixel in the pixel region set by the region setting unit 701 can be referred to as appropriate.

差分算出部702は、注目画素の画素値と各周辺画素の画素値との差分を算出する。すなわち、差分算出部702は、|P[x][y]−P[x+i][y+j]|(ここで、i,j=−1,0,+1かつi=j≠0)を算出する。差分算出部702により算出された差分は、処理判断部703へ送出される。   The difference calculation unit 702 calculates the difference between the pixel value of the pixel of interest and the pixel values of each peripheral pixel. That is, the difference calculation unit 702 calculates | P [x] [y] −P [x + i] [y + j] | (where i, j = −1, 0, +1 and i = j ≠ 0). The difference calculated by the difference calculation unit 702 is sent to the process determination unit 703.

処理判断部703は、差分算出部702の算出結果である、注目画素の画素値と各周辺画素の画素値との差分に基づき、平滑化処理を実行するか否かを判断する。本実施の形態では、領域設定部701が設定した画素領域内で、注目画素の画素値と各周辺画素の画素値との差分が全て所定値未満である場合、処理判断部703は、平滑化処理を実行すると判断し、注目画素との画素値の差分が所定値以上となる周辺画素を1つでも含む場合、処理判断部703は、平滑化処理を施さないと判断する。すなわち、本実施の形態に係る平滑化処理部700は、設定した画素領域内にエッジに相当する画素が含まれない場合、周辺画素を参照して平滑化処理を行い、設定した画素領域内にエッジに相当する画素が1つでも含まれる場合、平滑化処理を禁止する。   The process determination unit 703 determines whether or not to perform the smoothing process based on the difference between the pixel value of the target pixel and the pixel values of each peripheral pixel, which is the calculation result of the difference calculation unit 702. In the present embodiment, in the pixel region set by the region setting unit 701, when all the differences between the pixel value of the pixel of interest and the pixel values of each peripheral pixel are less than a predetermined value, the process determining unit 703 When it is determined that the process is to be executed and at least one peripheral pixel having a pixel value difference equal to or greater than a predetermined value is included, the process determination unit 703 determines that the smoothing process is not performed. That is, when the pixel corresponding to the edge is not included in the set pixel area, the smoothing processing unit 700 according to the present embodiment performs the smoothing process with reference to the surrounding pixels, and within the set pixel area. When even one pixel corresponding to the edge is included, the smoothing process is prohibited.

平均値算出部704は、設定した画素領域内に含まれる画素(注目画素及び8つの周辺画素を含む合計9つの画素)について画素値の平均値を算出する。本実施の形態では、設定した画素領域内にエッジに相当する画素が1つでも含まれる場合、平滑化処理を禁止するので、平均値算出部704による処理を省略してもよい。   The average value calculation unit 704 calculates an average value of pixel values for pixels included in the set pixel area (a total of nine pixels including the target pixel and eight peripheral pixels). In the present embodiment, when even one pixel corresponding to an edge is included in the set pixel area, the smoothing process is prohibited, so the process by the average value calculation unit 704 may be omitted.

出力部705は、注目画素の画素値を出力し、メモリ71内に確保した記憶領域内に書き込む処理を行う。ここで、出力部705は、処理判断部703にて平滑化処理を行うと判断した場合、平均値算出部704が算出した平均値を注目画素の画素値として出力し、平滑化処理を禁止すると判断した場合、元の注目画素の画素値を出力する。平滑化処理部700は、処理対象画像を構成する各画素について上述した処理を行うことにより、メモリ71内に確保した記憶領域に平滑化処理後の画像データを生成する。   The output unit 705 performs a process of outputting the pixel value of the target pixel and writing it in the storage area secured in the memory 71. When the output determination unit 703 determines that the smoothing process is to be performed, the output unit 705 outputs the average value calculated by the average value calculation unit 704 as the pixel value of the target pixel, and prohibits the smoothing process. If it is determined, the pixel value of the original target pixel is output. The smoothing processing unit 700 generates the image data after the smoothing process in the storage area secured in the memory 71 by performing the above-described processing on each pixel constituting the processing target image.

符号化部750は、平滑化処理部700が生成した画像データを符号化する。画像データの符号化には、公知の符号化手法を用いることができ、例えば、非可逆方式として知られるJPEG方式、可逆方式として知られるPNG方式を用いることができる。   The encoding unit 750 encodes the image data generated by the smoothing processing unit 700. For encoding image data, a known encoding method can be used. For example, a JPEG method known as an irreversible method and a PNG method known as a reversible method can be used.

以下、画像出力装置が実行する処理について説明を行う。
図7は本実施の形態に係る画像出力装置が実行する処理の手順を示すフローチャートである。画像出力装置の制御部6に設けられたCPU60は、コイン投入口10から所定料金を満たす硬貨が投入されたか否かを判断する(ステップS1)。所定料金を満たす硬貨が投入されていないと判断した場合(S1:NO)、CPU60は、処理をステップS1へ戻して所定料金を満たす硬貨が投入されたと判断するまで待機する。なお、この間CPU60は、表示パネル12に投入済みの硬貨の総額を表示させるように制御信号を表示パネル12へ出力する。
Hereinafter, processing executed by the image output apparatus will be described.
FIG. 7 is a flowchart showing a procedure of processing executed by the image output apparatus according to this embodiment. The CPU 60 provided in the control unit 6 of the image output apparatus determines whether or not a coin satisfying a predetermined fee is inserted from the coin insertion slot 10 (step S1). If it is determined that no coin satisfying the predetermined fee has been inserted (S1: NO), the CPU 60 returns to step S1 and waits until it is determined that a coin satisfying the predetermined fee has been inserted. During this time, the CPU 60 outputs a control signal to the display panel 12 so as to display the total amount of coins already inserted on the display panel 12.

CPU60は、ステップS1において所定料金を満たす硬貨が投入されたと判断した場合(S1:YES)、表示パネル12に案内情報の画面を表示し、更に撮影部2のディスプレイ22に操作画面を表示させ、更にスピーカから案内音声を出力し(ステップS2)、ユーザに撮影ブース内に入り、撮影を実行するように促す。これにより、写真プリントサービスの提供が開始される。   When the CPU 60 determines in step S1 that coins satisfying a predetermined fee have been inserted (S1: YES), the CPU 60 displays a guidance information screen on the display panel 12, and further displays an operation screen on the display 22 of the photographing unit 2, Further, a guidance voice is output from the speaker (step S2), and the user is prompted to enter the shooting booth and execute shooting. Thereby, the provision of the photo print service is started.

CPU60は、ユーザがディスプレイ22における操作画面などを操作することにより、合成させる前景画像及び/又は背景画像が選択され、更に、撮影が実行され、完了したか否かを判断する(ステップS3)。具体的には、前景画像及び/又は背景画像が選択されると、シャッターを動作させるためのカウントが開始され、ディスプレイ22にプレビュー画面が表示される。そして、カウントアップされたとCPU60が判断してシャッターを動作させ写真撮影が実行される。ユーザがプレビュー画面を見て撮影された画像で決定する旨のボタン等を操作するか、例えば6回などの所定回数の写真撮影が終了するかにより撮影が完了する。CPU60は、撮影が完了していないと判断した場合(S3:NO)、処理をステップS3へ戻して、撮影が完了するまで待機する。   The CPU 60 determines whether the foreground image and / or the background image to be combined is selected by operating the operation screen on the display 22 and the photographing is executed and completed (step S3). Specifically, when a foreground image and / or a background image is selected, counting for operating the shutter is started, and a preview screen is displayed on the display 22. Then, the CPU 60 determines that the count has been incremented, operates the shutter, and executes photography. The shooting is completed depending on whether the user operates a button or the like indicating that the image is determined by looking at the preview screen, or whether a predetermined number of times of shooting such as six times is completed. If the CPU 60 determines that shooting has not been completed (S3: NO), it returns the process to step S3 and waits until shooting is completed.

CPU60は、撮影が完了したと判断した場合(S3:YES)、シャッターを動作させて写真撮影された画像をカメラ21から取得し、選択された前景画像及び/又は背景画像と関連付けてメモリ61に保存する(ステップS4)。そしてCPU60は、ディスプレイ22に案内情報の画面を表示させ、第1編集部4a又は第2編集部4bのタブレットディスプレイ40a,40bに操作画面を表示させ、スピーカ24,24によって案内音声を出力し(ステップS5)、ユーザに編集空間R2へ移動し、編集操作を行なうように促す。 If the CPU 60 determines that shooting has been completed (S3: YES), the CPU 60 acquires a photographed image from the camera 21 by operating the shutter, and associates it with the selected foreground image and / or background image in the memory 61. Save (step S4). The CPU 60 displays the guidance information screen on the display 22, displays the operation screen on the tablet displays 40a and 40b of the first editing unit 4a or the second editing unit 4b, and outputs guidance voices through the speakers 24 and 24 ( Step S5), prompting the user to move to the editing space R2 and perform an editing operation.

次にCPU60は、メモリ61に保存した写真撮影された画像を画像処理部7へ受け渡して、画像処理を実行させる(ステップS6)。そしてCPU60は、タブレットディスプレイ40a,40bの操作画面にて編集を受け付ける(ステップS7)。このとき、操作画面に表示されるユーザを撮影した画像は、画像処理後の画像であってもよい。この場合、CPU60は画像処理後の小顔にする加工が行なわれた撮影画像をキャプチャ・クロマキーボード63にてクロマキー処理して人物のみの画像を作成し、操作画面に前景画像及び/又は背景画像と重ねて表示させる。   Next, the CPU 60 transfers the photographed image stored in the memory 61 to the image processing unit 7 to execute image processing (step S6). The CPU 60 accepts editing on the operation screen of the tablet displays 40a and 40b (step S7). At this time, the image of the user displayed on the operation screen may be an image after image processing. In this case, the CPU 60 performs chroma key processing on the captured image that has been processed to make a small face after image processing, using the capture / chroma keyboard 63 to create an image of only the person, and displays the foreground image and / or background image on the operation screen. And overlaid on the display.

CPU60は、編集完了を指示する操作がされたことにより編集が完了し、且つ画像処理部7による画像処理が完了したか否かを判断する(ステップS8)。CPU60は、編集又は画像処理部7による画像処理のいずれかが未完了であると判断した場合(S8:NO)、処理をステップS8に戻して両者が完了するまで待機する。   The CPU 60 determines whether the editing is completed due to the operation for instructing the completion of editing and whether the image processing by the image processing unit 7 is completed (step S8). If the CPU 60 determines that either editing or image processing by the image processing unit 7 has not been completed (S8: NO), the process returns to step S8 and waits until both are completed.

CPU60は、編集及び画像処理のいずれもが完了したと判断した場合(S8:YES)、画像処理部7による画像処理によって加工が完了した加工画像と、編集結果の文字又は画像などの情報と、選択されて関連付けてメモリ61に保存されている背景画像及び/又は前景画像とに対し合成処理を実行して合成画像を生成する(ステップS9)。   When the CPU 60 determines that both editing and image processing have been completed (S8: YES), the processed image that has been processed by the image processing by the image processing unit 7, information such as characters or images of the editing result, A synthesis process is performed on the background image and / or the foreground image selected and associated and stored in the memory 61 to generate a synthesized image (step S9).

次いで、CPU60は、生成された合成画像を基に外部サーバ装置への送信用画像データを生成する(ステップS10)。このとき、CPU60は、画像処理部7に指示を与えることにより、合成画像に対して平滑化処理を施し、更に符号化処理を行うことによって送信用の画像データを生成する。   Next, the CPU 60 generates image data for transmission to the external server device based on the generated composite image (step S10). At this time, the CPU 60 gives an instruction to the image processing unit 7 to perform a smoothing process on the composite image, and further performs an encoding process to generate image data for transmission.

画像処理部7は、ステップS10で平滑化処理及び符号化処理を施した送信用の画像データを制御部6へ送出する。制御部6は、画像処理部7から取得した画像データをHDD62に格納する。そして、制御部6の制御により、HDD62に格納した符号化済みの画像データを、通信部9を介して外部のサーバ装置へ送信する。   The image processing unit 7 sends the image data for transmission subjected to the smoothing process and the encoding process in step S <b> 10 to the control unit 6. The control unit 6 stores the image data acquired from the image processing unit 7 in the HDD 62. Then, under the control of the control unit 6, the encoded image data stored in the HDD 62 is transmitted to an external server device via the communication unit 9.

また、CPU60は、ステップS9で生成された合成画像を操作画面に表示すると共に、印刷部5のプリンタ50へ出力して印刷出力を指示する(ステップS11)。このときCPU60は、操作画面にて印刷レイアウトの選択、印刷指示を受け付けてもよい。   In addition, the CPU 60 displays the composite image generated in step S9 on the operation screen and outputs it to the printer 50 of the printing unit 5 to instruct printing output (step S11). At this time, the CPU 60 may accept a print layout selection and a print instruction on the operation screen.

CPU60は、印刷が完了したか否かを判断し(ステップS12)、印刷が完了していないと判断した場合(S12:NO)、処理をステップS12へ戻して印刷が完了したと判断するまで待機する。CPU60は、プリンタ50における印刷が完了したと判断した場合(S12:YES)、印刷が完了した旨を示す案内表示を印刷部5の表示パネル52、第1編集部4a又は第2編集部4bのタブレットディスプレイ40a,40bに表示し、スピーカ43a,43bから案内音声を出力し(ステップS13)、処理を終了する。   The CPU 60 determines whether or not printing has been completed (step S12). If it is determined that printing has not been completed (S12: NO), the process returns to step S12 and waits until it is determined that printing has been completed. To do. When the CPU 60 determines that the printing in the printer 50 is completed (S12: YES), the CPU 60 displays a guidance display indicating that the printing is completed on the display panel 52, the first editing unit 4a, or the second editing unit 4b of the printing unit 5. The information is displayed on the tablet displays 40a and 40b, guidance voices are output from the speakers 43a and 43b (step S13), and the process is terminated.

このとき、印刷された写真シールがシール吐出口51に排出されているので、ユーザは自身が撮影された写真シールを取得することができる。このように、写真プリントサービスの提供が実現される。   At this time, since the printed photo sticker is discharged to the sticker discharge port 51, the user can obtain the photo sticker in which the user is photographed. Thus, the provision of a photo print service is realized.

次に、図7に示したフローチャートのステップS10の処理について詳細を説明する。図8は送信用画像データの生成手順を示すフローチャートである。画像処理部7は、処理対象画像である合成画像のデータを制御部6内のHDD62から取得する(ステップS101)。取得した合成画像のデータは、画像処理部7内のメモリ71に格納される。また、画像処理部7は、作業領域として処理対象画像(合成画像)と同サイズの記憶領域をメモリ71内に確保する(ステップS102)。   Next, details of step S10 of the flowchart shown in FIG. 7 will be described. FIG. 8 is a flowchart showing a procedure for generating image data for transmission. The image processing unit 7 acquires data of a composite image that is a processing target image from the HDD 62 in the control unit 6 (step S101). The acquired composite image data is stored in the memory 71 in the image processing unit 7. Further, the image processing unit 7 secures a storage area having the same size as the processing target image (composite image) in the memory 71 as a work area (step S102).

次いで、領域設定部701は、取得した合成画像を構成する複数の画素から注目画素を設定し(ステップS103)、注目画素の周囲に周辺画素を指定することで画素領域を設定する(ステップS104)。このとき、領域設定部701は、注目画素に隣接する最大8個の周辺画素を指定することで、処理対象の画素領域を設定する。   Next, the region setting unit 701 sets a pixel of interest from a plurality of pixels constituting the acquired composite image (step S103), and sets a pixel region by designating surrounding pixels around the pixel of interest (step S104). . At this time, the region setting unit 701 sets a pixel region to be processed by designating a maximum of eight peripheral pixels adjacent to the target pixel.

次いで、差分算出部702は、注目画素の画素値と各周辺画素の画素値との差分を算出する(ステップS105)。処理判断部703は、ステップS105で算出した全ての差分が所定値未満であるか否かを判断することにより、注目画素に対して平滑化処理を施すか否かを判断する(ステップS106)。   Next, the difference calculation unit 702 calculates the difference between the pixel value of the target pixel and the pixel values of each peripheral pixel (step S105). The process determining unit 703 determines whether or not to perform the smoothing process on the target pixel by determining whether or not all the differences calculated in step S105 are less than a predetermined value (step S106).

処理判断部703が、注目画素に対して平滑化処理を施すと判断した場合、すなわち、ステップS105で算出した全ての差分が所定値未満の場合(S106:YES)、平均値算出部704は、画素領域内の注目画素及び各周辺画素の画素値の平均値を算出する(ステップS107)。出力部705は、算出した平均値を平滑化処理後の画素の画素値として出力し、メモリ71内に確保した記憶領域に書き込む(ステップS108)。   When the process determining unit 703 determines that the pixel of interest is to be smoothed, that is, when all the differences calculated in step S105 are less than a predetermined value (S106: YES), the average value calculating unit 704 An average value of the pixel values of the target pixel and each peripheral pixel in the pixel region is calculated (step S107). The output unit 705 outputs the calculated average value as the pixel value of the pixel after the smoothing process, and writes it in the storage area secured in the memory 71 (step S108).

一方、処理判断部703が、注目画素に対して平滑化処理を禁止すると判断した場合、すなわち、ステップS105で算出した差分に所定値以上のものが含まれている場合(S106:NO)、出力部705は、元の注目画素の画素値をそのまま出力し、メモリ71内に確保した記憶領域に書き込む(ステップS109)。   On the other hand, when the process determining unit 703 determines that the smoothing process is prohibited for the target pixel, that is, when the difference calculated in step S105 includes a predetermined value or more (S106: NO), the output The unit 705 outputs the pixel value of the original target pixel as it is and writes it in the storage area secured in the memory 71 (step S109).

次いで、平滑化処理部700は、処理対象画像の全ての画素について処理を行ったか否かを判断する(ステップS110)。全ての画素についての処理が終了していない場合(S110:NO)、平滑化処理部700は、領域設定部701に指示を与えて、未処理の画素を注目画素に設定し直して(ステップS111)、ステップS104へ処理を移行させる。   Next, the smoothing processing unit 700 determines whether or not processing has been performed for all pixels of the processing target image (step S110). If the processing has not been completed for all the pixels (S110: NO), the smoothing processing unit 700 gives an instruction to the region setting unit 701 to reset an unprocessed pixel as a target pixel (step S111). ), The process proceeds to step S104.

全ての画素についての処理が終了した場合(S110:YES)、メモリ71内の記憶領域には平滑化処理を施した画像データが生成される。符号化部750は、メモリ71内の記憶領域に生成した画像データを符号化する(ステップS112)。画像データの符号化には、JPEG方式、PNG方式等の公知の符号化手法を用いることができる。   When the processing for all the pixels is completed (S110: YES), image data subjected to smoothing processing is generated in the storage area in the memory 71. The encoding unit 750 encodes the image data generated in the storage area in the memory 71 (step S112). For encoding image data, a known encoding method such as JPEG method or PNG method can be used.

以上のように、本実施の形態では、画像出力装置にて写真撮影された画像のうち、ユーザの顔の輪郭、目、髪の毛などのエッジが強い部分、すなわち、色差がある程度存在している部分を劣化させずに、ユーザの頬などの類似色で構成された画素の色を平均化することができる。このような画像を符号化することで、画像出力装置に適した画像の特徴を維持しつつ、圧縮率を高めることができる。    As described above, in the present embodiment, a portion having strong edges such as the contour of the user's face, eyes, hair, etc. in the image photographed by the image output device, that is, a portion where a color difference exists to some extent. Without degrading the color, it is possible to average the colors of pixels composed of similar colors such as the user's cheek. By encoding such an image, the compression rate can be increased while maintaining image characteristics suitable for the image output apparatus.

また、本実施の形態では、画像出力装置で求められる画質を維持しつつ、画像データのデータ量を削減することができるので、画像出力装置から外部のサーバ装置へ画像データをアップロードする時間、及び外部のサーバ装置からユーザの端末に画像データをダウンロードする時間を短縮することができ、通信コストを抑制することができる。   In the present embodiment, the amount of image data can be reduced while maintaining the image quality required by the image output device, so the time for uploading image data from the image output device to an external server device, and The time for downloading image data from the external server device to the user's terminal can be shortened, and the communication cost can be suppressed.

なお、図8に示すフローチャートでは、合成画像を取得し、取得した合成画像に対して平滑化処理を施す構成について説明をしたが、撮影部2が出力する撮影画像を取得し、取得した撮影画像を平滑化処理の対象としてもよい。この場合、写真撮影された画像を取得した後に、図8に示す各処理を実行すればよい。すなわち、図7のステップS10に示す送信用画像データの生成処理は、ステップS9の合成画像を取得した後のタイミングに限定されるものではなく、ステップS4の写真撮影された画像を取得した後の任意のタイミングで実行し得るものである。
また、画像出力装置にてユーザによる送信指示を受付けた場合、図8に示す各処理を実行し、送信用画像データの生成及び送信処理を実行する構成としてもよい。
In the flowchart illustrated in FIG. 8, the configuration has been described in which a composite image is acquired and smoothing processing is performed on the acquired composite image. However, the captured image output by the imaging unit 2 is acquired and acquired. May be the target of the smoothing process. In this case, each process shown in FIG. 8 may be executed after obtaining a photographed image. That is, the transmission image data generation process shown in step S10 in FIG. 7 is not limited to the timing after the composite image in step S9 is acquired, but after the photographed image in step S4 is acquired. It can be executed at any timing.
Further, when the image output apparatus accepts a transmission instruction from the user, the processing shown in FIG. 8 may be executed to generate the transmission image data and the transmission processing.

また、本実施の形態では、予め設定された所定値を基に平滑化処理を行うか否かを判断する構成としたが、画像出力装置の管理者又はユーザ自身により、平滑化処理を行うか否かの判断基準となる閾値(所定値)の変更を受付ける構成としてもよい。
また、本実施の形態では、注目画素の周囲の8つの画素を選択して3×3の画素領域を設定する構成としたが、画素領域を構成する周辺画素の個数は適宜変更し得るものであり、5×5、7×7等の画素領域を設定する構成であってもよい。
In this embodiment, it is determined whether smoothing processing is performed based on a predetermined value set in advance. However, whether the smoothing processing is performed by the administrator of the image output apparatus or the user himself / herself. It may be configured to accept a change in a threshold value (predetermined value) that is a criterion for determining whether or not.
In the present embodiment, the configuration is such that 8 pixels around the pixel of interest are selected and a 3 × 3 pixel region is set, but the number of peripheral pixels constituting the pixel region can be changed as appropriate. There may be a configuration in which pixel regions of 5 × 5, 7 × 7, etc. are set.

実施の形態2.
実施の形態1では、画像出力装置の撮影部2により写真撮影された画像全体に対し上述した平滑化処理を施す構成としたが、画像出力装置における被写体は主にユーザの顔であるので、顔領域のみに対し本願の平滑化処理を適用するようにしてもよい。
実施の形態2では、写真撮影された画像から被写体の特定部位に対応する画像領域を抽出し、抽出した画像領域に対してのみ本願の平滑化処理を適用する構成の一例として、人物の顔に対応する顔領域を抽出し、抽出した顔領域の画像に対してのみ本願の平滑化処理を適用する例を説明する。なお、実施の形態2に係る画像出力装置の構成は、実施の形態1と全く同様であるため、その説明を省略することとする。
Embodiment 2. FIG.
In the first embodiment, the above-described smoothing process is performed on the entire image photographed by the photographing unit 2 of the image output device. However, since the subject in the image output device is mainly the face of the user, You may make it apply the smoothing process of this application only to an area | region.
In the second embodiment, as an example of a configuration in which an image region corresponding to a specific part of a subject is extracted from a photographed image and the smoothing process of the present application is applied only to the extracted image region, An example in which a corresponding face area is extracted and the smoothing process of the present application is applied only to the extracted face area image will be described. Note that the configuration of the image output apparatus according to the second embodiment is exactly the same as that of the first embodiment, and thus the description thereof is omitted.

図9は実施の形態2に係る画像処理部7が実行する処理の手順の一部を示すフローチャートである。画像処理部7は、処理対象画像である合成画像を制御部6内のHDD62から取得する(ステップS201)。取得した合成画像は、画像処理部7内のメモリ71に格納される。また、画像処理部7は、作業領域として処理対象画像(合成画像)と同サイズの記憶領域をメモリ71内に確保する(ステップS202)。   FIG. 9 is a flowchart showing a part of a procedure of processing executed by the image processing unit 7 according to the second embodiment. The image processing unit 7 acquires a composite image that is a processing target image from the HDD 62 in the control unit 6 (step S201). The acquired composite image is stored in the memory 71 in the image processing unit 7. Further, the image processing unit 7 secures a storage area having the same size as the processing target image (composite image) in the memory 71 as a work area (step S202).

画像処理部7は、画像から顔領域を抽出し(ステップS203)、画像を構成する各画素について、顔領域に属する画素及び顔領域に属さない画素を判別する。なお、合成画像にはユーザによる落書き等が含まれている場合があるため、撮影部2より得られる撮影画像を対象として顔領域を抽出することが好ましい。この顔領域の抽出は、例えば、肌色検出、テンプレートマッチングなどの種々の既存技術を利用して行なわれる。また、ステップS203の顔領域の抽出では、ユーザの顔の輪郭を外側に少しだけ拡大した領域を顔領域として抽出するようにしてもよい。このような処理により、ユーザの顔の輪郭が後述する通常の平滑化処理によりぼけてしまうことを防止できる。   The image processing unit 7 extracts a face area from the image (step S203), and determines, for each pixel constituting the image, a pixel that belongs to the face area and a pixel that does not belong to the face area. In addition, since the composite image may include graffiti or the like by the user, it is preferable to extract the face area for the photographed image obtained from the photographing unit 2. The extraction of the face area is performed using various existing techniques such as skin color detection and template matching. In the extraction of the face area in step S203, an area obtained by slightly enlarging the outline of the user's face may be extracted as the face area. Such a process can prevent the outline of the user's face from being blurred by a normal smoothing process described later.

次いで、領域設定部701は、取得した合成画像を構成する複数の画素から注目画素を設定し(ステップS204)、設定した注目画素が顔領域に属する画素であるか否かを判断する(ステップS205)。注目画素が顔領域に属する画素であると判断した場合(S205:YES)、その注目画素の周囲に周辺画素を設定することで画素領域を設定する(ステップS206)。   Next, the area setting unit 701 sets a target pixel from a plurality of pixels constituting the acquired composite image (step S204), and determines whether or not the set target pixel is a pixel belonging to the face area (step S205). ). If it is determined that the pixel of interest is a pixel belonging to the face area (S205: YES), a pixel area is set by setting peripheral pixels around the pixel of interest (step S206).

次いで、差分算出部702は、注目画素の画素値と各周辺画素の画素値との差分を算出する(ステップS207)。処理判断部703は、ステップS207で算出した全ての差分が所定値未満であるか否かを判断することにより、注目画素に対して平滑化処理を施すか否かを判断する(ステップS208)。   Next, the difference calculation unit 702 calculates the difference between the pixel value of the target pixel and the pixel values of each peripheral pixel (step S207). The process determining unit 703 determines whether or not to perform the smoothing process on the target pixel by determining whether or not all the differences calculated in step S207 are less than a predetermined value (step S208).

処理判断部703が、注目画素に対して平滑化処理を施すと判断した場合、すなわち、ステップS207で算出した全ての差分が所定値未満の場合(S208:YES)、平均値算出部704は、画素領域内の注目画素及び各周辺画素の画素値の平均値を算出する(ステップS209)。出力部705は、算出した平均値を平滑化処理後の画素の画素値として出力し、メモリ71内に確保した記憶領域に書き込む(ステップS210)。   When the process determining unit 703 determines that the pixel of interest is to be smoothed, that is, when all the differences calculated in step S207 are less than a predetermined value (S208: YES), the average value calculating unit 704 The average value of the pixel values of the target pixel and each peripheral pixel in the pixel area is calculated (step S209). The output unit 705 outputs the calculated average value as the pixel value of the pixel after the smoothing process, and writes it in the storage area secured in the memory 71 (step S210).

一方、処理判断部703が、注目画素に対して平滑化処理を禁止すると判断した場合、すなわち、ステップS207で算出した差分に所定値以上のものが含まれている場合(S208:NO)、出力部705は、元の注目画素の画素値をそのまま出力し、メモリ71内に確保した記憶領域に書き込む(ステップS211)。   On the other hand, when the process determining unit 703 determines that the smoothing process is prohibited for the pixel of interest, that is, when the difference calculated in step S207 includes a value greater than or equal to a predetermined value (S208: NO), output is performed. The unit 705 outputs the pixel value of the original target pixel as it is and writes it in the storage area secured in the memory 71 (step S211).

一方、ステップS205において、設定した注目画素が顔領域に属する画素でないと判断した場合(S205:NO)、平滑化処理部700は、その注目画素に対し通常の平滑化処理を施す(ステップS212)。ここで、通常の平滑化処理では、例えば、注目画素を含む画素領域内にエッジに相当する画素が含まれるか否かに依らず、画素領域内に含まれる全ての画素の画素値の平均値を算出し、その平均値を平滑化後の画素の画素値として出力する処理を行う。また、通常の平滑化処理として、メディアン・フィルタを用いた平滑化処理などの公知の手法を用いるようにしてもよい。通常の平滑化処理を行った後、平滑化処理部700は、作業領域として確保した記憶領域に画素値を書き込み、処理をステップS213へ移行させる。   On the other hand, when it is determined in step S205 that the set target pixel is not a pixel belonging to the face area (S205: NO), the smoothing processing unit 700 performs normal smoothing processing on the target pixel (step S212). . Here, in the normal smoothing process, for example, the average value of the pixel values of all the pixels included in the pixel region regardless of whether or not the pixel region including the target pixel includes the pixel corresponding to the edge. Is calculated, and the average value is output as the pixel value of the pixel after smoothing. Further, as a normal smoothing process, a known method such as a smoothing process using a median filter may be used. After performing the normal smoothing process, the smoothing processing unit 700 writes the pixel value in the storage area secured as the work area, and shifts the process to step S213.

次いで、平滑化処理部700は、処理対象画像の全ての画素について処理を行ったか否かを判断する(ステップS213)。全ての画素についての処理が終了していない場合(S213:NO)、平滑化処理部700は、領域設定部701に指示を与えて、未処理の画素を注目画素に設定し(ステップS214)、ステップS205へ処理を移行させる。   Next, the smoothing processing unit 700 determines whether or not processing has been performed for all the pixels of the processing target image (step S213). When the processing for all the pixels has not been completed (S213: NO), the smoothing processing unit 700 gives an instruction to the region setting unit 701 to set an unprocessed pixel as a target pixel (step S214). The process proceeds to step S205.

全ての画素についての処理が終了した場合(S213:YES)、メモリ71の作業領域には平滑化処理を施した画像データが生成される。符号化部750は、メモリ71の作業領域に生成された画像データを符号化する(ステップS215)。画像データの符号化には、JPEG方式、PNG方式等の公知の符号化手法を用いることができる。   When the processing for all the pixels is completed (S213: YES), image data subjected to smoothing processing is generated in the work area of the memory 71. The encoding unit 750 encodes the image data generated in the work area of the memory 71 (step S215). For encoding image data, a known encoding method such as JPEG method or PNG method can be used.

画像処理部7は、ステップS215で符号化して得られた画像データを制御部6へ送出する。制御部6は、画像処理部7から取得した画像データをHDD62に格納する。そして、制御部6の制御により、HDD62に格納した符号化済みの画像データを、通信部9を介して外部のサーバ装置へ送信する。   The image processing unit 7 sends the image data obtained by encoding in step S215 to the control unit 6. The control unit 6 stores the image data acquired from the image processing unit 7 in the HDD 62. Then, under the control of the control unit 6, the encoded image data stored in the HDD 62 is transmitted to an external server device via the communication unit 9.

以上のように、実施の形態2では、顔領域についてのみ本願の平滑化処理を適用する構成とし、ユーザの顔を構成する目、鼻、口等の各パーツの輪郭については劣化させずに、肌部分のみをぼかすことができるので、ユーザへの提供に適した画像を生成することができる。   As described above, in the second embodiment, the smoothing process of the present application is applied only to the face area, and the contours of the parts such as the eyes, nose, and mouth constituting the user's face are not deteriorated. Since only the skin portion can be blurred, an image suitable for provision to the user can be generated.

なお、実施の形態2では、顔領域について本願の平滑化処理を適用する構成としたが、他と区別して抽出又は設定し得る任意の領域について本願の平滑化処理を施し、それ以外の領域について通常の平滑化処理を施す構成としてもよい。   In the second embodiment, the smoothing process of the present application is applied to the face area. However, the smoothing process of the present application is applied to any area that can be extracted or set separately from the other areas, and the other areas are processed. It is good also as a structure which performs a normal smoothing process.

また、実施の形態2では、顔領域に属する画素でないと判断した場合、通常の平滑化処理を施す構成としたが、通常の平滑化処理を施さない構成としてもよい。実施の形態2では、顔領域等の特定部位にのみ本願の平滑化処理を適用する例を示しているに過ぎず、その特定部位以外の領域の画像処理方法を規定するものではない。   In the second embodiment, when it is determined that the pixel does not belong to the face area, the normal smoothing process is performed. However, the normal smoothing process may not be performed. The second embodiment merely shows an example in which the smoothing process of the present application is applied only to a specific part such as a face region, and does not define an image processing method for a region other than the specific part.

実施の形態3.
実施の形態1では、1つの判断基準(閾値)を用いて平滑化処理を行うか否かを判断する構成としたが、処理対象画像から抽出される複数の領域に対し、異なる閾値を設定する構成としてもよい。また、平滑化処理を特徴付ける変数(例えば、ぼかし量、平均化する係数)を設定することにより、少なくとも2つの領域間で異なる平滑化処理を施す構成としてもよい。
Embodiment 3 FIG.
In the first embodiment, it is configured to determine whether to perform the smoothing process using one determination criterion (threshold value), but different threshold values are set for a plurality of regions extracted from the processing target image. It is good also as a structure. In addition, a variable smoothing process may be performed between at least two regions by setting variables that characterize the smoothing process (for example, a blurring amount and a coefficient to be averaged).

画像出力装置の撮影ブース内には、一般的に、グリーンバック等のクロマキー処理に適したシート材が設けられている。画像出力装置は、撮影ブース内の人物を撮影して得られる撮影画像を基に、人物と背景とを区別するためのマスクデータ(アルファデータ)を作成する。また、公知の顔認識技術を用いて、顔の目、鼻、口、輪郭、肌部分、髪の毛等の顔を構成するパーツを抽出し、抽出した結果をマスクデータ(アルファデータ)として作成する。   In general, a sheet material suitable for chroma key processing such as a green back is provided in a photographing booth of an image output apparatus. The image output apparatus creates mask data (alpha data) for distinguishing between a person and a background based on a photographed image obtained by photographing a person in a photographing booth. Also, using a known face recognition technique, the parts constituting the face such as the eyes, nose, mouth, contour, skin part, hair, etc. of the face are extracted, and the extracted result is created as mask data (alpha data).

このため、画像出力装置では、マスクデータを参照することにより、特定のパーツに対応する画像領域毎に処理を行う(又は特定のパーツに対応する画像領域について処理を禁止する)ことが可能である。   For this reason, in the image output apparatus, it is possible to perform processing for each image region corresponding to a specific part (or prohibit processing for the image region corresponding to the specific part) by referring to the mask data. .

このようなマスクデータを利用することにより、平滑化処理を実行するか否かの判断基準となる閾値を、例えば、肌マスクを利用した肌部分については相対的に低く、髪マスクを利用した髪部分については相対的に高く設定して、夫々の部位(画像領域)に平滑化処理を施すことができる。閾値を低く設定した場合、平滑化処理が実行される可能性が高く、逆に、閾値を高く設定した場合、平滑化処理が実行される可能性が低い。このため、肌部分及び髪部分の閾値を上述したように設定することにより、肌部分をできるだけぼかし、髪部分は極力ぼかさないようにすることができ、画像出力装置で提供するのに適した画像を生成することができる。
また、肌部分の色差が高い部分、髪部分の色差の低い部分は、画像中のゴミである可能性があるので、このようなゴミを消去する効果も期待できる。
By using such mask data, a threshold value that is a criterion for determining whether or not to perform the smoothing process is relatively low, for example, for a skin portion that uses a skin mask, and hair that uses a hair mask. The portion can be set relatively high, and the smoothing process can be performed on each portion (image region). If the threshold is set low, the smoothing process is likely to be executed. Conversely, if the threshold is set high, the smoothing process is not likely to be executed. For this reason, by setting the threshold values of the skin part and the hair part as described above, the skin part can be blurred as much as possible, and the hair part can be prevented from being blurred as much as possible. Can be generated.
In addition, since a portion having a high color difference in the skin portion and a portion having a low color difference in the hair portion may be dust in the image, an effect of erasing such dust can be expected.

更に、マスクデータを利用することにより、平滑化処理を特徴付ける変数を抽出した画像領域に応じて異ならせることも可能である。例えば、肌部分のぼかし量を相対的に強くし、髪部分のぼかし量を相対的に弱くして、夫々の部位に平滑化処理を施す構成としてもよい。ぼかし量を強くする場合、例えば、注目画素に対する平滑化処理の回数を増加させるか、又は平均化する係数(画素に係る係数)を小さくすることにより実現することができ、また、ぼかし量を弱くする場合、平均化する係数を1に近づけることより実現することができる。   Furthermore, by using the mask data, it is possible to vary the variable characterizing the smoothing process according to the extracted image region. For example, a smoothing process may be performed on each part by relatively increasing the blurring amount of the skin portion and relatively decreasing the blurring amount of the hair portion. Increasing the blurring amount can be realized, for example, by increasing the number of times of smoothing processing on the target pixel, or by reducing the coefficient to be averaged (coefficient related to the pixel), and reducing the blurring amount. In this case, it can be realized by bringing the coefficient to be averaged close to 1.

更に、画像出力装置が提供する画像において、写りの評価に重要視されるパーツである目に対しては、目マスクを利用することにより、目の部分に関しては、平滑化処理を禁止するなどの処理を行うことが可能である。   Furthermore, in the image provided by the image output device, for the eyes that are important parts for the evaluation of the reflection, the eye mask is used, and the smoothing process is prohibited for the eyes. Processing can be performed.

なお、これらの処理は重複して行ってもよく、排他的に行ってもよい。例えば、先の肌部分についての平滑化処理で処理した画素については、後の髪部分の平滑化処理において、その画素をスキップするなど、処理に優先順位を付けてもよい。   Note that these processes may be performed in duplicate or exclusively. For example, for pixels processed in the smoothing process for the previous skin part, priority may be given to the process, such as skipping the pixel in the subsequent smoothing process for the hair part.

今回開示された実施の形態は、全ての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上述した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内での全ての変更が含まれることが意図される。   The embodiment disclosed this time is to be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the meanings described above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

2 撮影部
5 印刷部
6 制御部
7 画像処理部
70 CPU
72 HDD
7P 画像処理プログラム
700 平滑化処理部
701 領域設定部
702 差分算出部
703 処理判断部
704 平均値算出部
705 出力部
750 符号化部
2 photographing unit 5 printing unit 6 control unit 7 image processing unit 70 CPU
72 HDD
7P image processing program 700 smoothing processing unit 701 region setting unit 702 difference calculation unit 703 process determination unit 704 average value calculation unit 705 output unit 750 encoding unit

Claims (5)

被写体を撮影して撮影画像を出力する撮影手段、前記撮影画像に対する編集を受付ける編集手段、及び前記撮影画像と前記編集手段により編集された編集画像とを合成し、合成画像を生成する合成手段を備える画像出力装置において、
前記被写体の複数の部位に対応する画像領域を前記撮影画像から夫々抽出する抽出手段と、
該抽出手段により抽出した各画像領域内の注目画素を含む画素領域内にエッジに相当する画素が含まれない場合、前記注目画素に対する平滑化処理を行い、前記画素領域内にエッジに相当する画素が含まれる場合、前記平滑化処理を禁止する平滑化手段と、
該平滑化手段より得られる画像データを符号化する符号化手段と、
該符号化手段が符号化した画像データを外部へ送信する送信手段と
を備え、
前記平滑化処理を実行するか否かの判断基準を示す所定値を、前記抽出手段が抽出する少なくとも2つの画像領域で異ならせることを特徴とする画像出力装置。
Image capturing means for capturing an image of a subject and outputting the captured image, editing means for accepting editing of the captured image, and combining means for combining the captured image and the edited image edited by the editing means to generate a composite image In an image output device comprising:
Extraction means for extracting image regions corresponding to a plurality of parts of the subject from the captured image, respectively;
When a pixel corresponding to an edge is not included in a pixel area including a target pixel in each image area extracted by the extraction unit, a smoothing process is performed on the target pixel, and a pixel corresponding to an edge is included in the pixel area Is included, smoothing means for prohibiting the smoothing process;
Encoding means for encoding image data obtained from the smoothing means;
Transmission means for transmitting the image data encoded by the encoding means to the outside,
An image output apparatus characterized in that a predetermined value indicating a criterion for determining whether or not to execute the smoothing process is made different in at least two image regions extracted by the extraction means.
前記平滑化手段は、
前記撮影画像又は合成画像中の注目画素及び複数の周辺画素を含む画素領域内で、前記注目画素の画素値と各周辺画素の画素値との差分を算出する手段、
前記画素領域内で前記差分が所定値以上となる周辺画素を含むか否かを判断する手段、
前記周辺画素を含むと判断した場合には前記注目画素の画素値を出力し、前記周辺画素を含まないと判断した場合には前記画素領域内の各画素の平均値を前記注目画素の画素値として出力する出力手段
を備え、
前記出力手段が出力した画素値に基づき、平滑化処理を施した画像データを生成するようにしてあることを特徴とする請求項1に記載の画像出力装置。
The smoothing means includes
Means for calculating a difference between a pixel value of the target pixel and a pixel value of each peripheral pixel in a pixel region including the target pixel and a plurality of peripheral pixels in the captured image or the composite image;
Means for determining whether or not the pixel region includes a peripheral pixel in which the difference is equal to or greater than a predetermined value;
The pixel value of the target pixel is output when it is determined that the peripheral pixel is included, and the average value of each pixel in the pixel region is determined as the pixel value of the target pixel when it is determined that the peripheral pixel is not included. Output means for outputting as
2. The image output apparatus according to claim 1, wherein image data subjected to smoothing processing is generated based on the pixel value output by the output means.
前記被写体の特定の部位に対応する特定画像領域を前記撮影画像から抽出する第2の抽出手段を備え、
第2の抽出手段が抽出した特定画像領域に対して前記平滑化処理を施し、前記特定画像領域以外の領域に対して前記平滑化処理を施さないようにしてあることを特徴とする請求項1又は請求項2に記載の画像出力装置。
A second extracting means for extracting a specific image region corresponding to a specific part of the subject from the captured image;
Claims, characterized in that said second extracting means performs said smoothing process on the specific image area extracted, are so not subjected to the smoothing processing with respect to regions other than the specific image area The image output device according to claim 1 or 2.
記平滑化処理を特徴付ける変数を、前記抽出手段が抽出する少なくとも2つの画像領域で異ならせることを特徴とする請求項1又は請求項2に記載の画像出力装置。 A variable characterizing the previous SL smoothing process, the image output apparatus according to claim 1 or claim 2, wherein varying at least two image areas the extraction means extracts. 前記撮影画像又は合成画像に基づき、前記平滑化手段による平滑化処理及び前記符号化手段による符号化を行っていない印刷用の画像データを生成する画像処理手段と、
該画像処理手段が生成した印刷用の画像データに基づいてシール紙への印刷を行う印刷手段と
を更に備える請求項1から請求項の何れか1つに記載の画像出力装置。
Image processing means for generating image data for printing that is not subjected to smoothing processing by the smoothing means and encoding by the encoding means, based on the captured image or composite image;
The image output apparatus according to any one of claims 1 to 4 , further comprising: a printing unit that performs printing on a sticker sheet based on the printing image data generated by the image processing unit.
JP2013091663A 2013-04-24 2013-04-24 Image output device Active JP5854333B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013091663A JP5854333B2 (en) 2013-04-24 2013-04-24 Image output device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013091663A JP5854333B2 (en) 2013-04-24 2013-04-24 Image output device

Publications (2)

Publication Number Publication Date
JP2014216788A JP2014216788A (en) 2014-11-17
JP5854333B2 true JP5854333B2 (en) 2016-02-09

Family

ID=51942158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013091663A Active JP5854333B2 (en) 2013-04-24 2013-04-24 Image output device

Country Status (1)

Country Link
JP (1) JP5854333B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6908013B2 (en) * 2018-10-11 2021-07-21 カシオ計算機株式会社 Image processing equipment, image processing methods and programs

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1132296A (en) * 1997-07-11 1999-02-02 Fuji Photo Film Co Ltd Image information recording medium
JP3608715B2 (en) * 1998-08-31 2005-01-12 日立ソフトウエアエンジニアリング株式会社 Image composition apparatus and image composition method
JP2001245290A (en) * 2000-03-01 2001-09-07 Hitachi Software Eng Co Ltd Image compositing apparatus and image processing system
US6901170B1 (en) * 2000-09-05 2005-05-31 Fuji Xerox Co., Ltd. Image processing device and recording medium
JP2005038083A (en) * 2003-07-17 2005-02-10 Seiko Epson Corp Method, system, device and program for processing image, and digital camera
JP2009081481A (en) * 2007-07-06 2009-04-16 Tatsumi Denshi Kogyo Kk Automatic photo creation device and automatic photo creation method
JP2009253324A (en) * 2008-04-01 2009-10-29 Seiko Epson Corp Image processing unit, image processing method, and program
CN102027505A (en) * 2008-07-30 2011-04-20 泰塞拉技术爱尔兰公司 Automatic face and skin beautification using face detection
JP2010157778A (en) * 2008-12-26 2010-07-15 Olympus Corp Data transmission terminal device, data receiving terminal device, and moving image transmission system

Also Published As

Publication number Publication date
JP2014216788A (en) 2014-11-17

Similar Documents

Publication Publication Date Title
JP5229910B2 (en) Image processing apparatus, image output apparatus, image processing method, and computer program
JP3608715B2 (en) Image composition apparatus and image composition method
JP6614644B2 (en) Photo shooting game device, photo sticker creating device, photo shooting game device control method, and photo shooting game device control program
JP5239318B2 (en) Photo sticker making method and photo sticker making device
JP6085838B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP5555924B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP5854333B2 (en) Image output device
JP5311258B2 (en) Image output apparatus, image output method, and computer program
JP4851985B2 (en) Image display method, image display apparatus, image output apparatus, and computer program
JP2008040988A (en) Photography game machine
JP5870431B2 (en) Photography game machine and its control program
JP5900826B2 (en) Image editing apparatus, image editing method, and control program
JP2004007770A (en) Image compositing method, and its device
JP5998344B2 (en) Shooting game machine, shooting game machine control method, and computer program
JP4840662B2 (en) Printing device
JP5672331B2 (en) Photography game device, photography game method, and photography game program
JP5776031B2 (en) Image processing apparatus, image processing method, and computer program
JP5251906B2 (en) Photography game device, photography game method, and photography game program
JP3058663U (en) Synthetic image creation device
JP2015046701A (en) Image compression method and image compression device
JP2006003652A (en) Photograph printing apparatus
JP3743820B2 (en) Printing device
KR20030065650A (en) Wire/wireless transmitting system having function of image chroma key
JP2011191516A5 (en)
JP2016071003A (en) Photographic seal put-out device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150310

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151126

R150 Certificate of patent or registration of utility model

Ref document number: 5854333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250