JP6547355B2 - Printed product manufacturing device - Google Patents

Printed product manufacturing device Download PDF

Info

Publication number
JP6547355B2
JP6547355B2 JP2015058162A JP2015058162A JP6547355B2 JP 6547355 B2 JP6547355 B2 JP 6547355B2 JP 2015058162 A JP2015058162 A JP 2015058162A JP 2015058162 A JP2015058162 A JP 2015058162A JP 6547355 B2 JP6547355 B2 JP 6547355B2
Authority
JP
Japan
Prior art keywords
image
user
posture
detected
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015058162A
Other languages
Japanese (ja)
Other versions
JP2016178531A (en
Inventor
淑恵 蝦名
淑恵 蝦名
勝久 吉田
勝久 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2015058162A priority Critical patent/JP6547355B2/en
Publication of JP2016178531A publication Critical patent/JP2016178531A/en
Application granted granted Critical
Publication of JP6547355B2 publication Critical patent/JP6547355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Description

本発明は、顔画像が印画された印画物を作製する印画物作製装置に関する。   BACKGROUND OF THE INVENTION Field of the Invention The present invention relates to a print production apparatus for producing a print having a face image printed thereon.

免許証、パスポート、履歴書等に貼付するための証明写真等を撮影するボックス型の写真撮影装置が知られている。写真撮影装置は、人物を撮影し、用途に応じた様々なサイズの写真をプリントして出力する。また、クロマキー合成を用いた処理により、人物画像に背景用画像を合成した写真を出力する装置が知られている。   There is known a box-type photographing device for photographing a license photo, a passport, a certification photograph for attaching to a resume and the like. The photo shooting device shoots a person and prints out and outputs photos of various sizes according to the application. There is also known an apparatus for outputting a photograph in which a background image is combined with a human image by processing using chroma key combination.

従来の写真撮影装置では、撮影時の照明環境や、ユーザの位置・姿勢等が最適なものとなるように、撮影時の注意点が画面表示されたり、音声ガイダンスが流れたり、目の高さや頭の位置を合わせる指標となるガイドシールが筐体に貼られたりしている。   In the conventional photographing apparatus, the attention point at the time of photographing is displayed on the screen, the voice guidance flows, the height and the height of the eye, and the like so that the lighting environment at the time of photographing and the position / attitude of the user become optimum. A guide seal, which serves as an index for aligning the position of the head, is affixed to the housing.

しかし、このような従来の写真撮影装置では、撮影前に、姿勢が正しいか否かをユーザ自身で正確に判断することが困難であり、ユーザは、撮影された画像のプレビューを確認することで、姿勢が傾いていたり、位置が正面からずれていたりすることに気付いていた。そのため、撮り直しや、撮影画像の編集作業(位置移動や回転処理)が必要となり、手間がかかっていた。   However, in such a conventional photographing apparatus, it is difficult for the user to accurately determine whether the posture is correct before photographing, and the user confirms the preview of the photographed image. , I was aware that the posture was tilted or the position was off the front. Therefore, it is necessary to retake the picture and to edit the photographed image (position movement and rotation processing), which takes time and effort.

特許第4217066号公報Patent No. 4217066

本発明は、上記従来の実状に鑑みてなされたものであり、ユーザの姿勢を検出し、検出結果をユーザに提示する印画物作製装置を提供することを課題とする。   The present invention has been made in view of the above-described conventional situation, and has an object to provide a print product manufacturing apparatus that detects the posture of a user and presents the detection result to the user.

本発明の一態様による印画物作製装置は、被撮影者を撮影し、撮影画像を生成する撮影装置と、前記撮影画像に対しクロマキー処理を行い、前記撮影画像における背景色部分と人物部分とを判別して前記撮影画像から人物画像を切り抜き、前記人物画像と背景画像とを合成して合成画像を作成する画像処理部と、前記合成画像を印画物にプリントして出力するプリンタと、前記クロマキー処理時に生成される背景色部分と人物部分とを区別した2値画像を用いて、前記被撮影者の姿勢を判定する姿勢判定部と、を備えるものである。   According to an aspect of the present invention, there is provided a printed object manufacturing apparatus for photographing a subject and generating a photographed image, chroma key processing is performed on the photographed image, and a background color portion and a human portion in the photographed image are displayed. An image processing unit that discriminates and cuts out a person image from the photographed image and combines the person image and the background image to create a combined image, a printer that prints and outputs the combined image on the print object, and the chroma key And a posture determination unit that determines the posture of the subject using a binary image that distinguishes between a background color portion and a human portion generated at the time of processing.

本発明の一態様による印画物作製装置において、前記姿勢判定部は、前記2値画像における前記人物部分に対応する画素の分布に基づいて、前記被撮影者の姿勢を判定することを特徴とするものである。   In the printed product manufacturing apparatus according to one aspect of the present invention, the posture determination unit determines the posture of the subject based on a distribution of pixels corresponding to the human portion in the binary image. It is a thing.

本発明の一態様による印画物作製装置において、前記姿勢判定部は、前記2値画像の垂直方向の各画素列について、前記人物部分に対応する画素のうち、垂直方向最上部に位置する画素の位置を検出し、検出した画素位置を水平方向にプロットした場合の変化に基づいて、前記被撮影者の肩ライン又は体の中心位置を検出することを特徴とするものである。   In the printed product manufacturing apparatus according to one aspect of the present invention, the posture determination unit determines, for each pixel row in the vertical direction of the binary image, of the pixels corresponding to the person portion, pixels located at the uppermost in the vertical direction. The position is detected, and the center position of the shoulder line or the body of the subject is detected based on a change in the case where the detected pixel position is plotted in the horizontal direction.

本発明の一態様による印画物作製装置は、前記姿勢判定部により検出された肩ラインと、水平ラインとを表示部に表示することを特徴とするものである。   The printed product manufacturing apparatus according to one aspect of the present invention is characterized in that the shoulder line detected by the posture determination unit and the horizontal line are displayed on a display unit.

本発明の一態様による印画物作製装置は、前記姿勢判定部により検出された体の中心位置と、撮影画像の中心位置とを表示部に表示することを特徴とするものである。   The printed product manufacturing apparatus according to one aspect of the present invention is characterized in that the central position of the body detected by the posture determination unit and the central position of the photographed image are displayed on a display unit.

本発明によれば、ユーザの姿勢を検出し、検出結果を提示することで、ユーザは撮影前に姿勢を正すことができる。そのため、撮り直しの回数を低減したり、撮影画像の編集作業負荷を軽減したりすることができる。   According to the present invention, the user can correct the posture before shooting by detecting the posture of the user and presenting the detection result. Therefore, it is possible to reduce the number of retakes and to reduce the workload of editing captured images.

本発明の実施形態に係る印画物作製装置の概略構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a schematic block diagram of the printed matter production apparatus which concerns on embodiment of this invention. 同実施形態に係る演算制御装置の概略構成図である。It is a schematic block diagram of the arithmetic and control unit concerning the embodiment. 同実施形態に係る画像処理プログラムを実行することで実現される機能ブロック図である。It is a functional block diagram realized by running an image processing program concerning the embodiment. (a)は撮影画像の一例を示す図であり、(b)は2値画像の一例を示す図である。(A) is a figure which shows an example of a picked-up image, (b) is a figure which shows an example of a binary image. (a)〜(c)は2値画像における画素座標の検出例を示す図である。(A)-(c) is a figure which shows the example of a detection of the pixel coordinate in a binary image. (a)〜(c)は検出した画素座標のグラフである。(A)-(c) is a graph of the detected pixel coordinate. (a)〜(c)は姿勢・位置検出後の表示画面の例を示す図である。(A)-(c) is a figure which shows the example of the display screen after attitude | position / position detection. 同実施形態に係る印画物作製方法を説明するフローチャートである。It is a flowchart explaining the printed matter production method concerning the embodiment. 変形例による印画物作製方法を説明するフローチャートである。It is a flowchart explaining the printed matter production method by a modification. 2値画像における画素座標の検出例を示す図である。It is a figure which shows the example of a detection of the pixel coordinate in a binary image.

以下、本発明の実施の形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described based on the drawings.

図1は、本実施形態に係る印画物作製装置の概略構成を示す。印画物作製装置は、被撮影者(ユーザ)Pを撮影し、撮影画像データを生成する撮影装置2と、この撮影画像データに対して画像処理を施す演算制御装置1と、印画物(写真)をプリントするプリンタ5と、撮影装置2がユーザPを撮影する際にユーザPに光を照射するストロボ6と、音声を出力するスピーカ7と、を備える。この印画物作製装置は、人物画像と背景画像を合成した合成画像を印画物にプリントして出力するものである。印画物作製装置におけるユーザPの背中側の壁紙は、クロマキー合成に適した色、例えば青色や黄緑色になっている。   FIG. 1 shows a schematic configuration of a print product manufacturing apparatus according to the present embodiment. The print production apparatus captures an image of a person (user) P and generates a captured image data, an arithmetic control unit 1 that performs image processing on the captured image data, and a print (photograph) , A strobe 6 that emits light to the user P when the imaging device 2 captures the user P, and a speaker 7 that outputs sound. This print product manufacturing apparatus prints and outputs a composite image obtained by combining a human image and a background image on a print product. The wallpaper on the back side of the user P in the print preparation apparatus is a color suitable for chroma key composition, for example, blue or yellowish green.

印画物作製装置は、ユーザPから各種指示を受け付けると共に、撮影した画像を表示するタッチパネル(指示受付部及び表示部)3を備えている。タッチパネル3は、操作ボタンを表示し、操作ボタンが押されると、その操作ボタンに対応した操作指示を受け付ける。例えば、タッチパネル3は、複数の背景画像を表示し、ユーザから背景画像の選択指示を受け付けることができる。また、タッチパネル3は、ユーザからプリンタ5のプリント開始指示を受け付けることができる。印画物作製装置は、ライブビュー撮影機能を有し、合成画像をタッチパネル3に(ほぼ)リアルタイムに表示する。   The print product manufacturing apparatus includes a touch panel (instruction reception unit and display unit) 3 that receives various instructions from the user P and displays a photographed image. The touch panel 3 displays the operation button, and when the operation button is pressed, the operation instruction corresponding to the operation button is received. For example, the touch panel 3 can display a plurality of background images and can receive an instruction for selecting a background image from the user. The touch panel 3 can also receive a print start instruction of the printer 5 from the user. The print product manufacturing apparatus has a live view shooting function, and displays a composite image on the touch panel 3 in (almost) real time.

さらに、印画物作製装置には、ユーザPが印画物の代金として支払う貨幣を受け入れたり、釣銭を払い出したりする課金部(図示せず)が設けられている。   Further, the print product manufacturing apparatus is provided with a charging unit (not shown) that accepts money paid by the user P for the print product and pays out change.

撮影装置2は、例えばデジタルカメラであり、レンズ、シャッタ、CMOSセンサ、A/D変換器等を有する。撮影装置2がユーザPを撮影する場合には、CMOSセンサが、レンズにより収束された撮影光を、シャッタを介して受光すると共に、受光面に結像された光学像を光電変換し、画像信号として出力する。そして、A/D変換器が、CMOSセンサから出力された画像信号をA/D変換し、撮影画像データを生成する。撮影装置2は、撮影画像データを演算制御装置1へ出力する。   The imaging device 2 is, for example, a digital camera, and includes a lens, a shutter, a CMOS sensor, an A / D converter, and the like. When the photographing device 2 photographs the user P, the CMOS sensor receives the photographing light converged by the lens via the shutter, and photoelectrically converts the optical image formed on the light receiving surface, and the image signal Output as Then, the A / D converter A / D converts the image signal output from the CMOS sensor to generate photographed image data. The photographing device 2 outputs photographed image data to the arithmetic and control unit 1.

演算制御装置1は、撮影装置2、タッチパネル3、プリンタ5、ストロボ6、スピーカ7、及び課金部に接続されており、各部の制御やデータの受け渡しを行う。   The arithmetic and control unit 1 is connected to the photographing device 2, the touch panel 3, the printer 5, the flash 6, the speaker 7, and the charging unit, and controls each unit and transfers data.

図2に、演算制御装置1のハードウェア構成を示す。演算制御装置1は、CPU(中央演算処理部)11、メインメモリ12、ディスク装置13、及び入出力部14を有する。演算制御装置1の各部はバス15を介して接続されている。   The hardware configuration of the arithmetic and control unit 1 is shown in FIG. The arithmetic and control unit 1 includes a CPU (central processing unit) 11, a main memory 12, a disk device 13, and an input / output unit 14. Each part of the arithmetic and control unit 1 is connected via a bus 15.

ディスク装置13は、CPU11により実行される画像処理プログラム16、及び人物画像に合成される背景画像データ17を格納する。   The disk device 13 stores an image processing program 16 executed by the CPU 11 and background image data 17 to be combined with a human image.

ディスク装置13は例えばハードディスクドライブである。なお、画像処理プログラム16は、ディスク装置13でなく、ROMや磁気テープ(共に図示せず)に格納されていてもよい。   The disk device 13 is, for example, a hard disk drive. The image processing program 16 may be stored not in the disk device 13 but in a ROM or a magnetic tape (both not shown).

CPU11は、ディスク装置13内の画像処理プログラム16をメインメモリ12にロードして、画像処理プログラム16を実行する。   The CPU 11 loads the image processing program 16 in the disk device 13 into the main memory 12 and executes the image processing program 16.

画像処理プログラム16の実行に伴い、メインメモリ12上には、撮影画像データ、2値画像データ、人物画像データ、背景画像データ、合成画像データ等を格納する領域が確保される。   As the image processing program 16 is executed, an area for storing photographed image data, binary image data, person image data, background image data, composite image data and the like is secured on the main memory 12.

図3に、CPU11が画像処理プログラム16を実行することで実現される機能ブロック図を示す。画像処理プログラム16の実行により、選択受付部21、画像処理部22、姿勢判定部23、及び報知部24が実現される。   FIG. 3 shows a functional block diagram realized by the CPU 11 executing the image processing program 16. Execution of the image processing program 16 implements the selection receiving unit 21, the image processing unit 22, the posture determination unit 23, and the notification unit 24.

選択受付部21は、複数の背景画像のデータ17をディスク装置13から取り出し、タッチパネル3に表示する。選択受付部21は、タッチパネル3を介してユーザから背景画像の選択指示を受け付ける。選択受付部21は、ユーザにより選択された背景画像データを画像処理部22に渡す。   The selection receiving unit 21 takes out data 17 of a plurality of background images from the disk device 13 and displays the data 17 on the touch panel 3. The selection receiving unit 21 receives a selection instruction of a background image from the user via the touch panel 3. The selection receiving unit 21 passes the background image data selected by the user to the image processing unit 22.

画像処理部22は、クロマキー合成による処理を用いて、撮影装置2により生成された撮影画像内の人物画像と、選択受付部21から受け取った背景画像とを合成して、合成画像データを作成する。具体的には、画像処理部22は、撮影画像内の人物と背景色との色差を判別し、撮影画像から人物画像を切り抜く。ここで判別される色差とは、色相差、彩度差、又は色相差及び彩度差の組み合わせである。そして、画像処理部22は、選択受付部21から受け取った背景画像と、切り抜いた人物画像とを重ね合わせることで、画像合成を行う。   The image processing unit 22 combines the person image in the photographed image generated by the photographing device 2 with the background image received from the selection receiving unit 21 using processing by chroma key composition to create synthesized image data. . Specifically, the image processing unit 22 determines the color difference between the person in the captured image and the background color, and cuts out the human image from the captured image. The color difference determined here is a hue difference, a saturation difference, or a combination of a hue difference and a saturation difference. Then, the image processing unit 22 performs image combination by superimposing the background image received from the selection receiving unit 21 and the clipped person image.

画像処理部22は、作成した合成画像データをタッチパネル3でのプレビュー表示に対応したサイズに縮小し、プレビュー用画像データを生成する。プレビュー用画像データは、入出力部14を介してタッチパネル3へ出力され、表示される。撮影装置2による撮影(画像取得)、クロマキー処理、及びプレビュー画像の表示を連続して行うことで、リアルタイムのライブビュー表示が行われる。   The image processing unit 22 reduces the generated composite image data to a size corresponding to the preview display on the touch panel 3 and generates preview image data. The preview image data is output to the touch panel 3 through the input / output unit 14 and displayed. A live view display in real time is performed by continuously performing shooting (image acquisition), chroma key processing, and display of a preview image by the shooting device 2.

画像処理部22におけるクロマキー処理では、撮影画像における背景色部分と人物部分とを区別するための2値画像が生成される。例えば、図4(a)に示す撮影画像41に対するクロマキー処理において、図4(b)に示すような、人物部分42が黒画素、背景色部分43が白画素で表される2値(白黒2値)画像44が生成される。   In chroma key processing in the image processing unit 22, a binary image is generated to distinguish between a background color portion and a human portion in a captured image. For example, in the chroma key process for the photographed image 41 shown in FIG. 4A, a binary value (black and white 2) in which the human portion 42 is represented by black pixels and the background color portion 43 is represented by white pixels as shown in FIG. A value) image 44 is generated.

姿勢判定部23は、この2値画像における人物部分に対応する画素(黒画素)の分布に基づいて、ユーザPの姿勢が所定の基準を満たしているか否か判定する。ここで、ユーザPの姿勢とは、ユーザPの肩の傾き、及びユーザPの位置である。   The posture determination unit 23 determines whether the posture of the user P satisfies a predetermined standard, based on the distribution of pixels (black pixels) corresponding to the human part in the binary image. Here, the posture of the user P is the inclination of the shoulder of the user P and the position of the user P.

姿勢判定部23は、ユーザPの肩が傾いているか否かを判定する。具体的には、ユーザPの左右の肩を結ぶライン(肩ライン)を検出し、検出した肩ラインが水平ラインに対してなす角度が所定値以下であるか否かを判定する。   The posture determination unit 23 determines whether the shoulder of the user P is inclined. Specifically, a line (shoulder line) connecting the left and right shoulders of the user P is detected, and it is determined whether or not the angle formed by the detected shoulder line with respect to the horizontal line is equal to or less than a predetermined value.

また、姿勢判定部23は、ユーザPが撮影装置2の正面に位置しているか否かを判定する。具体的には、ユーザPの体の中心位置を検出し、検出した体の中心位置と、撮影画像の水平方向(左右方向)の中心位置とのずれが所定値以下であるか否かを判定する。   Further, the posture determination unit 23 determines whether the user P is positioned in front of the imaging device 2. Specifically, the center position of the body of the user P is detected, and it is determined whether or not the deviation between the detected center position of the body and the center position in the horizontal direction (left and right direction) of the captured image is equal to or less than a predetermined value. Do.

ユーザPの肩ライン、及び体の中心位置の検出方法について説明する。上述した2値画像は、水平方向及び垂直方向にそれぞれ多数の画素が配置されたものである。姿勢判定部23は、2値画像内の画素を列毎に上から下へ向かって走査し、最初に黒画素を検出した位置(座標)を記録する。言い換えれば、垂直方向の画素列において、最上部の黒画素の位置を検出して記録する。   A method of detecting the shoulder line of the user P and the center position of the body will be described. The above-described binary image is one in which a large number of pixels are arranged in the horizontal direction and the vertical direction. The posture determination unit 23 scans the pixels in the binary image from the top to the bottom for each column, and records the position (coordinates) at which the black pixel is first detected. In other words, in the pixel column in the vertical direction, the position of the uppermost black pixel is detected and recorded.

図5(a)〜(c)は、2値画像44a、44b、44cから画素列毎の最上部の黒画素の座標を検出する例を示す。2値画像44aは正しい姿勢の場合の2値画像である。2値画像44bは肩が傾いている場合の2値画像の例である。2値画像44cは、ユーザPが正面に位置していない場合の2値画像の例である。   FIGS. 5A to 5C show an example of detecting the coordinates of the top black pixel in each pixel row from the binary images 44a, 44b and 44c. The binary image 44a is a binary image in the case of the correct posture. The binary image 44b is an example of a binary image when the shoulder is inclined. The binary image 44c is an example of a binary image when the user P is not located in front.

姿勢判定部23は、検出した画素列毎の黒画素座標を水平方向にプロットし、グラフ化する。例えば、2値画像44a、44b、44cからは、それぞれ図6(a)〜(c)に示すようなグラフが生成される。   The posture determination unit 23 plots the black pixel coordinates of each detected pixel row in the horizontal direction to form a graph. For example, graphs as shown in FIGS. 6A to 6C are generated from the binary images 44a, 44b and 44c, respectively.

人体の構造から、黒画素座標の最大値がユーザPの頭頂部に相当し、ユーザPの体の中心位置とみなすことができる。姿勢判定部23は、黒画素座標の最大値から、ユーザPの体の中心位置を検出する。例えば、図6(a)〜(c)では、座標CがユーザPの体の中心位置として検出される。   From the structure of the human body, the maximum value of the black pixel coordinates corresponds to the top of the head of the user P and can be regarded as the central position of the user P's body. The posture determination unit 23 detects the central position of the body of the user P from the maximum value of the black pixel coordinates. For example, in FIGS. 6A to 6C, the coordinate C is detected as the center position of the user P's body.

証明写真等では、手を膝の上に置いて撮影を行う。腕は肩から前方向に位置するため、2値画像において、肩より(左右方向)外側に黒画素は殆ど存在しない。そのため、左右の肩に対応する位置で、検出される黒画素座標が大きく変化する。また、頭部の左右両端部においても、検出される黒画素座標が大きく変化する。   In the identification photo etc., place your hand on the knee and shoot. Since the arm is located forward from the shoulder, in the binary image, almost no black pixels exist outside the shoulder (in the left-right direction). Therefore, the detected black pixel coordinates greatly change at positions corresponding to the left and right shoulders. In addition, the black pixel coordinates to be detected also change significantly at the left and right ends of the head.

例えば、図6(a)〜(c)に示すように、頭部の左右両端部に対応する座標HR、HLで黒画素座標が大きく変化する。また、左右の肩に対応する座標SR、SLで黒画素座標が大きく変化する。姿勢判定部23は、このような座標変化の特徴に基づいて、ユーザPの左右の肩の位置を検出する。   For example, as shown in FIGS. 6A to 6C, the black pixel coordinates largely change at the coordinates HR and HL corresponding to the left and right ends of the head. In addition, black pixel coordinates largely change at coordinates SR and SL corresponding to the left and right shoulders. The posture determination unit 23 detects the positions of the left and right shoulders of the user P based on the feature of such coordinate change.

例えば、黒画素座標のグラフにおいて、座標位置が大きく変化する箇所を検出し、そのうちの左右両端の2ヶ所を左右の肩の位置とする。座標位置が大きく変化するとは、例えば、微分係数の絶対値が所定値以上になることである。姿勢判定部23は、左右の肩の位置での黒画素座標からユーザPの肩ラインを検出する。例えば、図6(a)〜(c)のグラフからは、肩ラインLが検出される。   For example, in a graph of black pixel coordinates, a place where the coordinate position greatly changes is detected, and two places of the left and right ends thereof are set as the positions of left and right shoulders. A large change in coordinate position means, for example, that the absolute value of the derivative becomes equal to or greater than a predetermined value. The posture determination unit 23 detects the shoulder line of the user P from the black pixel coordinates at the positions of the left and right shoulders. For example, the shoulder line L is detected from the graphs of FIGS. 6 (a) to 6 (c).

姿勢判定部23は、図6(a)に示すように、ユーザPの体の中心位置が画像の中心位置にあり、肩ラインLが水平である場合、正しい姿勢であると判定する。一方、図6(b)に示すように、肩ラインLが水平ラインに対して所定角度以上傾いている場合、姿勢判定部23は肩が傾いていると判定する。また、図6(c)に示すように、体の中心位置が画像の中心位置にない、すなわち撮影装置2の正面に位置していない場合、姿勢判定部23は体の位置がずれていると判定する。   The posture determination unit 23 determines that the posture is correct when the center position of the body of the user P is at the center position of the image and the shoulder line L is horizontal as shown in FIG. 6A. On the other hand, as shown in FIG. 6B, when the shoulder line L is inclined at a predetermined angle or more with respect to the horizontal line, the posture determination unit 23 determines that the shoulder is inclined. Further, as shown in FIG. 6C, when the center position of the body is not at the center position of the image, that is, it is not positioned in front of the photographing device 2, the posture determination unit 23 assumes that the body position is shifted. judge.

報知部24は、姿勢判定部23の判定結果をユーザPに報知する。例えば、正しい姿勢であると判定された場合、図7(a)に示すように、タッチパネル3に「OK」と表示する。   The notification unit 24 notifies the user P of the determination result of the posture determination unit 23. For example, when it is determined that the posture is correct, “OK” is displayed on the touch panel 3 as shown in FIG. 7A.

肩が傾いていると判定された場合、図7(b)に示すように、タッチパネル3に肩が傾いていることを表示したり、スピーカ7から音声を出力するとともに、検出したユーザPの肩ラインL1と、正しい肩ライン(水平ライン)L2とを表示する。ユーザPは、表示されたラインL1、L2を見ながら、肩の高さを調整することができる。   When it is determined that the shoulder is inclined, as shown in FIG. 7 (b), the touch panel 3 displays that the shoulder is inclined, outputs a voice from the speaker 7, and detects the shoulder of the detected user P. The line L1 and the correct shoulder line (horizontal line) L2 are displayed. The user P can adjust the shoulder height while looking at the displayed lines L1 and L2.

体の位置がずれていると判定された場合、図7(c)に示すように、タッチパネル3に体の位置がずれていることを表示したり、スピーカ7から音声を出力したりするとともに、検出したユーザPの体の中心ラインC1と、撮影装置2の正面となる画像の中心ラインC2とを表示する。ユーザPは、表示されたラインC1、C2を見ながら、体の位置を調整することができる。   When it is determined that the position of the body is shifted, as shown in FIG. 7C, the touch panel 3 displays that the position of the body is shifted, and outputs sound from the speaker 7, and The center line C1 of the detected body of the user P and the center line C2 of the image to be the front of the photographing device 2 are displayed. The user P can adjust the position of the body while looking at the displayed lines C1 and C2.

画像処理部22は、タッチパネル3を介してユーザからプリント用画像のプリント承認指示を受け付けると、合成画像データを、プリンタ5でプリントする写真サイズに対応したサイズに縮小し、プリント用画像データを生成する。プリント用画像データは、演算制御装置1からプリンタ5へ出力される。   When the image processing unit 22 receives a print approval instruction of a print image from the user via the touch panel 3, the image processing unit 22 reduces the composite image data to a size corresponding to the size of the photo to be printed by the printer 5, and generates print image data. Do. The print image data is output from the arithmetic and control unit 1 to the printer 5.

プリンタ5は、演算制御装置1から受け取ったプリント用画像データに対して、色変換やシャープネス処理を行う。そして、プリンタ5は、ユーザPの撮影画像を用紙に印画して出力する。プリンタ5のプリント方式は特に限定されず、インクジェット方式、昇華型熱転写方式、溶融型熱転写方式等を用いることができる。   The printer 5 performs color conversion and sharpness processing on the print image data received from the arithmetic and control unit 1. Then, the printer 5 prints and outputs a photographed image of the user P on a sheet. The printing method of the printer 5 is not particularly limited, and an inkjet method, a sublimation thermal transfer method, a melting thermal transfer method, or the like can be used.

次に、このような印画物作製装置を用いた印画物作製方法を図8に示すフローチャートを用いて説明する。   Next, a method for producing a print product using such a print product production apparatus will be described using the flowchart shown in FIG.

ユーザPが、タッチパネル3を操作して印画する写真の用途やサイズ等を指示し、入金処理を行う(ステップS101)。タッチパネル3に選択可能な背景画像が複数表示され、ユーザPはいずれか1つの背景画像を選択する(ステップS102)。   The user P operates the touch panel 3 to instruct the use, the size, and the like of the photograph to be printed, and performs the deposit process (step S101). A plurality of selectable background images are displayed on the touch panel 3, and the user P selects any one background image (step S102).

撮影装置2が、ユーザPの撮影(画像取得)を開始する(ステップS103)。画像処理部22が、クロマキー合成による処理を用いて、撮影画像から人物画像を切り抜き、背景画像と合成して合成画像データを作成する(ステップS104)。   The photographing device 2 starts photographing (image acquisition) of the user P (step S103). The image processing unit 22 cuts out the human image from the captured image using the processing by chroma key composition and combines it with the background image to create composite image data (step S104).

姿勢判定部23が、ステップS104のクロマキー処理において生成された2値画像を用いて、ユーザPの姿勢を判定する(ステップS105)。上述したように、姿勢判定部23は、2値画像の画素を列毎に上から下へ向かって走査し、最上部の黒画素の座標(位置)を検出しグラフ化する。そして、グラフにおける黒画素の座標の最大値や座標の変化から、ユーザPの体の中心位置や肩ラインを検出する。   The posture determination unit 23 determines the posture of the user P using the binary image generated in the chroma key process of step S104 (step S105). As described above, the posture determination unit 23 scans the pixels of the binary image from top to bottom for each column, and detects and graphs the coordinates (positions) of the top black pixels. Then, the central position and the shoulder line of the body of the user P are detected from the maximum value of the coordinates of the black pixel in the graph and the change of the coordinates.

ユーザPの姿勢が正しい場合(ステップS106_Yes)、タッチパネル3に合成画像が表示される(ステップS108)。ユーザPの姿勢が正しくない場合(ステップS106_No)、タッチパネル3に、合成画像と共にアラートを表示する(ステップS107、S108)。   If the posture of the user P is correct (Yes in step S106), the composite image is displayed on the touch panel 3 (step S108). When the posture of the user P is not correct (Step S106_No), an alert is displayed on the touch panel 3 together with the composite image (Steps S107 and S108).

例えば、肩が傾いている場合、検出した現在のユーザPの肩ラインと、正しい水平な肩ラインとがタッチパネル3に表示される。また、ユーザPの体が撮影装置2の正面に位置していない場合、検出した現在のユーザPの体の中心ラインと、撮影装置2の正面となる正しい中心ラインとがタッチパネル3に表示される。肩が傾き、かつ体が撮影装置2の正面に位置していない場合は、検出した現在のユーザPの肩ライン、正しい水平な肩ライン、検出した現在のユーザPの体の中心ライン、及び撮影装置2の正面となる正しい中心ラインがタッチパネル3に表示される。ユーザPは表示されたアラートを確認して、姿勢を調整できる。   For example, when the shoulder is inclined, the detected shoulder line of the current user P and the correct horizontal shoulder line are displayed on the touch panel 3. Further, when the body of the user P is not located in front of the photographing device 2, the detected center line of the body of the user P and the correct central line which is the front of the photographing device 2 are displayed on the touch panel 3 . If the shoulder is tilted and the body is not located in front of the photographing device 2, the detected present user P's shoulder line, the correct horizontal shoulder line, the detected present user P's body center line, and the photographing The correct center line which is the front of the device 2 is displayed on the touch panel 3. The user P can adjust the posture by confirming the displayed alert.

報知部24が、正しい姿勢になるための指示を与えてもよい。例えば、「右肩を少し上げる」「少し右に寄る」などの指示をタッチパネル3に表示したり、音声をスピーカ7から出力したりする。これにより、ユーザは、どのように動けばよいのか容易に理解できる。   The notification unit 24 may give an instruction to set the correct posture. For example, the touch panel 3 displays an instruction such as “slightly raise the right shoulder” or “closes slightly to the right”, or outputs an audio from the speaker 7. This allows the user to easily understand how to move.

ユーザPからプリント用画像の撮影指示があるまで、ステップS103〜S108が連続して繰り返され、ライブビュー表示が行われる。ユーザPからプリント用画像の撮影指示を受け付けると(ステップS109_Yes)、ストロボ6がユーザPに光を照射し、撮影装置2がユーザを撮影する(ステップS110)。ライブビュー表示を開始してから所定時間経過したら、ユーザPからの撮影指示がなくても、ステップS110へ進むようにしてもよい。   Steps S103 to S108 are continuously repeated until the user P issues an instruction to take a print image, and live view display is performed. When the user P receives an instruction to shoot a print image (Yes at step S109), the flash 6 emits light to the user P, and the photographing device 2 photographs the user (step S110). If a predetermined time has elapsed since the start of live view display, the process may proceed to step S110 even if there is no photographing instruction from the user P.

画像処理部22がクロマキー合成による処理を用いて、撮影画像から人物画像を切り抜き、背景画像と合成して合成画像データを作成する(ステップS111)。タッチパネル3には、この合成画像がプレビュー表示される(ステップS112)。   The image processing unit 22 cuts out the person image from the photographed image using the processing by chroma key combination, and combines it with the background image to create combined image data (step S111). The synthesized image is displayed on the touch panel 3 as a preview (step S112).

ユーザPは、再撮影を希望する場合(ステップS113_No)、タッチパネル3上の再撮影ボタンを押す。これにより、ステップS103に戻る。   When the user P desires re-shooting (Step S113_No), the user P presses the re-shooting button on the touch panel 3. Thus, the process returns to step S103.

タッチパネル3に表示されたプレビュー画像を承諾する場合(ステップS113_Yes)、ユーザPはタッチパネル3上の決定ボタンを押す。画像処理部22が、合成画像データからプリント用画像データを作成する。そして、プリンタ5が、演算制御装置1からプリント用画像データを受け取り、合成画像を用紙に印画して出力する(ステップS114)。   When the preview image displayed on the touch panel 3 is accepted (step S113_Yes), the user P presses the determination button on the touch panel 3. The image processing unit 22 creates print image data from the composite image data. Then, the printer 5 receives the print image data from the arithmetic and control unit 1, prints the composite image on a sheet, and outputs it (step S114).

なお、ステップS110において複数回撮影を行い、タッチパネル3に複数のプレビュー画像を表示し、ユーザPが最も気に入った画像を選択するようにしてもよい。また、プリント前に、必要に応じてユーザPが画像の修正処理を行えるようにしてもよい。   In addition, in step S110, shooting may be performed a plurality of times, a plurality of preview images may be displayed on the touch panel 3, and an image that the user P likes most may be selected. In addition, before printing, the user P may be able to perform image correction processing as needed.

このように、本実施形態によれば、姿勢判定部23による判定結果を画面に提示することで、ユーザPはプリント用画像の撮影前に姿勢を調整することができる。また、肩ラインや体の中心ラインが表示されるため、どのように調整すればよいか容易に理解することができる。このように姿勢を調整してからプリント用画像の撮影を行うため、撮り直しの回数を減らすことができる。また、撮影画像の編集作業(位置移動や回転処理)の作業量を低減することができる。   As described above, according to the present embodiment, by presenting the determination result by the posture determination unit 23 on the screen, the user P can adjust the posture before photographing the print image. In addition, since the shoulder line and the center line of the body are displayed, it can be easily understood how to adjust. Since the image for printing is taken after adjusting the posture in this way, the number of retakes can be reduced. In addition, the amount of work of editing the photographed image (position movement and rotation processing) can be reduced.

上記実施形態では、印画物作製装置がライブビュー表示機能を有する例について説明したが、ライブビュー表示機能を省略してもよい。この場合、撮影画像におけるユーザPの姿勢を判定し、プレビュー画像を表示すると共に、判定結果を表示する。これにより、肩が傾いていたり、位置がずれていたりする画像がプリント出力されることを防止できる。   In the above embodiment, an example in which the print product manufacturing apparatus has the live view display function has been described, but the live view display function may be omitted. In this case, the posture of the user P in the captured image is determined, the preview image is displayed, and the determination result is displayed. This makes it possible to prevent the printout of an image in which the shoulder is tilted or misaligned.

ライブビュー表示機能を持たない印画物作製装置による印画物作製方法を図9に示すフローチャートを用いて説明する。   A method of producing a print product by the print product producing apparatus having no live view display function will be described with reference to a flowchart shown in FIG.

ユーザPが、タッチパネル3を操作して印画する写真の用途やサイズ等を指示し、入金処理を行う(ステップS201)。タッチパネル3に選択可能な背景画像が複数表示され、ユーザPはいずれか1つの背景画像を選択する(ステップS202)。   The user P operates the touch panel 3 to instruct the use, size, etc. of the photograph to be printed, and performs the deposit process (step S201). A plurality of selectable background images are displayed on the touch panel 3, and the user P selects any one background image (step S202).

撮影装置2が、ユーザPを撮影し、撮影画像データを生成する(ステップS203)。撮影装置2が撮影を行う際に、ストロボ6がユーザPに光を照射する。撮影は複数回行われる。   The photographing device 2 photographs the user P and generates photographed image data (step S203). When the photographing device 2 performs photographing, the strobe 6 irradiates the user P with light. Shooting is performed several times.

画像処理部22が、クロマキー合成による処理を用いて、撮影画像から人物画像を切り抜き、背景画像と合成して合成画像データを作成する(ステップS204)。   The image processing unit 22 cuts out the human image from the captured image using the processing by chroma key composition and combines it with the background image to create composite image data (step S204).

姿勢判定部23が、ステップS204のクロマキー処理において生成された2値画像を用いて、ユーザPの姿勢を判定する(ステップS205)。   The posture determination unit 23 determines the posture of the user P using the binary image generated in the chroma key process of step S204 (step S205).

ユーザPの姿勢が正しい場合(ステップS206_Yes)、タッチパネル3に合成画像のプレビュー画像が表示される(ステップS208)。ユーザPの姿勢が正しくない場合(ステップS206_No)、タッチパネル3に、プレビュー画像と共にアラートを表示する(ステップS207、S208)。   When the posture of the user P is correct (step S206_Yes), the preview image of the composite image is displayed on the touch panel 3 (step S208). If the posture of the user P is not correct (Step S206_No), an alert is displayed on the touch panel 3 together with the preview image (Steps S207 and S208).

ステップS203では複数回の撮影が行われているため、タッチパネル3には複数のプレビュー画像が表示される。各プレビュー画像について、姿勢判定結果が表示される。例えば、姿勢が正しいプレビュー画像には「姿勢OK」と表示される。姿勢が正しくないプレビュー画像には、「肩傾き」や「中心ずれ」などの判定結果が表示される。   In step S203, a plurality of preview images are displayed on the touch panel 3 because a plurality of times of imaging are performed. A posture determination result is displayed for each preview image. For example, “posture OK” is displayed on the preview image with the correct posture. In the preview image whose posture is not correct, determination results such as “shoulder inclination” and “center shift” are displayed.

ユーザPは、再撮影を希望する場合(ステップS209_No)、タッチパネル3上の再撮影ボタンを押す。これにより、ステップS203に戻る。   When the user P desires re-shooting (Step S 209 _No), the user P presses the re-shooting button on the touch panel 3. Thus, the process returns to step S203.

タッチパネル3に表示された「姿勢OK」のプレビュー画像のうち、プリント出力を希望するものがある場合(ステップS209_Yes)、ユーザPはプリント出力を希望するプレビュー画像を選択し、決定ボタンを押す。画像処理部22が、選択された画像の合成画像データからプリント用画像データを作成する。そして、プリンタ5が、演算制御装置1からプリント用画像データを受け取り、合成画像を用紙に印画して出力する(ステップS210)。   When there is one of the “posture OK” preview images displayed on the touch panel 3 for which print output is desired (step S 209 _Yes), the user P selects a preview image for which print output is desired, and presses the determination button. The image processing unit 22 creates print image data from composite image data of the selected image. Then, the printer 5 receives the print image data from the arithmetic and control unit 1, prints the composite image on a sheet, and outputs it (step S210).

このように、撮影画像のプレビュー画像に、姿勢判定結果を表示することで、ユーザPは正しい姿勢になっている画像を選択し、プリント出力することができる。   As described above, by displaying the result of the posture determination on the preview image of the photographed image, the user P can select an image in the correct posture and print out the image.

上記実施形態では、2値画像内の画素を列毎に上から下へ向かって走査し、最初に黒画素を検出した位置(座標)を記録していたが、図10に示すように、2値画像内の画素を行毎に右から左、及び左から右に走査し、最初に黒画素を検出した位置(座標)を記録し、グラフ化してもよい。   In the above embodiment, the pixels in the binary image are scanned from top to bottom in each row, and the position (coordinates) at which the black pixel is first detected is recorded. However, as shown in FIG. The pixels in the value image may be scanned from right to left and left to right row by row, and the positions (coordinates) at which black pixels are first detected may be recorded and graphed.

図10に示すように、左右の肩に対応する座標SR1、SL1で黒画素座標が大きく変化する。姿勢判定部23は、このような座標変化の特徴に基づいて、ユーザPの左右の肩の高さY1、Y2を検出する。高さY1、Y2が同じ(同程度)の場合、肩ラインは(ほぼ)水平であると判定できる。   As shown in FIG. 10, the black pixel coordinates largely change at the coordinates SR1 and SL1 corresponding to the left and right shoulders. The posture determination unit 23 detects heights Y1 and Y2 of the left and right shoulders of the user P based on the feature of such coordinate change. If the heights Y1 and Y2 are the same (the same degree), it can be determined that the shoulder line is (almost) horizontal.

上記実施形態では、画像処理部22におけるクロマキー処理で生成される2値画像について、人物部分が黒画素、背景色部分が白画素で表される2値(白黒2値)画像としたが、人物部分が白画素、背景色部分が黒画素で表される2値(白黒2値)画像であってもよい。この場合、姿勢判定部23は、2値画像における人物部分に対応する白画素の分布に基づいて、ユーザPの姿勢が所定の基準を満たしているか否か判定する。   In the above embodiment, a binary (black and white binary) image in which the human part is represented by black pixels and the background color part is represented by white pixels is used for the binary image generated by chroma key processing in the image processing unit 22. It may be a binary (black and white binary) image in which the portion is represented by white pixels and the background color portion is represented by black pixels. In this case, the posture determination unit 23 determines whether the posture of the user P satisfies a predetermined standard, based on the distribution of white pixels corresponding to the human portion in the binary image.

上記実施形態では、ユーザPの体の位置が中心に位置するように、かつ肩ラインが水平になるように指示を与えていたが、印画物作製装置が観光地等に設置され、フレーム画像と合成した記念写真を作製するものである場合は、異なる指示を与えてもよい。例えば、ユーザPの体の位置や肩ラインを検出し、フレーム画像に適した位置へ移動するように指示したり、体をより傾けるように指示したりしてもよい。このような指示を与えることで、より動きのある写真が撮影されるようにユーザを誘導することができる。   In the above embodiment, the instruction is given such that the position of the body of the user P is located at the center and the shoulder line is horizontal, but the print product manufacturing apparatus is installed at a tourist spot etc. If it is intended to produce a composite memorial photo, different instructions may be given. For example, the position of the body of the user P or a shoulder line may be detected, and an instruction may be given to move to a position suitable for a frame image, or an instruction may be given to tilt the body more. By giving such an instruction, it is possible to guide the user to take a more moving picture.

ユーザPの体の位置や肩の傾きの検出方法は上述したものに限定されず、例えば、人物型のパターンを予め複数準備しておき、撮影画像とのパターンマッチングにより検出してもよい。また、顔認識機能を用いて、撮影画像の顔の位置情報から首、肩の位置を検出してもよい。首の位置が、体の中心位置に対応する。   The method of detecting the position of the body of the user P and the inclination of the shoulder are not limited to those described above. For example, a plurality of human-shaped patterns may be prepared in advance and detected by pattern matching with a photographed image. In addition, the face recognition function may be used to detect the positions of the neck and shoulders from the face position information of the captured image. The position of the neck corresponds to the central position of the body.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above embodiment as it is, and at the implementation stage, the constituent elements can be modified and embodied without departing from the scope of the invention. In addition, various inventions can be formed by appropriate combinations of a plurality of constituent elements disclosed in the above embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, components in different embodiments may be combined as appropriate.

1 演算制御装置
2 撮影装置
3 タッチパネル
5 プリンタ
6 ストロボ
7 スピーカ
1 arithmetic control device 2 photographing device 3 touch panel 5 printer 6 strobe 7 speaker

Claims (3)

被撮影者を撮影し、撮影画像を生成する撮影装置と、
前記撮影画像に対しクロマキー処理を行い、前記撮影画像における背景色部分と人物部分とを判別して前記撮影画像から人物画像を切り抜き、前記人物画像と背景画像とを合成して合成画像を作成する画像処理部と、
前記合成画像を印画物にプリントして出力するプリンタと、
前記クロマキー処理時に生成される背景色部分と人物部分とを区別した2値画像を用いて、前記被撮影者の姿勢を判定する姿勢判定部と、
を備え、
前記姿勢判定部は、前記2値画像における前記人物部分に対応する画素の分布に基づいて、前記被撮影者の姿勢を判定するものであり、前記2値画像の垂直方向の各画素列について、前記人物部分に対応する画素のうち、垂直方向最上部に位置する画素の位置を検出し、検出した画素位置を水平方向にプロットした場合の変化に基づいて、前記被撮影者の肩ライン又は体の中心位置を検出することを特徴とする印画物作製装置。
A photographing device for photographing a subject and generating a photographed image;
Chroma-key processing is performed on the captured image, a background color portion and a human portion in the captured image are determined, a human image is cut out from the captured image, and the composite image is created by combining the human image and the background image. An image processing unit,
A printer for printing the composite image on a print and outputting it;
A posture determination unit that determines the posture of the subject using a binary image that distinguishes between a background color portion and a human portion generated during the chroma key processing;
Equipped with
The posture determination unit determines the posture of the subject based on the distribution of pixels corresponding to the human part in the binary image, and for each pixel row in the vertical direction of the binary image, Among the pixels corresponding to the human part, the position of the pixel located at the top in the vertical direction is detected, and the shoulder line or the body of the subject is obtained based on the change when the detected pixel position is plotted in the horizontal direction. A printed product manufacturing apparatus characterized by detecting a central position of the image.
前記姿勢判定部により検出された肩ラインと、水平ラインとを表示部に表示することを特徴とする請求項に記載の印画物作製装置。 The printed matter manufacturing apparatus according to claim 1 , wherein the shoulder line detected by the posture determination unit and the horizontal line are displayed on a display unit. 前記姿勢判定部により検出された体の中心位置と、撮影画像の中心位置とを表示部に表示することを特徴とする請求項に記載の印画物作製装置。 The printed object manufacturing apparatus according to claim 1 , wherein the central position of the body detected by the posture determination unit and the central position of the photographed image are displayed on a display unit.
JP2015058162A 2015-03-20 2015-03-20 Printed product manufacturing device Active JP6547355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015058162A JP6547355B2 (en) 2015-03-20 2015-03-20 Printed product manufacturing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015058162A JP6547355B2 (en) 2015-03-20 2015-03-20 Printed product manufacturing device

Publications (2)

Publication Number Publication Date
JP2016178531A JP2016178531A (en) 2016-10-06
JP6547355B2 true JP6547355B2 (en) 2019-07-24

Family

ID=57071576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015058162A Active JP6547355B2 (en) 2015-03-20 2015-03-20 Printed product manufacturing device

Country Status (1)

Country Link
JP (1) JP6547355B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08153187A (en) * 1994-09-27 1996-06-11 Oki Electric Ind Co Ltd Image recognizing method
JP2967086B1 (en) * 1998-09-25 1999-10-25 株式会社エイ・ティ・アール知能映像通信研究所 Estimation of 3D pose of a person by multi-view image processing
JP2002040550A (en) * 2000-07-25 2002-02-06 Konica Corp Automatic photographing device
JP4133247B2 (en) * 2002-11-15 2008-08-13 日本放送協会 Human posture estimation apparatus, human posture estimation method, and human posture estimation program
JP2007048232A (en) * 2005-08-12 2007-02-22 Fuji Xerox Co Ltd Information processing device, information processing method, and computer program
JP5437023B2 (en) * 2009-11-02 2014-03-12 株式会社ソニー・コンピュータエンタテインメント Operation input device
JP5545316B2 (en) * 2012-04-11 2014-07-09 大日本印刷株式会社 Print production apparatus and print production method

Also Published As

Publication number Publication date
JP2016178531A (en) 2016-10-06

Similar Documents

Publication Publication Date Title
US7782384B2 (en) Digital camera having system for digital image composition and related method
JP4823970B2 (en) Image editing device
JP4135100B2 (en) Imaging device
JP5262377B2 (en) Imaging device
JP5262378B2 (en) Imaging device
JP3777922B2 (en) Digital imaging apparatus, image processing system including the same, image processing apparatus, digital imaging method, and recording medium
KR101457813B1 (en) Print target data processing apparatus, print target data processing method, and storage medium
JP5076717B2 (en) Electronic camera
JP2007228224A (en) Image generating device, image extracting device, control method of image generating device, image extracting method and program, and recording medium with image extracting program recorded thereon
JP2009043047A (en) Image display device, image display method, and program
JP2009044240A (en) Electronic camera
JP2013141105A (en) Image processing device, electronic camera, and image processing program
JP6547355B2 (en) Printed product manufacturing device
JP2011035642A (en) Multiple eye photographing device, and adjustment method and program thereof
JP2010141609A (en) Imaging apparatus
JP5709074B2 (en) Print production equipment
US20100110210A1 (en) Method and means of recording format independent cropping information
JP4852504B2 (en) Imaging apparatus and focus state display method
JP5582163B2 (en) Print production equipment
JP5125299B2 (en) Electronic camera
JP5493839B2 (en) Imaging apparatus, image composition method, and program
JP5293427B2 (en) Imaging apparatus and imaging control program
JP4454026B2 (en) Program, information storage medium, photo printing apparatus and photo printing method
JP5633657B2 (en) Print production equipment
JP5617861B2 (en) Print production equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190610

R150 Certificate of patent or registration of utility model

Ref document number: 6547355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150