JP2005130120A - Image processing system and method - Google Patents

Image processing system and method Download PDF

Info

Publication number
JP2005130120A
JP2005130120A JP2003362164A JP2003362164A JP2005130120A JP 2005130120 A JP2005130120 A JP 2005130120A JP 2003362164 A JP2003362164 A JP 2003362164A JP 2003362164 A JP2003362164 A JP 2003362164A JP 2005130120 A JP2005130120 A JP 2005130120A
Authority
JP
Japan
Prior art keywords
image
user
image processing
providing
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003362164A
Other languages
Japanese (ja)
Inventor
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2003362164A priority Critical patent/JP2005130120A/en
Publication of JP2005130120A publication Critical patent/JP2005130120A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing system by which a user can take a commemorative photograph without interfering other visitors in an art museum, a museum or an event site; and to provide an image processing method thereof. <P>SOLUTION: In the guidance of an exhibition etc., the images of a plurality of works are provided to the user, and route information to the position where a selected work is exhibited is provided to the user (step S1). If the image of the user is contained in return information from the user to the guidance, the image of the work is combined with the user image, and a combined image is provided to the user (step S5). This image is deleted after a predetermined time elapses (step S6), and is printed out to be handed to the user when the user actually visits the exhibition (step S13). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像処理ステム及び画像処理方法に関し、特に、美術館や博物館等に入館した人物の記念写真を撮影する際の画像処理システム及びこのような画像処理システムによる画像処理方法に関する。   The present invention relates to an image processing system and an image processing method, and more particularly to an image processing system for taking a commemorative photo of a person who entered a museum or a museum and an image processing method using such an image processing system.

テーマパーク等に入場した人物の記念写真を撮影するシステムが、特許文献1等において提案されている。特許文献1のシステムにおいては、テーマパーク内に複数の撮影装置と、これら複数の撮影装置の撮影制御を行う制御装置を設置しておくと共に、テーマパークに入場した人物に対してタグを発行するようにする。即ち、このシステムでは、撮影装置の設置場所にタグを所持した人物がくると、この人物の写真が自動的に撮影される。そして、人物がテーマパークから出る際に、撮影された写真が提供される。   A system for taking a commemorative photo of a person who entered a theme park or the like has been proposed in Patent Document 1 and the like. In the system of Patent Document 1, a plurality of photographing devices and a control device that performs photographing control of the plurality of photographing devices are installed in the theme park, and a tag is issued to a person who enters the theme park. Like that. That is, in this system, when a person who has a tag comes to the place where the photographing apparatus is installed, a photograph of this person is automatically taken. And when a person leaves the theme park, a photograph taken is provided.

しかし、特許文献1の手法では、撮影が必要とされる場所に撮影装置を設置しておく必要がある。このため、種々のアングルの写真撮影に対応しようとすると、それだけ多くの撮影装置が必要である。また、撮影装置の設置位置は、アトラクション等がある場所である。このため、撮影が行われている人物以外にとっては、撮影装置が邪魔になりかねない。   However, in the method of Patent Document 1, it is necessary to install a photographing apparatus in a place where photographing is required. For this reason, if it is going to respond | correspond to the photography of various angles, so many photography apparatuses are required. In addition, the installation position of the photographing apparatus is a place where there is an attraction or the like. For this reason, the photographing apparatus can be an obstacle for people other than the person who is photographing.

本発明は、上記の事情に鑑みてなされたものであり、美術館や博物館、イベント会場などにおいて、他の入場者の邪魔にならずに記念写真撮影を行うことができる画像処理システム、及びこのような画像処理方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an image processing system capable of taking a commemorative photo without disturbing other visitors in an art museum, a museum, an event venue, and the like. It is an object to provide a simple image processing method.

上記の目的を達成するために、本発明の第1の態様の画像処理システムは、ユーザによって画像が実際に鑑賞されたことを検出する検出手段と、この検出手段によって画像が実際に鑑賞されたことを検出した場合に、上記ユーザ自身の画像と上記実際に鑑賞された画像とを合成する画像処理手段とを有することを特徴とする。   In order to achieve the above object, an image processing system according to a first aspect of the present invention includes a detecting unit that detects that an image is actually viewed by a user, and the image is actually viewed by the detecting unit. When it is detected, the image processing means comprises an image processing means for synthesizing the user's own image and the actually viewed image.

この第1の態様によれば、他の入場者の邪魔にならずに記念写真撮影を行うことができる。   According to the first aspect, it is possible to take a commemorative photo without disturbing other visitors.

また、上記の目的を達成するために、本発明の第2の態様の画像処理システムは、ユーザが選択した画像とユーザ自身の画像とを合成して、この合成された画像を上記ユーザに提供する合成画像提供手段と、上記ユーザによって選択された画像が実際に鑑賞されたことを検出する検出手段と、この検出手段によって画像が実際に鑑賞されたことを検出した場合に、上記ユーザ自身の画像と上記実際に鑑賞された画像とを再合成する画像処理手段とを有する。   In order to achieve the above object, the image processing system according to the second aspect of the present invention synthesizes an image selected by the user and the user's own image, and provides the synthesized image to the user. A composite image providing means, a detecting means for detecting that the image selected by the user is actually viewed, and a user's own image when the detection means detects that the image is actually viewed. Image processing means for recombining the image and the actually viewed image;

この第2の態様によれば、ユーザが実際に画像を鑑賞する前に合成後の画像を提供することができる。   According to the second aspect, it is possible to provide a combined image before the user actually appreciates the image.

また、上記の目的を達成するために、本発明の第3の態様の画像処理システムは、背景の画像を撮影する第1の撮影装置と、ユーザの画像を撮影する第2の撮影装置と、上記第1の撮影装置の地表からの高さ、上記ユーザの身長、上記ユーザと上記第1の撮影装置との距離、及び上記第1の撮影装置の撮影時の画角に基づいて、上記背景の画像と上記ユーザの画像の相互の位置関係及びそれぞれの画像の大きさを調整して、上記背景の画像と上記ユーザの画像とを合成する画像処理手段とを有する。   In order to achieve the above object, an image processing system according to a third aspect of the present invention includes a first imaging device that captures a background image, a second imaging device that captures a user image, Based on the height of the first photographing device from the ground surface, the height of the user, the distance between the user and the first photographing device, and the angle of view at the time of photographing of the first photographing device, the background And image processing means for synthesizing the background image and the user image by adjusting the mutual positional relationship between the image and the user image and the size of each image.

この第3の態様によれば、ユーザの画像と背景の画像とを最適な形で合成することができる。   According to the third aspect, the user image and the background image can be combined in an optimal manner.

上記の目的を達成するために、本発明の第4の態様の画像処理システムは、ユーザに複数の画像を提供する画像提供手段と、上記画像提供手段によって提供された上記複数の画像の中から選択された画像に関連する情報を受信する選択画像情報受信手段と、上記選択された画像が存在する地点に到達するまでの経路を表す地図情報を上記ユーザに提供する地図情報提供手段と、上記選択された画像に所定の画像処理を施す画像処理手段とを有する。   In order to achieve the above object, an image processing system according to a fourth aspect of the present invention includes an image providing unit that provides a user with a plurality of images, and the plurality of images provided by the image providing unit. A selected image information receiving means for receiving information related to the selected image, a map information providing means for providing the user with map information representing a route to reach the point where the selected image exists, and Image processing means for performing predetermined image processing on the selected image.

この第4の態様によれば、計画的に効率良く美術館などを訪問し、見たい作品が存在する位置に到達することができる。   According to the fourth aspect, it is possible to visit an art museum or the like efficiently in a planned manner and reach a position where a desired work exists.

また、上記の目的を達成するために、本発明の第5の態様の画像処理方法は、ユーザによって画像が実際に鑑賞されたことを検出するステップと、画像が実際に鑑賞されたことが検出された場合に、上記ユーザ自身の画像と上記実際に鑑賞された画像とを合成するステップとを有する。   In order to achieve the above object, an image processing method according to a fifth aspect of the present invention includes a step of detecting that an image is actually viewed by a user, and detecting that an image is actually viewed. If so, the method includes a step of synthesizing the user's own image and the actually viewed image.

この第5の態様によれば、他の入場者の邪魔にならずに記念写真撮影を行うことができる。   According to the fifth aspect, it is possible to take a commemorative photo without disturbing other visitors.

また、上記の目的を達成するために、本発明の第6の態様の画像処理方法は、ユーザが選択した画像とユーザ自身の画像とを合成して、この合成された画像を上記ユーザに提供するステップと、上記ユーザによって選択された画像が実際に鑑賞されたことを検出するステップと、この検出手段によって画像が実際に鑑賞されたことを検出した場合に、上記ユーザ自身の画像と上記実際に鑑賞された画像とを再合成するステップとを有する。   In order to achieve the above object, the image processing method according to the sixth aspect of the present invention combines the image selected by the user and the user's own image, and provides the combined image to the user. A step of detecting that the image selected by the user is actually viewed, and a step of detecting that the image is actually viewed by the detecting means. And recombining with the image that has been viewed.

この第6の態様によれば、ユーザが実際に画像を鑑賞する前に合成後の画像を提供することができる。   According to the sixth aspect, the synthesized image can be provided before the user actually appreciates the image.

また、上記の目的を達成するために、本発明の第7の態様の画像処理方法は、背景の画像を撮影するステップと、ユーザの画像を撮影するステップと、上記背景を撮影する撮影装置の地表からの高さ、上記ユーザの身長、上記ユーザと上記ユーザを撮影する撮影装置との距離、及び上記ユーザを撮影する撮影装置の撮影時の画角に基づいて、上記背景の画像と上記ユーザの画像の相互の位置関係及びそれぞれの画像の大きさを調整して、上記背景の画像と上記ユーザの画像とを合成するステップとを有する。   In order to achieve the above object, an image processing method according to a seventh aspect of the present invention includes a step of photographing a background image, a step of photographing a user image, and a photographing apparatus for photographing the background. Based on the height from the ground surface, the height of the user, the distance between the user and the imaging device that captures the user, and the angle of view of the imaging device that captures the user, the background image and the user Adjusting the mutual positional relationship and the size of each image, and synthesizing the background image and the user image.

この第7の態様によれば、ユーザの画像と背景の画像とを最適な形で合成することができる。   According to the seventh aspect, the user image and the background image can be combined in an optimal manner.

また、上記の目的を達成するために、本発明の第8の態様の画像処理方法は、ユーザに複数の画像を提供するステップと、上記画像を提供するステップにおいて提供された上記複数の画像の中から選択された画像に関連する情報を受信するステップと、上記選択された画像が存在する地点に到達するまでの経路を表す地図情報を上記ユーザに提供するステップと、上記選択された画像に所定の画像処理を施すステップとを有する。   In order to achieve the above object, an image processing method according to an eighth aspect of the present invention includes a step of providing a plurality of images to a user, and a step of providing the images. Receiving information related to the image selected from among the steps, providing the user with map information representing a route to the point where the selected image is present, and the selected image Performing predetermined image processing.

この第8の態様によれば、計画的に効率良く美術館などを訪問し、見たい作品が存在する位置に到達することができる。   According to the eighth aspect, it is possible to visit an art museum or the like efficiently in a planned manner and reach a position where a desired work exists.

本発明によれば、美術館や博物館、イベント会場などにおいて、他の入場者の邪魔にならずに記念写真撮影を行うことができる画像処理システム、及びこのような画像処理方法を提供することができる。   According to the present invention, it is possible to provide an image processing system capable of taking a commemorative photo without disturbing other visitors in an art museum, a museum, an event venue, and the like, and such an image processing method. .

デジタル映像文化の浸透につれ、従来はフィルム式のカメラで行われてきた写真撮影も、デジタルカメラによって行われるようになってきている。ここで、デジタルカメラは、フィルム式のカメラよりも現像工程が短縮されるという利点を有している。また、デジタルカメラが従来のフィルム式のカメラに比べて有利な点は、現像スピードの点やデータ通信が可能である点以外にも、撮影後の画像の加工が容易であるという点が挙げられる。   As digital video culture has permeated, photography that has traditionally been done with film-type cameras is now being carried out with digital cameras. Here, the digital camera has an advantage that the developing process is shortened as compared with the film type camera. Also, the advantage of digital cameras over conventional film-type cameras is that the processing of images after shooting is easy in addition to the point of development speed and data communication. .

このような画像の加工技術、即ち画像処理技術には、画像の色や形等を変化させる技術などの他に、複数の画像を合成して1つの画像を得る画像合成技術がある。写真撮影における画像合成技術の例としては、例えば撮影画像に額縁画像を合成するものがある。   Such image processing techniques, that is, image processing techniques, include an image synthesis technique for synthesizing a plurality of images to obtain a single image, in addition to a technique for changing the color or shape of an image. As an example of an image composition technique in photography, for example, there is a technique for synthesizing a frame image with a photographed image.

本発明は、このような画像合成技術を利用して、他の入場者の邪魔にならない画像処理システムを実現する。   The present invention realizes an image processing system that does not interfere with other visitors by using such an image composition technique.

図1は、本発明の画像処理システムの概念的な構成について説明するためのブロック構成図である。ここで、少なくとも図1のコンピュータ1、データベース2、判定部7a,7b、及びプリンタ8は、美術館、博物館、イベント会場等の中に設置されているものである。   FIG. 1 is a block diagram for explaining a conceptual configuration of an image processing system according to the present invention. Here, at least the computer 1, the database 2, the determination units 7a and 7b, and the printer 8 of FIG. 1 are installed in an art museum, a museum, an event venue, or the like.

サーバコンピュータ(以下、単にコンピュータと称する)1は、本画像処理システム全体の制御を行うための制御コンピュータである。即ち、コンピュータ1は、データベース2内に格納されている各種データを端末機器3に送信する際の通信制御や、端末機器3に記録されている画像とデータベース2内の画像とに対して所定の画像処理、即ちこれら2つの画像を合成する処理を行う際の制御、及び合成した画像をプリンタ8によってプリントアウトしたりする際の制御等を行う。更に、コンピュータ1には、ユーザ10が所定の場所に行ったか否かを判定するための判定部7a及びユーザ10が入場時に代金を払ったか否かを判定するための判定部7bが接続されており、これら判定部7a,7bの状態に応じた各種制御も行う。   A server computer (hereinafter simply referred to as a computer) 1 is a control computer for controlling the entire image processing system. That is, the computer 1 performs predetermined communication control on transmission of various data stored in the database 2 to the terminal device 3 and images recorded in the terminal device 3 and images in the database 2. Control is performed when performing image processing, that is, processing for combining these two images, control when the combined image is printed out by the printer 8, and the like. Furthermore, the computer 1 is connected with a determination unit 7a for determining whether or not the user 10 has gone to a predetermined place and a determination unit 7b for determining whether or not the user 10 has paid for the entrance. In addition, various controls according to the states of the determination units 7a and 7b are also performed.

データベース2は、後で詳しく説明する画像合成に用いるための画像データ、ユーザ10に各種情報を提供するために用いる情報データ、及びユーザ10の個人データ(ユーザ10の画像データやユーザの電子メールアドレスなどの個人データ等)といった各種データが格納されている記録媒体である。   The database 2 includes image data used for image composition, which will be described in detail later, information data used to provide various information to the user 10, and personal data of the user 10 (image data of the user 10 and user's e-mail address). The recording medium stores various data such as personal data.

更に、端末機器3は、ユーザ側に種々の情報を提供するための情報提供手段としての端末である。この端末機器3は、コンピュータ1と通信可能に構成されており、画像入力部6を介して入力されたユーザ10の画像をコンピュータ1に送信する機能を有する。また、端末機器3は、画像入力部6を介して入力された画像を、プリンタ4を用いてプリントアウトしたり、コンピュータ1から受信した各種情報を表示部5に表示させたりする機能も有する。   Further, the terminal device 3 is a terminal as information providing means for providing various information to the user side. The terminal device 3 is configured to be communicable with the computer 1 and has a function of transmitting an image of the user 10 input via the image input unit 6 to the computer 1. The terminal device 3 also has a function of printing out an image input via the image input unit 6 using the printer 4 and displaying various information received from the computer 1 on the display unit 5.

[第1の実施形態]
次に、本発明の第1の実施形態について説明する。この第1の実施形態では、図2(f)のようにユーザ10が個人所有している携帯電話機が図1の端末機器3に相当する。以下、第1の実施形態においては、端末機器3のことを携帯電話機3と称する。ここで、第1の実施形態の携帯電話機3は、画像入力部6としての撮影機能を有する撮影機能付き携帯電話機を想定している。
[First Embodiment]
Next, a first embodiment of the present invention will be described. In the first embodiment, a mobile phone personally owned by the user 10 as shown in FIG. 2 (f) corresponds to the terminal device 3 in FIG. Hereinafter, in the first embodiment, the terminal device 3 is referred to as a mobile phone 3. Here, the mobile phone 3 of the first embodiment is assumed to be a mobile phone with a shooting function having a shooting function as the image input unit 6.

以下、図2(a)から図2(e)を参照して、第1の実施形態の画像処理システムを用いたサービスについて説明する。ここで、図2(a)から図2(e)は、本システムの動作に従って表示部5に表示される画像の表示例を示す図である。ここで、表示部5は、携帯電話機3の画面表示部3aに設けられているものである。また、以下の説明は、第1の実施形態の画像処理システムを、美術館等で開催される展覧会に適用した例について説明するが、博物館やイベント会場などでも同様に適用可能である。   Hereinafter, a service using the image processing system according to the first embodiment will be described with reference to FIGS. 2 (a) to 2 (e). Here, FIG. 2A to FIG. 2E are diagrams showing display examples of images displayed on the display unit 5 in accordance with the operation of the present system. Here, the display unit 5 is provided in the screen display unit 3 a of the mobile phone 3. In the following description, an example in which the image processing system according to the first embodiment is applied to an exhibition held at an art museum or the like will be described. However, the image processing system can be similarly applied to a museum or an event venue.

この画像処理システムにおいては、まず、展覧会の興業主又は提携する電話会社等からユーザ10に対して、図2(a)に示すような展覧会の案内が電子メール等で送られて来る。このような展覧会案内の書式データやユーザ10の電子メールアドレス等は、予めデータベース2に格納されているものである。勿論、ユーザ10が電話をかけた場合(或いは電子メールを送信した場合)に、案内が送信されるようにしてもよい。   In this image processing system, first, an exhibition guide as shown in FIG. 2A is sent by e-mail or the like from an exhibition founder or a tie-up telephone company to the user 10. Such format data for the exhibition guide and the e-mail address of the user 10 are stored in the database 2 in advance. Of course, the guidance may be transmitted when the user 10 makes a telephone call (or transmits an e-mail).

ここで、第1の実施形態では、展覧会案内送信の際に、図2(b)のような展覧会における代表的な作品の画像(以下、作品画像と称する)9を添付して案内と共に送信する。このような作品画像を添付するようにすれば、ユーザ10は、展覧会の内容を大まかに知る事ができる。   Here, in the first embodiment, when an exhibition guide is transmitted, an image (hereinafter referred to as a work image) 9 of a representative work in the exhibition as shown in FIG. Send. If such a work image is attached, the user 10 can roughly know the contents of the exhibition.

更に、ユーザ10のいる位置を、例えば携帯電話機のGPS機能等により検出し、その位置から美術館がある駅までの路線図や美術館に行くまでの所要時間等を図2(c)のように表示させるようにしてもよい。また、美術館の最寄駅から会場までの地図を図2(d)のように表示させるようにしてもよいし、美術館内の代表作品がある場所を示す地図を図2(e)のように表示させるようにしてもよい。   Further, the position where the user 10 is detected is detected by, for example, the GPS function of the mobile phone, and the route map from the position to the station where the museum is located, the time required to go to the museum, etc. are displayed as shown in FIG. You may make it make it. Also, a map from the nearest station of the museum to the venue may be displayed as shown in FIG. 2 (d), or a map showing the location of the representative works in the museum as shown in FIG. 2 (e). You may make it display.

美術館等では、どのような順路で目的とする作品がある場所に到達するかが大きな問題である。特に、時間がない時には短時間で目標とする作品がある場所に到達することができることが望ましい。そこで、第1の実施形態では、図2(b)から図2(e)で示したような情報を、展覧会案内とともにユーザ10に送信するようにする。これにより、ユーザ10は、実際に美術館にくる前に、作品鑑賞の計画を立てることができる。   In art museums, the major issue is how to reach the place where the target work is located. In particular, when there is no time, it is desirable to be able to reach the place where the target work is located in a short time. Therefore, in the first embodiment, information as shown in FIGS. 2B to 2E is transmitted to the user 10 together with the exhibition guide. Thereby, the user 10 can make a plan for appreciating the work before actually coming to the museum.

ユーザ10は、作品鑑賞の計画を立てた後、追加情報が欲しい場合には、その旨を通知するための情報を携帯電話機3からコンピュータ1に送信する。このとき、ユーザ10は、携帯電話機3に取り付けられたカメラ6(図1の画像入力部6に相当する)によって、自身の撮影を行い、この撮影した画像を上記情報と共にコンピュータ1に送信することができる。ユーザ10の画像が送信されてきた場合に、コンピュータ1側は、送信されてきたユーザ10の画像とデータベース2に格納されている作品画像9とを図2(g)のように合成して、この合成画像をユーザ10の携帯電話機3に返信する。ユーザ10は、このようにして提供された合成画像をみて、更に鑑賞時の状況を思い描くことができる。   When the user 10 wants additional information after planning the work appreciation, the user 10 transmits information for notifying the fact from the mobile phone 3 to the computer 1. At this time, the user 10 takes a picture of himself / herself with the camera 6 (corresponding to the image input unit 6 in FIG. 1) attached to the mobile phone 3, and transmits the taken picture to the computer 1 together with the above information. Can do. When the image of the user 10 is transmitted, the computer 1 side synthesizes the transmitted image of the user 10 and the work image 9 stored in the database 2 as shown in FIG. This composite image is returned to the mobile phone 3 of the user 10. The user 10 can further imagine the situation during viewing by looking at the composite image provided in this way.

この後、図3(a)のように、ユーザ10が、実際に美術館を訪れると、携帯電話機3とコンピュータ1との間で通信が行われ、ユーザの認証がなされる。このとき、入館料の課金等を行うようにしてもよい。また、ユーザの認証は、IDカード等により行うようにしてもよい。   Thereafter, as shown in FIG. 3A, when the user 10 actually visits the museum, communication is performed between the mobile phone 3 and the computer 1 to authenticate the user. At this time, the entrance fee may be charged. Further, user authentication may be performed using an ID card or the like.

次に、ユーザ10が図3(b)に示すゲート30を通ると、ユーザ10の身長及び肩幅の測定が行われる。このために、ゲート30には、第1測距部35、第2測距部36、及び第3測距部37が設けられている。   Next, when the user 10 passes through the gate 30 shown in FIG. 3B, the height and shoulder width of the user 10 are measured. For this purpose, the gate 30 is provided with a first distance measuring section 35, a second distance measuring section 36, and a third distance measuring section 37.

ゲート30の上部に設けられている第1測距部35には、測距用投光部としての赤外発光ダイオード31が設けられている。この赤外発光ダイオード31から、投光レンズ32を介して赤外光がユーザ10に投射され、その反射光が受光レンズ33を介して光位置検出部34に入射するようになっている。ここで、光位置検出部34における入射位置は、ゲート30の上部からユーザ10の頭部までの距離hによって変化する。即ち、光位置検出部34における光入射位置を検出することによって、hを算出することができる。これは、従来周知の三角測距の原理を用いて算出すればよい。これにより、ユーザ10の身長hは、第1測距部35で算出したhと、予め測定されている地表からゲート30上部までの距離hとから、
=h−h
の式により求めることができる。
The first distance measuring unit 35 provided at the upper part of the gate 30 is provided with an infrared light emitting diode 31 as a distance measuring light projecting unit. From the infrared light emitting diode 31, infrared light is projected to the user 10 via the light projection lens 32, and the reflected light is incident on the light position detection unit 34 via the light receiving lens 33. Here, the incident position in the optical position detector 34 varies depending on the distance h C from the top of the gate 30 to the head of the user 10. That is, h C can be calculated by detecting the light incident position in the light position detector 34. This may be calculated using a conventionally known triangulation principle. Accordingly, the height h 1 of the user 10 is calculated from h C calculated by the first distance measuring unit 35 and the distance h G from the ground surface to the upper portion of the gate 30 measured in advance.
h 1 = h G −h C
It can obtain | require by the type | formula.

また、ユーザ10の肩幅Wは、予め測定されているゲートの幅Wから、第2測距部36及び第3測距部37の距離測定結果を差し引くことによって求めることができる。なお、第2測距部36及び第3測距部37の構成は、第1測距部35の構成と同様であるので説明を省略する。 Further, the shoulder width W 1 of the user 10 can be obtained by subtracting the distance measurement results of the second distance measuring unit 36 and the third distance measuring unit 37 from the gate width W G measured in advance. Note that the configurations of the second distance measuring unit 36 and the third distance measuring unit 37 are the same as the configuration of the first distance measuring unit 35, and thus the description thereof is omitted.

このようにユーザ10の身長h及び肩幅Wを求めることで、上記送信されてきたユーザ10の画像と作品画像9とをより適正な形で合成することが可能である。この合成画像は、例えば、プリンタ8によって図3(c)のような記念写真8aとしてプリントアウトされる。このとき、記念写真8a上に入館時の日付等の文字情報を併せて印字するようにしてもよい。 Thus, by obtaining the height h 1 and shoulder width W 1 of the user 10, the transmitted image of the user 10 and the work image 9 can be combined in a more appropriate form. This composite image is printed out as a commemorative photo 8a as shown in FIG. At this time, character information such as the date of entry may be printed on the commemorative photo 8a.

次に、上述した手順について図4のフローチャートを参照して更に詳しく説明する。まず、コンピュータ1は、ユーザ10に案内等の情報送信を行う(ステップS1)。続いてコンピュータ1は、展覧会に興味がある旨の情報がユーザ10から返信されたか否かを判定する(ステップS2)。返信が行われたと判定した場合には、ステップS2をステップS3に分岐して追加情報の送信を行う(ステップS3)。この後、コンピュータ1は、ステップS2で返信された情報の中にユーザ10の画像データが含まれているか否かを判定する(ステップS4)。ユーザ10の画像データが含まれていると判定した場合には、ステップS4からステップS5に分岐して、図2(g)に示すような合成画像情報を参考として送信する(ステップS5)。また、このときユーザ10の画像データをデータベース2に格納する。更に、ステップS5で送信した画像を所定時間後に消去する(ステップS6)。即ち、ステップS5で送信される画像は、ユーザ10が雰囲気をつかむための参考画像であるので所定時間後に画像が消去されるようにする。つまり、ユーザ10は、実際に会場を訪れて初めて、実際の合成画像のデータや記念写真としての合成写真を入手することができる。ここで、ステップS5の合成画像送信の際には、この合成画像を転送不可及び記録不可とするようにプロテクトをかけておいたり、画面上に「参考」という字を併せて表示させるようにしたりして、ユーザ10が合成画像を流用できないようにしてもよい。   Next, the procedure described above will be described in more detail with reference to the flowchart of FIG. First, the computer 1 transmits information such as guidance to the user 10 (step S1). Subsequently, the computer 1 determines whether or not information indicating that the user is interested in the exhibition has been returned from the user 10 (step S2). If it is determined that a reply has been made, step S2 is branched to step S3 to transmit additional information (step S3). Thereafter, the computer 1 determines whether the image data of the user 10 is included in the information returned in step S2 (step S4). If it is determined that the image data of the user 10 is included, the process branches from step S4 to step S5, and the composite image information as shown in FIG. 2G is transmitted as a reference (step S5). At this time, the image data of the user 10 is stored in the database 2. Further, the image transmitted in step S5 is deleted after a predetermined time (step S6). That is, since the image transmitted in step S5 is a reference image for the user 10 to grasp the atmosphere, the image is deleted after a predetermined time. That is, the user 10 can obtain actual composite image data and a composite photo as a commemorative photo only after actually visiting the venue. Here, when transmitting the composite image in step S5, the composite image is protected so that it cannot be transferred or recorded, or the word “reference” is also displayed on the screen. Then, the user 10 may be prevented from diverting the composite image.

このような処理の後、コンピュータ1は、ユーザ10が、実際に美術館に入館したか否かを判定し(ステップS7)、ユーザ10が入館したと判定した場合には入館料の課金を行う(ステップS8)。   After such processing, the computer 1 determines whether or not the user 10 has actually entered the museum (step S7), and if it is determined that the user 10 has entered, the computer 1 charges the entrance fee ( Step S8).

課金の終了後、コンピュータ1は、ユーザ10の画像がデータベース2内に格納されているか否かを判定する(ステップS9)。ステップS9においてユーザ10の画像が格納されていないと判定した場合には、ユーザ10の撮影を行う(ステップS10)。このため、美術館内に少なくとも1台はカメラを設置しておく。勿論ステップS4で画像が送信されてこなかった場合には、記念写真撮影を行わないようにしてもよい。   After the accounting is completed, the computer 1 determines whether or not the image of the user 10 is stored in the database 2 (step S9). If it is determined in step S9 that the image of the user 10 is not stored, the user 10 is photographed (step S10). For this reason, at least one camera is installed in the museum. Of course, when no image is transmitted in step S4, the commemorative photo may not be taken.

続いて、コンピュータ1は、ゲート30を通過したユーザ10の身長及び肩幅測定を行い(ステップS11)、これらの測定値に基づいてステップS5で生成した合成画像を修正する(ステップS12)。   Subsequently, the computer 1 measures the height and shoulder width of the user 10 that has passed through the gate 30 (step S11), and corrects the composite image generated in step S5 based on these measured values (step S12).

この後、ユーザ10が美術館等を出るタイミングなどで、コンピュータ1は、修正した合成画像を記念写真としてプリントアウトしたり、合成画像のデータを携帯電話機3に送信したりする(ステップS13)。これらはユーザ10が選択できるようにしておけばよい。   Thereafter, at the timing when the user 10 leaves the museum, the computer 1 prints out the corrected composite image as a commemorative photo, or transmits the composite image data to the mobile phone 3 (step S13). These may be selected by the user 10.

次に図5(a)、図5(b)、図6(a)、及び図6(b)を参照して、ステップS12の合成画像修正の手法について説明する。図5(a)は、携帯電話機のカメラ6に用いられている撮影光学系を示す図である。この撮影光学系により被写体(ユーザ)10が自分で自分を撮影すると仮定すると、撮影距離dは約50〜60cmとなる。ここで、撮影レンズ11の焦点距離をfとすると、これらと撮像素子12の幅とから画角θが決まる。 Next, referring to FIGS. 5A, 5B, 6A, and 6B, the method of correcting the composite image in step S12 will be described. FIG. 5A is a diagram showing a photographing optical system used in the camera 6 of the mobile phone. Assuming that the subject (user) 10 photographs himself / herself by this photographing optical system, the photographing distance d C is about 50 to 60 cm. Here, assuming that the focal length of the taking lens 11 is f C , the angle of view θ C is determined from these and the width of the image sensor 12.

一方、図5(b)は、美術館に展示された作品を撮影する際の撮影光学系を示す図である。ここで、撮影された作品の画像データは、作品画像9としてデータベース2に格納される。図5(b)においても、図5(a)で説明したのと同様に、撮影レンズ13の焦点距離fと、撮像素子14の幅とから画角θが決まる。この画角θの中に、展示された作品9が含まれている。ここで図5(b)において、撮影レンズ13から作品9までの距離をdとする。即ち、図5(b)の画角θで撮影した画像を、あたかも図5(a)の画角θで撮影したのと同等の画像にするには、画角θで撮影される画像のうち、画角θの部分の画像のみを利用すればよい。 On the other hand, FIG. 5B is a diagram showing a photographing optical system when photographing works exhibited in the museum. Here, the image data of the photographed work is stored in the database 2 as the work image 9. In FIG. 5B as well, as described with reference to FIG. 5A, the angle of view θ 3 is determined from the focal length f 3 of the photographing lens 13 and the width of the image sensor 14. The displayed work 9 is included in this angle of view θ 3 . Here in FIG. 5 (b), the distance from the photographing lens 13 to work 9 and d 0. That is, in order to make an image taken at the angle of view θ 3 of FIG. 5B equivalent to an image taken at the angle of view θ C of FIG. 5A, the image is taken at the angle of view θ 3. Of the images, only the image of the angle of view θ C may be used.

即ち、ステップS12の合成画像修正においては、本来画角θで撮影された作品9の画像を画角θで撮影されたかのように画角、即ち画像範囲の修正を行い、更に撮影レンズ13から距離d(50〜60cm)の位置に被写体が存在しているかのような画像を生成する。 That is, in the composite image modification step S12, performs a correction of the angle of view, that is, the image range, as if taken images of works 9 taken at the original angle theta 3 at angle theta C, further imaging lens 13 An image is generated as if the subject is present at a distance d C (50 to 60 cm) from the distance.

ここで、θに画角を絞った時には、距離dの位置における画像の横幅がWとなる。一方、作品9の実際の横幅をWとすると、図6(a)で示すように、作品9は、画面内水平方向においてW/Wの幅を占める。このような比率の画像になるように修正を行うと、図5(a)のカメラ(携帯電話機のカメラ6)で撮影したときと同じ描写となる。この画像に、ユーザ10の画像を合成すれば、より自然な合成写真となる。 Here, when the angle of view is reduced to θ C , the horizontal width of the image at the position of the distance d 0 is W 0 . On the other hand, when the actual width of the work 9 and W 2, as shown in FIG. 6 (a), the work 9 occupies a width of W 2 / W 0 in screen horizontally. When the correction is performed so that the image has such a ratio, the same depiction as when the image is taken with the camera of FIG. 5A (mobile phone camera 6) is obtained. If the image of the user 10 is combined with this image, a more natural composite photograph is obtained.

したがって、図4のステップS2などで携帯電話機3からコンピュータ1に画像データが送信されるときに、同時に携帯電話機の画角θに関する情報や撮影距離dの情報を送るようにすることが好ましい。しかし、一般の携帯電話機には、撮影距離を検出するための装置が備えられていないので、実際には、ユーザ10がゲート30を通過したときに測定した肩幅Wと、一般的なd(50〜60cm)を利用して画角θを決定して合成を行う。 Therefore, when image data is transmitted from the mobile phone 3 to the computer 1 in step S2 of FIG. 4 or the like, it is preferable to simultaneously send information on the angle of view θ C of the mobile phone and information on the shooting distance d C. . However, since a general mobile phone is not provided with a device for detecting the shooting distance, actually, the shoulder width W 1 measured when the user 10 passes through the gate 30 and the general d C are measured. The angle of view θ C is determined using (50 to 60 cm) to perform synthesis.

即ち、携帯電話機3で撮影された画像の幅とこの画像内におけるユーザ10の肩幅との比率がW:W10とし、実際に測定される肩幅がWとすると、
θ=(arctanW/d)×(W/W10
の関係から画角θを逆算できる。コンピュータ1は、このようにして得られたθを利用して、作品9の写り方を調整する。
That is, if the ratio between the width of the image taken by the mobile phone 3 and the shoulder width of the user 10 in the image is W 0 : W 10 and the actually measured shoulder width is W 1 ,
θ C = (arctanW 1 / d C ) × (W 0 / W 10 )
From this relationship, the angle of view θ C can be calculated backward. The computer 1 uses the θ C thus obtained to adjust the way the work 9 is captured.

次に、実測した身長を反映させて画像の高さ方向の修正を行う手法について説明する。ここで、美術館のカメラが撮影時に床からhの高さに位置しているとする。また、身長hのユーザ10が、美術館のカメラから距離dの位置に立っているような画像を生成すると仮定すると、このカメラとユーザ10との位置関係は、図6(b)のようになる。このとき、
Δθ=arctan(h−h)/d
の関係が成立する。このΔθと高さ方向の画角θとを利用して、画像の上部からΔθ/θの割合で人物の頭部の上に空間があるように高さ方向の画像修正を行う。
Next, a method for correcting the height direction of the image by reflecting the actually measured height will be described. Here, it is assumed that the camera of the museum is located at a height h from the floor at the time of photographing. Assuming that the user 10 with height h 1 generates an image standing at a distance d C from the museum camera, the positional relationship between the camera and the user 10 is as shown in FIG. become. At this time,
Δθ = arctan (h 1 −h) / d C
The relationship is established. Using this Δθ and the angle of view θ 4 in the height direction, the image correction in the height direction is performed so that there is a space above the head of the person at a ratio of Δθ / θ 4 from the top of the image.

このような画像合成の過程を図7のフローチャートを参照して説明する。即ち、携帯電話機からd及びθが入力されたときに(ステップS20)、コンピュータ1は、入力されたθに合わせて背景の画像(美術館内の画像)の切り出しを行う(ステップS21)。そして、実測した身長hと作品画像撮影時のカメラの高さhを用いて、ユーザ10の画像の上部が画面内Δθ/θの割合となるように空間を空ける(ステップS22)。この後、コンピュータ1は、ユーザ10の画像と作品9の画像とを合成する(ステップS23)。 The process of such image composition will be described with reference to the flowchart of FIG. That is, when d C and θ C are input from the mobile phone (step S20), the computer 1 cuts out a background image (image in the museum) according to the input θ C (step S21). . Then, using the measured height h 1 and the height h of the camera at the time of shooting the work image, a space is made so that the upper part of the image of the user 10 has a ratio of Δθ / θ 4 in the screen (step S22). Thereafter, the computer 1 combines the image of the user 10 and the image of the work 9 (step S23).

以上説明したように、第1の実施形態では、効率良く美術館を見学することができるばかりでなく、思い出となる記念写真(絵ハガキなどでもよい)を持ち帰ることができる。   As described above, according to the first embodiment, not only can the museum be visited efficiently, but also a souvenir memorial photo (such as a picture postcard) can be taken home.

近年、物質的な豊かさよりも心の豊かさを求める人が増加しており、旅行や、美術、音楽などの芸術鑑賞に対する興味が高まってきている。しかし、非常に効率化された社会にあってあらゆるものがオンライン化され、ユビキタス社会などと呼ばれるようになると、人はますます効率を追い求めるようになる。このようなことは、芸術鑑賞の場においても同様である。即ち、作品の鑑賞には時間をかけてもよいが、それ以外の事には時間をかけたくなく、しかし記念だけはしっかりと残したいという要求が高まっている。   In recent years, there has been an increase in the number of people who seek richness of mind rather than material wealth, and interest in appreciation of art such as travel, art, and music has increased. However, when everything in an extremely efficient society is brought online and called a ubiquitous society, people will increasingly pursue efficiency. The same applies to art appreciation. In other words, it may take time to appreciate the work, but there is a growing demand for not leaving time for anything else, but to keep only the memorial.

そこで、第1の実施形態では、美術館に入館する前にユーザに各種地図を提供するようにして効率の良い美術館見学を可能としている。   Therefore, in the first embodiment, it is possible to visit the museum efficiently by providing various maps to the user before entering the museum.

また、第1の実施形態では、予め展示作品の画像を撮影しておき、この画像をデータベースに格納している。このため、美術館内には、ユーザ画像撮影用のカメラのみを設置しておけばよい。したがって、美術館内に設置するカメラの数を極力少なくすることができる。更に、展示作品の傍にカメラを設置する必要もなく、記念写真撮影時に他の人の邪魔になる可能性も少ない。更には、ユーザが美術館内で撮影を行うこともないので、ストロボ撮影などによって展示作品にダメージを与えるおそれもない。   In the first embodiment, an image of an exhibition work is taken in advance, and this image is stored in a database. For this reason, only a camera for taking a user image needs to be installed in the museum. Therefore, the number of cameras installed in the museum can be reduced as much as possible. In addition, there is no need to install a camera beside the exhibited work, and there is little possibility of getting in the way of others when taking commemorative photos. Furthermore, since the user does not shoot in the museum, there is no possibility of damaging the exhibited work by strobe shooting.

また、第1の実施形態では、画像合成時に、実測した人物の肩幅Wや身長hを利用することで、画像合成後のユーザ10の位置を適確な画角で撮影したかのように修正することができる。これによって、より自然な合成画像を得ることができる。 Further, in the first embodiment, by using the actually measured shoulder width W 1 and height h 1 of the person at the time of image synthesis, the position of the user 10 after the image synthesis is captured at an appropriate angle of view. Can be corrected. As a result, a more natural composite image can be obtained.

ここで、ユーザに追加情報として送る画像は、参考としての合成画像に限るものではなく、実際の会場の混み具合がわかるように前日又は前の週の所定時刻に実際に撮影した画像を送信するようにしてもよい。このような画像を複数回撮影して送信するようにすれば、ユーザ10は、これら送信された複数の画像を見比べて、空いている時間帯を選んで美術館に入館することができる。   Here, the image to be sent to the user as additional information is not limited to a composite image as a reference, but an image actually taken at a predetermined time on the previous day or the previous week is transmitted so that the actual crowded situation can be understood. You may do it. If such an image is captured and transmitted a plurality of times, the user 10 can compare these transmitted images and select a vacant time zone to enter the museum.

また、第1の実施形態においては、ユーザ10の身長hを実測した後、画像合成を行うようにしたが、予め測定した身長値を携帯電話機のメモリ等に格納しておき、画像合成に先立って、身長値のデータをコンピュータ1に送信するようにしてもよい。 In the first embodiment, the height h 1 of the user 10 is actually measured and then image synthesis is performed. However, the height value measured in advance is stored in a memory or the like of the mobile phone, and the image synthesis is performed. Prior to this, height value data may be transmitted to the computer 1.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。この第2の実施形態は、端末機器として携帯電話機を利用せず、美術館内に端末機器を設ける例である。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. The second embodiment is an example in which a terminal device is provided in a museum without using a mobile phone as the terminal device.

図8(a)から図8(g)は、第2の実施形態による画像処理システムを利用した写真プリントサービスの動作を概念的に示した図である。このような応用によって、ユーザは、効率よく美術館を回ることができると共に、記念写真としての合成写真を持ち帰ることができる。即ち、図8(a)に示すように、ユーザ10が美術館に入館すると、図8(b)のように館内に設置されたカメラ6により写真撮影が行われる。ここで、このカメラ6は、美術館内の作品9を撮影したカメラと同じカメラを用いる。また、ユーザ10の撮影時の条件(撮影時の撮影高さなど)も作品9を撮影したときの条件と同じくする。   FIGS. 8A to 8G are diagrams conceptually showing the operation of the photo print service using the image processing system according to the second embodiment. By such an application, the user can go around the museum efficiently and take back a composite photo as a commemorative photo. That is, as shown in FIG. 8A, when the user 10 enters the museum, a picture is taken by the camera 6 installed in the hall as shown in FIG. 8B. Here, this camera 6 uses the same camera as the camera that photographed the work 9 in the museum. The conditions at the time of shooting by the user 10 (such as the shooting height at the time of shooting) are the same as the conditions at the time of shooting the work 9.

撮影終了後、ユーザ10が、図8(c)のように端末機器3の表示部5上に表示された収蔵リストの中から、鑑賞したいと考えている作品を選択すると、図8(d)のように、端末機器3に取り付けられたプリンタから、指定した作品がある位置を示す美術館内の地図4aがプリントアウトされる。ユーザ10は、この地図4aに従って会場内を移動することで、図8(e)のように、予め鑑賞したいと考えていた作品を効率よく鑑賞することができる。ここで、図8(c)の作品選択の際には、複数の作品を指定できるようにしても良いことは言うまでもない。   When the user 10 selects a work he / she wishes to view from the stored list displayed on the display unit 5 of the terminal device 3 as shown in FIG. As described above, the map 4a in the museum showing the position where the designated work is located is printed out from the printer attached to the terminal device 3. The user 10 can efficiently appreciate the work that he / she wanted to appreciate in advance as shown in FIG. 8E by moving within the venue according to the map 4a. Here, it goes without saying that a plurality of works may be designated when selecting works in FIG. 8C.

図8(e)のように作品を鑑賞している間に、図8(b)で撮影されたユーザ10の画像とデータベース内に収められた作品画像9とが合成され、この合成写真が図8(f)のようにしてプリントアウトされる。この合成写真を、図8(g)のように持ち帰れば記念となる。   While appreciating the work as shown in FIG. 8 (e), the image of the user 10 photographed in FIG. 8 (b) and the work image 9 stored in the database are combined. It is printed out as shown in 8 (f). If this composite photograph is taken home as shown in FIG.

ここで、図8(f)の画像合成の際には、ユーザ10が指定した作品を実際に鑑賞したことを検出できるような検出手段を設けるようにして、実際に鑑賞したことが検出された作品の合成写真のみをプリントアウトするようにしてもよい。ユーザ10が実際に鑑賞したことを検出する手法としては、例えば次のような手法で行えばよい。このときの構成として、図8(d)のようにして出力された地図4aに、地図4aを所持しているユーザを特定するためのバーコード部40を設けておき、更に、作品9の近傍にバーコードリーダ41を設けておく。即ち、バーコードリーダ41に地図4aのバーコード部40を読ませれば、コンピュータ1は、ユーザ10がその作品を訪れたことを検出することができる。   Here, at the time of image composition in FIG. 8 (f), it is detected that an actual appreciation is provided by providing a detection means that can detect that the work designated by the user 10 is actually appreciated. Only a composite photo of the work may be printed out. For example, the following method may be used as a method for detecting that the user 10 has actually watched. As a configuration at this time, a bar code unit 40 for specifying a user who owns the map 4a is provided in the map 4a output as shown in FIG. A barcode reader 41 is provided. That is, if the barcode reader 41 reads the barcode portion 40 of the map 4a, the computer 1 can detect that the user 10 has visited the work.

また、実際に鑑賞した作品の画像のみを合成する手法を第1の実施形態に応用する場合には、例えばユーザ10が所持している携帯電話機から発せられる電波を、予め作品近傍に設けておいた図示しないアンテナによって受信するようにすれば、実際にそのユーザが作品を見に来たかことを容易に検出することができる。   In addition, when applying the method of synthesizing only the image of the actually viewed work to the first embodiment, for example, radio waves emitted from the mobile phone possessed by the user 10 are provided in the vicinity of the work in advance. If it is made to receive with the antenna which is not shown in figure, it can be detected easily that the user actually came to see work.

以上説明したように、第2の実施形態では、ユーザを撮影するカメラと作品を撮影するカメラとが同じくしているので第1の実施形態で説明した画角合わせ等の画像修正を行う必要がなく、容易に画像合成を行うことができる。また、ユーザが必ずしも携帯電話機を所持している必要もない。   As described above, in the second embodiment, since the camera for shooting the user and the camera for shooting the work are the same, it is necessary to perform image correction such as the angle adjustment described in the first embodiment. And image composition can be easily performed. Further, the user does not necessarily have to have a mobile phone.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。第3の実施形態では、作品が時代別に展示されており、この作品が製作された当時の衣装の画像データが、作品画像のデータと共にデータベース2内に格納されている。更に、第3の実施形態においては、図12(c)や図12(d)のように画像合成時の作品9とユーザ10との位置を変える事もできる。どの位置で合成するかは、図10に示すように美術館内の作品9の近くに設けられたボタンをユーザ10が操作することにより指定できるようにしておく。また、このボタン操作を検出することによって、ユーザ10が実際に作品9の場所に来たか否かを判定するようにしても良い。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the third embodiment, works are displayed according to the period, and image data of costumes at the time this work was produced is stored in the database 2 together with work image data. Furthermore, in the third embodiment, the positions of the work 9 and the user 10 at the time of image composition can be changed as shown in FIGS. 12C and 12D. As shown in FIG. 10, the user 10 can designate the position where the composition is to be performed by operating a button provided near the work 9 in the museum. Further, by detecting this button operation, it may be determined whether or not the user 10 has actually come to the place of the work 9.

また、第3の実施形態においては、ユーザ10の画像を撮影する画像入力部6の構成が第1及び第2の実施形態と異なっている。即ち、第3の実施形態では、図11(a)及び図11(b)に示す撮影装置で撮影を行う。ここでの特徴は、撮影装置6として図11(a)に示すように2台のカメラ6a,6bを用いてユーザ10を撮影することである。このように2台のカメラ6a,6bを用いてユーザ10の撮影を行う場合、ユーザ10の後方に存在する物体10aは、カメラ6a側では撮影できるが、カメラ6b側ではユーザ10の影のために撮影できない。これにより、物体10aがユーザ10の後方にあることを認識でき、ユーザ10の画像を正しく背景の画像から切り出すことができる。このような処理は、三次元処理部51において行われるものである。   In the third embodiment, the configuration of the image input unit 6 that captures an image of the user 10 is different from those in the first and second embodiments. That is, in the third embodiment, photographing is performed with the photographing apparatus shown in FIGS. 11 (a) and 11 (b). The feature here is that the user 10 is photographed by using two cameras 6a and 6b as the photographing apparatus 6 as shown in FIG. In this way, when the user 10 is photographed using the two cameras 6a and 6b, the object 10a existing behind the user 10 can be photographed on the camera 6a side, but because of the shadow of the user 10 on the camera 6b side. I ca n’t shoot. Accordingly, it can be recognized that the object 10a is behind the user 10, and the image of the user 10 can be correctly cut out from the background image. Such processing is performed in the three-dimensional processing unit 51.

なお、第2の実施形態で説明したように、これらのカメラ6a,6bは、作品の撮影に利用されたカメラと同じ画角のカメラとし、また撮影時の高さも作品撮影時とユーザ10の撮影時とで等しくすることが好ましい。これによって、ユーザ10の画像を簡単に作品9の画像に合成することができる。   As described in the second embodiment, these cameras 6a and 6b are cameras having the same angle of view as the camera used for shooting the work, and the height at the time of shooting is the same as that of the user 10 when shooting the work. It is preferable to make it equal at the time of shooting. Thereby, the image of the user 10 can be easily combined with the image of the work 9.

次に、図9を参照して第3の実施形態における画像処理方法について説明する。図9において、コンピュータ1は、まずユーザ10に名前の入力を行わせる(ステップS30)。この名前入力により、ユーザ10は、他のユーザと間違えられずに確実に記念写真を入手することができる。次に、コンピュータ1は、このユーザ10の顔画像データがすでにあるか否かを判定し(ステップS31)、顔画像データがないと判定した場合には、図11(a)及び図11(b)に示す撮影装置を用いて撮影を行う(ステップS32)。一方、ステップS31において、ユーザの顔画像があると判定した場合(例えば1度同じ美術館に来ている時などは、すでに顔画像がある)には、データベース2から、その顔画像データの読み出しを行う(ステップS33)。   Next, an image processing method according to the third embodiment will be described with reference to FIG. In FIG. 9, the computer 1 first causes the user 10 to input a name (step S30). By inputting this name, the user 10 can surely obtain a commemorative photo without being mistaken for another user. Next, the computer 1 determines whether or not the face image data of the user 10 already exists (step S31). If it is determined that there is no face image data, the computer 1 performs FIG. 11 (a) and FIG. 11 (b). The photographing is performed using the photographing device shown in FIG. On the other hand, if it is determined in step S31 that there is a face image of the user (for example, when there is a face image already when visiting the same museum once), the face image data is read from the database 2. This is performed (step S33).

次に、コンピュータ1は、美術館の入口に設けられた端末機器3の表示部5上に、図12(a)に示すようにして、時代区分ごとの収蔵品リストを順次表示してゆく(ステップS34〜S42)。ここでは、ユーザ10の操作によりリストが順次切り替わるように構成する。この表示画面上で、ユーザ10は、記念写真として持ち帰りたい作品を選択することができる。なお、ここでは仮に古代、中世、ルネサンス、バロック、及び現代の作品から選択できるようにしているが、これに限るものでないことは言うまでもない。この収蔵品リスト画面において画像が選択された場合(ステップS43)には、その画像が図12(b)のように拡大表示される。このときコンピュータ1は、選択された作品画像の属する時代を代表する服装画像9aも併せて表示させる(ステップS44)。   Next, the computer 1 sequentially displays a collection list for each period division as shown in FIG. 12A on the display unit 5 of the terminal device 3 provided at the entrance of the museum (step). S34 to S42). Here, the list is sequentially switched by the operation of the user 10. On this display screen, the user 10 can select a work he / she wants to take home as a commemorative photo. It should be noted that, here, it is possible to select from ancient, medieval, renaissance, baroque, and contemporary works, but it goes without saying that this is not restrictive. When an image is selected on the stored item list screen (step S43), the image is enlarged and displayed as shown in FIG. At this time, the computer 1 also displays a clothing image 9a representing the era to which the selected work image belongs (step S44).

ユーザ10は、この服装で記念写真に収まりたい時に、端末機器3を操作してその旨を通知する。これを受けてコンピュータ1は、ステップS45の判定をYESに分岐して顔画像と服装画像とを合成した後(ステップS46)、更にこの画像と選択された作品画像とを図12(c)又は12(d)のように合成する(ステップS47)。この後、選択した作品までの順路を図12(e)のように地図表示したり、この地図をプリントアウトしたりするようにしてもよい。   When the user 10 wants to fit in a souvenir picture with this clothes, he / she operates the terminal device 3 to notify that. In response to this, the computer 1 branches the determination in step S45 to YES and combines the face image and the clothing image (step S46), and further displays this image and the selected work image in FIG. Synthesis is performed as shown in FIG. 12 (d) (step S47). Thereafter, the route to the selected work may be displayed as a map as shown in FIG. 12E, or the map may be printed out.

次にユーザ10は、実際に作品を鑑賞する(ステップS48)。このとき、作品9を前にして、図10のように、どの位置からの撮影が良いかをボタン操作により選択できるようにしておく。このような選択操作がなされた場合に(ステップS49)、コンピュータ1は、選択結果に従って、図12(c)や図12(d)のように画像内の位置変更を行い、その結果をプリントアウトする(ステップS50)。これによりユーザは、記念写真としての合成写真を得ることができる。   Next, the user 10 actually appreciates the work (step S48). At this time, in front of the work 9, as shown in FIG. 10, it is possible to select from which position the image should be taken by operating the buttons. When such a selection operation is performed (step S49), the computer 1 changes the position in the image according to the selection result as shown in FIGS. 12C and 12D, and prints out the result. (Step S50). Thereby, the user can obtain a composite photo as a commemorative photo.

以上説明したように、第3の実施形態では、ユーザが展示作品のどの位置で撮影されたいのかを選択する事ができる。また、作品制作当時の服を着用した状態で合成写真が得られるので、ユーザはよりいっそう貴重な記念写真を得ることができる。   As described above, in the third embodiment, the user can select at which position of the exhibition work he wants to shoot. In addition, since the composite photo can be obtained while wearing the clothes at the time of production, the user can obtain a more valuable commemorative photo.

以上実施形態に基づいて本発明を説明したが、本発明は上記した実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。例えば、上記した実施形態は、美術館の例で説明したが、その他の場所、例えば博物館、イベント会場などにも応用可能なことは言うまでもない。   Although the present invention has been described based on the above embodiments, the present invention is not limited to the above-described embodiments, and various modifications and applications are naturally possible within the scope of the gist of the present invention. For example, although the above-described embodiment has been described with reference to an example of an art museum, it is needless to say that it can be applied to other places such as a museum and an event venue.

更に、上記した実施形態には種々の段階の発明が含まれており、開示される複数の構成要件の適当な組合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除された構成も発明として抽出され得る。   Further, the above-described embodiments include various stages of the invention, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, the problem described in the column of the problem to be solved by the invention can be solved, and the effect described in the column of the effect of the invention Can be extracted as an invention.

本発明の画像処理システムの概念的な構成を示すブロック図である。1 is a block diagram showing a conceptual configuration of an image processing system of the present invention. 図2(a)から図2(e)は本発明の第1の実施形態の動作に従った表示部の画像表示例を示す図であり、図2(f)は本発明の第1の実施形態の端末機器としての携帯電話機を示す図であり、図2(g)は合成後の画像の表示例を示す図である。2 (a) to 2 (e) are diagrams showing examples of image display on the display unit according to the operation of the first embodiment of the present invention, and FIG. 2 (f) is the first embodiment of the present invention. FIG. 2G is a diagram showing a display example of an image after composition. 図3(a)及び図3(b)はユーザの身長及び肩幅を測定するための測定装置の構成を示す図であり、図3(c)は合成写真をプリントアウトする例を示す図である。FIG. 3A and FIG. 3B are diagrams showing a configuration of a measuring device for measuring the height and shoulder width of a user, and FIG. 3C is a diagram showing an example of printing out a composite photograph. . 本発明の第1の実施形態の画像処理システムの動作について説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the image processing system of the 1st Embodiment of this invention. 図5(a)携帯電話機の撮影光学系を示す図であり、図5(b)は作品撮影時の撮影光学系を示す図である。FIG. 5A is a diagram showing a photographing optical system of a mobile phone, and FIG. 5B is a diagram showing a photographing optical system at the time of photographing a work. 図6(a)は画像の水平方向の修正について説明するための図であり、図6(b)は画像の高さ方向の修正について説明するための図である。FIG. 6A is a diagram for explaining the correction in the horizontal direction of the image, and FIG. 6B is a diagram for explaining the correction in the height direction of the image. 画像合成の手順について説明するためのフローチャートである。It is a flowchart for demonstrating the procedure of an image composition. 本発明の第2の実施形態による画像処理システムを利用した写真プリントサービスの動作を概念的に示した図である。It is the figure which showed notionally the operation | movement of the photo print service using the image processing system by the 2nd Embodiment of this invention. 本発明の第3の実施形態の画像処理システムの動作について説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the image processing system of the 3rd Embodiment of this invention. 合成位置の変更を指示するためのボタンについて説明するための図である。It is a figure for demonstrating the button for instruct | indicating the change of a synthetic | combination position. 第3の実施形態で用いる撮影装置の構成図である。It is a block diagram of the imaging device used in 3rd Embodiment. 表示部の画像表示例を示す図である。It is a figure which shows the example of an image display of a display part.

符号の説明Explanation of symbols

1…コンピュータ、2…データベース、3…端末機器、4,8…プリンタ、5…表示部、6…画像入力部、7a,7b…判定部   DESCRIPTION OF SYMBOLS 1 ... Computer, 2 ... Database, 3 ... Terminal device, 4,8 ... Printer, 5 ... Display part, 6 ... Image input part, 7a, 7b ... Determination part

Claims (12)

ユーザによって画像が実際に鑑賞されたことを検出する検出手段と、
この検出手段によって画像が実際に鑑賞されたことを検出した場合に、上記ユーザ自身の画像と上記実際に鑑賞された画像とを合成する画像処理手段と、
を有することを特徴とする画像処理システム。
Detecting means for detecting that the image is actually viewed by the user;
An image processing means for synthesizing the user's own image and the actually viewed image when the detecting means detects that the image is actually viewed;
An image processing system comprising:
ユーザが選択した画像とユーザ自身の画像とを合成して、この合成された画像を上記ユーザに提供する合成画像提供手段と、
上記ユーザによって選択された画像が実際に鑑賞されたことを検出する検出手段と、
この検出手段によって画像が実際に鑑賞されたことを検出した場合に、上記ユーザ自身の画像と上記実際に鑑賞された画像とを再合成する画像処理手段と、
を有することを特徴とする画像処理システム。
A synthesized image providing means for synthesizing the image selected by the user and the user's own image and providing the synthesized image to the user;
Detecting means for detecting that the image selected by the user is actually viewed;
An image processing means for recombining the user's own image and the actually viewed image when the detecting means detects that the image is actually viewed;
An image processing system comprising:
背景の画像を撮影する第1の撮影装置と、
ユーザの画像を撮影する第2の撮影装置と、
上記第1の撮影装置の地表からの高さ、上記ユーザの身長、上記ユーザと上記第1の撮影装置との距離、及び上記第1の撮影装置の撮影画角に基づいて、上記背景の画像と上記ユーザの画像の相互の位置関係及びそれぞれの画像の大きさを調整して、上記背景の画像と上記ユーザの画像とを合成する画像処理手段と、
を有することを特徴とすることを特徴とする画像処理システム。
A first photographing device for photographing a background image;
A second photographing device for photographing a user's image;
The background image based on the height of the first imaging device from the ground surface, the height of the user, the distance between the user and the first imaging device, and the imaging angle of view of the first imaging device. And image processing means for adjusting the mutual positional relationship between the user images and the size of each image, and combining the background image and the user image;
An image processing system characterized by comprising:
上記画象処理手段によって合成された画像データをプリント出力するプリント手段を更に有することを特徴とする請求項1乃至3の何れか1つに記載の画像処理システム。   4. The image processing system according to claim 1, further comprising print means for printing out the image data synthesized by the image processing means. 少なくとも美術館においてユーザに記念写真を提供する画像処理システムにおいて、
上記ユーザを撮影して上記ユーザの画像データを得る第1の撮影手段と、
上記美術館内に展示された作品を撮影して上記作品の画像データを得る第2の撮影手段と、
上記第1の撮影手段によって撮影された上記ユーザの画像データと上記第2の撮影手段によって撮影された上記作品の画像データとを合成する画像処理手段と、
この画像処理手段によって合成された画像データをデータ出力又はプリント出力して上記ユーザに記念写真を提供する出力手段と、
を有することを特徴とする画像処理システム。
At least in an image processing system that provides commemorative photos to users in museums,
First photographing means for photographing the user and obtaining image data of the user;
A second photographing means for photographing the works exhibited in the museum and obtaining image data of the works;
Image processing means for combining the image data of the user photographed by the first photographing means and the image data of the work photographed by the second photographing means;
Output means for outputting a commemorative photo to the user by outputting data or printing the image data synthesized by the image processing means; and
An image processing system comprising:
少なくとも上記展示された作品の位置を示す地図を生成して上記ユーザに提供する地図情報提供手段を更に有することを特徴とする請求項5に記載の画像処理システム。   6. The image processing system according to claim 5, further comprising map information providing means for generating a map indicating the position of at least the exhibited work and providing the map to the user. 上記作品に対応する服装の画像を上記ユーザに提供する服装提供手段を更に有し、
上記画像処理手段は、上記合成された画像に上記服装の画像を更に合成することを特徴とする請求項5に記載の画像処理システム。
It further has clothes providing means for providing the user with an image of clothes corresponding to the work,
6. The image processing system according to claim 5, wherein the image processing means further synthesizes an image of the clothes with the synthesized image.
ユーザに複数の画像を提供する画像提供手段と、
上記画像提供手段によって提供された上記複数の画像の中から選択された画像に関連する情報を受信する選択画像情報受信手段と、
上記選択された画像が存在する地点に到達するまでの経路を表す地図情報を上記ユーザに提供する地図情報提供手段と、
上記選択された画像に所定の画像処理を施す画像処理手段と、
を有することを特徴とする画像処理システム。
Image providing means for providing a plurality of images to a user;
Selected image information receiving means for receiving information related to an image selected from the plurality of images provided by the image providing means;
Map information providing means for providing the user with map information representing a route to the point where the selected image is present;
Image processing means for performing predetermined image processing on the selected image;
An image processing system comprising:
ユーザによって画像が実際に鑑賞されたことを検出するステップと、
画像が実際に鑑賞されたことが検出された場合に、上記ユーザ自身の画像と上記実際に鑑賞された画像とを合成するステップと、
を有することを特徴とする画像処理方法。
Detecting that the image was actually viewed by the user;
Synthesizing the user's own image and the actually viewed image when it is detected that the image was actually viewed;
An image processing method comprising:
ユーザが選択した画像とユーザ自身の画像とを合成して、この合成された画像を上記ユーザに提供するステップと、
上記ユーザによって選択された画像が実際に鑑賞されたことを検出するステップと、
この検出手段によって画像が実際に鑑賞されたことを検出した場合に、上記ユーザ自身の画像と上記実際に鑑賞された画像とを再合成するステップと、
を有することを特徴とする画像処理方法。
Synthesizing the image selected by the user and the user's own image, and providing the synthesized image to the user;
Detecting that the image selected by the user is actually viewed;
Re-synthesizing the user's own image and the actually viewed image when the detecting means detects that the image is actually viewed;
An image processing method comprising:
背景の画像を撮影するステップと、
ユーザの画像を撮影するステップと、
上記背景を撮影する撮影装置の地表からの高さ、上記ユーザの身長、上記ユーザと上記ユーザを撮影する撮影装置との距離、及び上記ユーザを撮影する撮影装置の撮影時の画角に基づいて、上記背景の画像と上記ユーザの画像の相互の位置関係及びそれぞれの画像の大きさを調整して、上記背景の画像と上記ユーザの画像とを合成するステップと、
を有することを特徴とする画像処理方法。
Taking a background image;
Taking a picture of the user;
Based on the height from the ground surface of the image capturing device that captures the background, the height of the user, the distance between the user and the image capturing device that captures the user, and the angle of view of the image capturing device that captures the user Adjusting the mutual positional relationship between the background image and the user image and the size of each image, and synthesizing the background image and the user image;
An image processing method comprising:
ユーザに複数の画像を提供するステップと、
上記画像を提供するステップにおいて提供された上記複数の画像の中から選択された画像に関連する情報を受信するステップと、
上記選択された画像が存在する地点に到達するまでの経路を表す地図情報を上記ユーザに提供するステップと、
上記選択された画像に所定の画像処理を施すステップと、
を有することを特徴とする画像処理方法。
Providing a user with multiple images;
Receiving information related to an image selected from the plurality of images provided in the step of providing the image;
Providing the user with map information representing a route to reach the point where the selected image exists;
Applying predetermined image processing to the selected image;
An image processing method comprising:
JP2003362164A 2003-10-22 2003-10-22 Image processing system and method Withdrawn JP2005130120A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003362164A JP2005130120A (en) 2003-10-22 2003-10-22 Image processing system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003362164A JP2005130120A (en) 2003-10-22 2003-10-22 Image processing system and method

Publications (1)

Publication Number Publication Date
JP2005130120A true JP2005130120A (en) 2005-05-19

Family

ID=34641901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003362164A Withdrawn JP2005130120A (en) 2003-10-22 2003-10-22 Image processing system and method

Country Status (1)

Country Link
JP (1) JP2005130120A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156642A (en) * 2005-12-01 2007-06-21 Matsushita Electric Works Ltd Virtual space experience system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156642A (en) * 2005-12-01 2007-06-21 Matsushita Electric Works Ltd Virtual space experience system

Similar Documents

Publication Publication Date Title
US9438806B2 (en) Photographing apparatus and photographing method for displaying combined avatar and map information related to a subject
JP4929940B2 (en) Shooting system
JP2009239397A (en) Imaging apparatus, imaging system, control method of imaging apparatus, and control program
US20020145752A1 (en) Image processing system
KR20110047398A (en) Image providing system and image providing mehtod of the same
JP2008537228A (en) Interactive shooting and distribution system and related methods
JP4256655B2 (en) Image identification apparatus, order processing apparatus, and image identification method
US20130100329A1 (en) Image pickup apparatus
JP2004297134A (en) Composite image providing system, image composite apparatus, and program
CN108920113A (en) Video frame images Method of printing, device and computer readable storage medium
JP2012019374A (en) Electronic album creation server, information processor, electronic album creation system, and control method of electronic album creation server
JP2004257872A (en) Position information acquiring system, position information acquiring device, position information acquiring method and program
CN103795915A (en) Image display apparatus which displays images and method therefor
JP4750158B2 (en) Shooting support device
JP2005010512A (en) Autonomous photographing device
JP2018166282A (en) Automatic photographing system and transmitter
JP2015015570A (en) System, apparatus and program for image management
KR20110095443A (en) Method and system of providing information of subject
JP4875955B2 (en) Image album creating apparatus and method, communication terminal, and image collecting apparatus
JP2005130120A (en) Image processing system and method
JP2003259285A (en) Image processing system
JP2020184165A (en) Imaged data provision system
WO2019008948A1 (en) Data system, server, and program
JP2003244488A (en) Image information adding apparatus and system
JP4286702B2 (en) Image printing system, apparatus and image printing method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070109