JP2006101173A - Imaging device and program - Google Patents

Imaging device and program Download PDF

Info

Publication number
JP2006101173A
JP2006101173A JP2004284544A JP2004284544A JP2006101173A JP 2006101173 A JP2006101173 A JP 2006101173A JP 2004284544 A JP2004284544 A JP 2004284544A JP 2004284544 A JP2004284544 A JP 2004284544A JP 2006101173 A JP2006101173 A JP 2006101173A
Authority
JP
Japan
Prior art keywords
image
shooting
imaging
photographing
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004284544A
Other languages
Japanese (ja)
Other versions
JP4217831B2 (en
Inventor
Kenichi Hibino
健一 日比野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004284544A priority Critical patent/JP4217831B2/en
Publication of JP2006101173A publication Critical patent/JP2006101173A/en
Application granted granted Critical
Publication of JP4217831B2 publication Critical patent/JP4217831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device and a program, wherein a user is capable of imaging the image of an object easily and surely. <P>SOLUTION: In an imaging system, the planning images and text information (process name etc) of each working process of the construction are stored in the recording unit 27 of a digital camera 20a. When a shutter switch is pushed down to start imaging, the photoed images and the planning images are collated with each other to calculate a concurrence rate. When it is judged that the concurrent rate is higher than a prescribed threshold, the planning images and text information of the working process to image next are displayed, and a guidance is provided on imaging. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、予め記憶された基準画像と撮影画像とを照合し、照合結果に基づき撮影の補助を行う機能を備えた撮影装置及びそのプログラムに関する。   The present invention relates to a photographing apparatus having a function of collating a reference image stored in advance with a photographed image and assisting photographing based on the collation result, and a program thereof.

従来、各種の撮影補助機能を備えた撮影装置が知られている。   2. Description of the Related Art Conventionally, photographing apparatuses having various photographing auxiliary functions are known.

例えば、工事写真の撮影等、撮影すべき一連の作業工程が決まっている撮影においては、撮影すべき作業工程をもれなく撮影できるように、一連の作業工程の各工程の種類を順に撮影装置に記憶しておき、撮影後、次に撮影すべき作業工程の種類を文字ベースで案内表示する技術が知られている(例えば、特許文献1参照)。   For example, when shooting a series of work processes to be photographed, such as taking a construction photograph, the type of each process in the series of work processes is stored in the imaging device in order so that all the work processes to be photographed can be taken. In addition, a technique is known that guides and displays on a character basis the type of work process to be photographed next after photographing (see, for example, Patent Document 1).

また、人物撮影においては、適正な構図、ポーズの写真が容易に撮影できるように補助する各種技術が開発されている。例えば、被写体がとるべきポーズを表した図画を透光性を有する平面部材に表示してファインダの光軸上に支持し、撮影者が被写体に重ね合わせて見ることができるようにする技術(例えば、特許文献2参照)や、適正な構図のガイドパターンを液晶ファインダの表示モニタ上に重畳表示させる技術が知られている(例えば、特許文献3、4参照)。
特開2004−096438号公報 特開平11−352556号公報 特開2002−290780号公報 特開2002−232753号公報
In person photography, various techniques have been developed to assist in taking pictures of proper composition and poses easily. For example, a technique for displaying a pose to be taken by a subject on a light-transmitting flat member and supporting it on the optical axis of the finder so that a photographer can see the subject superimposed on the subject (for example, Patent Document 2), and a technique for displaying a guide pattern with an appropriate composition on a display monitor of a liquid crystal finder is known (for example, see Patent Documents 3 and 4).
JP 2004-096438 A JP-A-11-352556 JP 2002-290780 A JP 2002-232753 A

しかしながら、工事の一連の作業工程を撮影する場合や、イベントにおける場面を時間順に撮影する場合等、撮影順が予め計画されている撮影において、次に撮影すべき撮影対象の種類が文字で案内表示されるだけでは、撮影者が次に撮影すべき撮影対象を見知っていない場合その認識から行わなければならず、容易に撮影を行うことができないという問題があった。また、撮影者が撮影対象を誤って認識している場合には撮影すべき対象が撮影されないという問題があった。   However, when shooting a series of work processes of construction or shooting scenes in an event in time order, the type of shooting target to be shot next is displayed in text for guidance. However, if the photographer does not know the object to be photographed next, it is necessary to recognize the object to be photographed next, and there is a problem that photographing cannot be performed easily. In addition, when the photographer has mistakenly recognized the shooting target, there is a problem that the target to be shot is not shot.

また、人物撮影においては、従来の技術では、被写体画像上に重畳表示されたガイドパターンと被写体の画像とを撮影者が目で比較していたが、実際に撮影しようとする被写体とガイドパターンがぴったりと一致することは難しく、撮影者がシャッターチャンスを判断するのは容易ではなかった。また、ガイドパターンと被写体画像との比較を人間が行うので、被写体が好ましい状態となったときに撮影を自動化することができなかった。   Also, in human photography, in the conventional technique, the photographer compares the guide pattern superimposed on the subject image with the subject image by eye, but the subject to be actually photographed and the guide pattern are different. It was difficult to match exactly and it was not easy for the photographer to judge the photo opportunity. In addition, since a human compares the guide pattern with the subject image, it has not been possible to automate shooting when the subject is in a favorable state.

本発明の課題は、撮影者が目的とする写真を容易に、確実に撮影できるようにすることである。   An object of the present invention is to make it possible to easily and reliably take a photograph intended by a photographer.

上記課題を解決するため、請求項1に記載の発明は、
撮影の基準となる基準画像を撮影順に記憶する記憶手段と、
被写体の光学画像を電気信号に変換してデジタル画像を取得する撮像手段と、
前記撮像手段により取得されたデジタル画像を撮影順に応じた前記基準画像と照合して一致率を算出する画像照合手段と、
前記画像照合手段により算出された一致率が所定の閾値を超えたと判断された場合に、次の撮影の基準となる基準画像を前記記憶手段から読み出して案内表示する表示手段と、
を備えたことを特徴としている。
In order to solve the above-mentioned problem, the invention described in claim 1
Storage means for storing a reference image as a reference for shooting in order of shooting;
Imaging means for converting an optical image of a subject into an electrical signal to obtain a digital image;
Image collating means for collating the digital image acquired by the imaging means with the reference image according to the photographing order to calculate a matching rate;
A display unit that reads out and guides a reference image serving as a reference for the next shooting from the storage unit when it is determined that the coincidence rate calculated by the image matching unit exceeds a predetermined threshold;
It is characterized by having.

請求項4に記載の発明は、
撮影の基準となる基準画像を記憶する記憶手段と、
被写体の光学画像を電気信号に変換してデジタル画像を取得する撮像手段と、
前記撮像手段により取得されたデジタル画像を前記基準画像と照合して一致率を算出する画像照合手段と、
前記画像照合手段により算出された一致率を表示する表示手段と、
を備えたことを特徴としている。
The invention according to claim 4
Storage means for storing a reference image as a reference for photographing;
Imaging means for converting an optical image of a subject into an electrical signal to obtain a digital image;
Image collating means for collating the digital image acquired by the imaging means with the reference image and calculating a matching rate;
Display means for displaying the matching rate calculated by the image matching means;
It is characterized by having.

請求項5に記載の発明は、
撮影の基準となる基準画像を記憶する記憶手段と、
被写体の光学画像を電気信号に変換してデジタル画像を取得する撮像手段と、
前記撮像手段により取得されたデジタル画像を前記基準画像と照合して一致率を算出する画像照合手段と、
前記画像照合手段により算出された一致率が所定の閾値を超えたと判断された場合に撮影を行う撮影制御手段と、
を備えたことを特徴としている。
The invention described in claim 5
Storage means for storing a reference image as a reference for photographing;
Imaging means for converting an optical image of a subject into an electrical signal to obtain a digital image;
Image collating means for collating the digital image acquired by the imaging means with the reference image and calculating a matching rate;
Photographing control means for photographing when it is determined that the matching rate calculated by the image collating means exceeds a predetermined threshold;
It is characterized by having.

請求項10に記載の発明は、
コンピュータに、
撮影の基準となる基準画像を撮影順に記憶手段に記憶する機能と、
被写体の光学画像を電気信号に変換して得られたデジタル画像を撮影順に応じた前記基準画像と照合して一致率を算出する機能と、
前記算出された一致率が所定の閾値を超えたと判断された場合に、次の撮影の基準となる基準画像を前記記憶手段から読み出して案内表示する機能と、
を実現させるためのプログラムであることを特徴としている。
The invention according to claim 10 is:
On the computer,
A function of storing a reference image serving as a reference for shooting in a storage unit in the order of shooting;
A function of calculating a coincidence rate by comparing a digital image obtained by converting an optical image of a subject into an electrical signal with the reference image according to the shooting order;
A function of reading a reference image serving as a reference for the next shooting from the storage unit and displaying guidance when it is determined that the calculated matching rate exceeds a predetermined threshold;
It is characterized by being a program for realizing.

請求項11に記載の発明は、
コンピュータに、
撮影の基準となる基準画像を記憶する機能と、
被写体の光学画像を電気信号に変換して得られたデジタル画像を前記基準画像と照合して一致率を算出する機能と、
前記算出された一致率を表示する機能と、
を実現させるためのプログラムであることを特徴としている。
The invention according to claim 11
On the computer,
A function for storing a reference image as a reference for shooting;
A function of collating a digital image obtained by converting an optical image of a subject into an electrical signal with the reference image and calculating a matching rate;
A function of displaying the calculated match rate;
It is characterized by being a program for realizing.

請求項12に記載の発明は、
コンピュータに、
撮影の基準となる基準画像を記憶する機能と、
被写体の光学画像を電気信号に変換して得られたデジタル画像を前記基準画像と照合して一致率を算出する機能と、
前記算出された一致率が所定の閾値を超えたと判断された場合に、撮影を行う機能と、
を実現させるためのプログラムであることを特徴としている。
The invention according to claim 12
On the computer,
A function for storing a reference image as a reference for shooting;
A function of collating a digital image obtained by converting an optical image of a subject into an electrical signal with the reference image and calculating a matching rate;
A function of shooting when it is determined that the calculated matching rate exceeds a predetermined threshold;
It is characterized by being a program for realizing.

請求項1、10に記載の発明によれば、撮影の基準となる基準画像を撮影順に記憶手段に記憶しておき、被写体の光学画像を電気信号に変換して得られたデジタル画像を撮影順に応じた基準画像と照合して一致率を算出し、一致率が所定の閾値を超えたと判断された場合に、次の撮影の基準となる基準画像を記憶手段から読み出して案内表示する。従って、次の撮影の基準画像が案内表示されるので、撮影者が撮影を行う際の撮影効率が向上し、撮影順に応じて、目的とする写真を容易に確実に撮影することが可能となる。   According to the first and tenth aspects of the present invention, a reference image serving as a reference for shooting is stored in the storage means in the order of shooting, and a digital image obtained by converting an optical image of the subject into an electrical signal is stored in the order of shooting. The matching rate is calculated by collating with the corresponding reference image, and when it is determined that the matching rate exceeds a predetermined threshold value, the reference image serving as a reference for the next photographing is read out from the storage means and displayed as a guide. Accordingly, the reference image for the next shooting is guided and displayed, so that shooting efficiency when the photographer performs shooting can be improved, and the target photo can be easily and reliably shot according to the shooting order. .

請求項2に記載の発明によれば、一連の撮影計画における各工程を撮影順に、容易に確実に撮影することが可能となる。   According to the second aspect of the present invention, it is possible to easily and reliably photograph each process in a series of photographing plans in the order of photographing.

請求項3に記載の発明によれば、次の撮影の基準となる基準画像をその基準画像に関する文字情報とともに案内表示するので、撮影者が撮影すべき撮影対象を認識しやすくなり、より容易に確実に目的とする画像を撮影可能となる。   According to the third aspect of the present invention, since the reference image that is the reference for the next shooting is displayed along with the character information related to the reference image, the photographer can easily recognize the shooting target to be shot and more easily. A target image can be reliably captured.

請求項4、11に記載の発明によれば、被写体の光学画像を電気信号に変換して得られたデジタル画像を基準画像と照合して一致率を算出し、算出された一致率を表示するので、被写体が基準画像にどれだけ近い状態であるかを撮影者に示すことができる。従って、撮影者はシャッターチャンスを判断しやすくなり、目的とする画像を容易に、確実に撮影できるようになる。   According to the fourth and eleventh aspects of the present invention, the digital image obtained by converting the optical image of the subject into an electric signal is collated with the reference image, the coincidence rate is calculated, and the calculated coincidence rate is displayed. Therefore, it is possible to show the photographer how close the subject is to the reference image. Therefore, the photographer can easily determine the shutter chance and can easily and reliably capture the target image.

請求項5、12に記載の発明によれば、被写体の光学画像を電気信号に変換して得られたデジタル画像を基準画像と照合して一致率を算出し、算出された一致率が所定の閾値を超えたと判断された場合に自動的に撮影を行うので、被写体が基準画像に近い状態となったときにシャッターチャンスを逃すことなく撮影を行うことができ、目的とする画像を容易に、確実に撮影できるようになる。
を備えたことを特徴とする撮影装置。
According to the fifth and twelfth aspects of the present invention, the digital image obtained by converting the optical image of the subject into an electrical signal is collated with the reference image to calculate the coincidence rate, and the calculated coincidence rate is predetermined. Since it automatically shoots when it is determined that the threshold is exceeded, it can shoot without missing a photo opportunity when the subject is close to the reference image, and the target image can be easily You will be able to shoot reliably.
An imaging apparatus comprising:

請求項6に記載の発明によれば、被写体がとるべきポーズに近い状態となったときに撮影を行うことが可能となる。   According to the sixth aspect of the present invention, it is possible to take a picture when the subject is close to the pose to be taken.

請求項7に記載の発明によれば、複数の基準画像の中から撮影の基準とする基準画像を選択することができる。   According to the seventh aspect of the present invention, it is possible to select a reference image as a photographing reference from a plurality of reference images.

請求項8に記載の発明によれば、撮像手段により取得されたデジタル画像と複数の基準画像のうち何れかとの照合により算出された一致率が所定の閾値を超えた場合に、自動的に撮影を行うので、複数の基準画像に応じた撮影を容易に、効率的に行うことが可能となる。例えば、基準画像が被写体がとるべきポーズの画像である場合、予め定められた複数のポーズに近い複数の画像を容易に、効率的に撮影することが可能となる。   According to the invention described in claim 8, when the coincidence rate calculated by comparing the digital image acquired by the imaging means with any one of the plurality of reference images exceeds a predetermined threshold, the image is automatically captured. Therefore, it is possible to easily and efficiently perform shooting according to a plurality of reference images. For example, when the reference image is an image of a pose to be taken by the subject, a plurality of images close to a plurality of predetermined poses can be easily and efficiently captured.

請求項9に記載の発明によれば、撮影により得られたデジタル画像を基準画像に基づいて補正するので、被写体が基準画像と同様の状態となった画像を確実に取得することができる。例えば、基準画像が被写体がとるべきポーズの画像である場合、被写体が所望のポーズをとった画像を確実に取得することができる。   According to the ninth aspect of the invention, since the digital image obtained by photographing is corrected based on the reference image, it is possible to reliably acquire an image in which the subject is in the same state as the reference image. For example, when the reference image is an image of a pose that the subject should take, an image in which the subject has a desired pose can be reliably acquired.

〔実施形態1〕
以下、図を参照して本発明の実施形態1を詳細に説明する。
実施形態1で説明する撮影システム100、200は、撮影すべき対象の基準画像としての計画画像を撮影順番と対応付けてデジタルカメラ20aに記憶させ、デジタルカメラ20aにおいて、撮影後、次に撮影すべき対象の計画画像を表示して、次の撮影のガイダンスを行うものである。
Embodiment 1
Hereinafter, Embodiment 1 of the present invention will be described in detail with reference to the drawings.
The photographing systems 100 and 200 described in the first embodiment store a planned image as a reference image to be photographed in association with the photographing order in the digital camera 20a, and the digital camera 20a takes the next photograph after photographing. The plan image of the target to be displayed is displayed and guidance for the next shooting is performed.

まず、構成を説明する。
図1は、本発明の実施形態1における撮影システム100のシステム構成を示す図であり、データ処理装置であるパーソナルコンピュータ1と、撮影装置であるデジタルカメラ20aとが無線通信によりデータ送受信される場合を示す。
また、図2は、本発明の実施形態1における撮影システム200のシステム構成を示す図であり、データ処理装置であるパーソナルコンピュータ1と、撮影装置であるデジタルカメラ20aとが有線通信によりデータ送受信される場合を示す。
これら図1及び図2に示す各撮影システム100,200において使用されるパーソナルコンピュータ1及びデジタルカメラ20aは、無線通信機能と有線通信機能を備えるため、両方のシステム形態に対応可能であるものとする。
First, the configuration will be described.
FIG. 1 is a diagram illustrating a system configuration of an imaging system 100 according to Embodiment 1 of the present invention, in which data is transmitted and received between a personal computer 1 that is a data processing device and a digital camera 20a that is an imaging device by wireless communication. Indicates.
FIG. 2 is a diagram showing a system configuration of the imaging system 200 according to the first embodiment of the present invention, in which data is transmitted and received between the personal computer 1 as a data processing apparatus and the digital camera 20a as an imaging apparatus by wired communication. Shows the case.
Since the personal computer 1 and the digital camera 20a used in each of the photographing systems 100 and 200 shown in FIGS. 1 and 2 have a wireless communication function and a wired communication function, it is possible to support both system forms. .

以下、撮影システム100、200を構成する各装置について説明する。
図3は、パーソナルコンピュータ1の機能的構成を示すブロック図である。図3において、パーソナルコンピュータ1は、CPU2、入力部3、RAM4、外部I/F5、表示部6、記録部7及び通信制御部8により構成されており、各部はバス9により接続されている。
Hereinafter, each apparatus which comprises the imaging | photography systems 100 and 200 is demonstrated.
FIG. 3 is a block diagram showing a functional configuration of the personal computer 1. In FIG. 3, the personal computer 1 includes a CPU 2, an input unit 3, a RAM 4, an external I / F 5, a display unit 6, a recording unit 7, and a communication control unit 8, and each unit is connected by a bus 9.

CPU(Central Processing Unit )2は、記録部7に記憶されているシステムプログラムを読み出し、RAM4内に形成されたワークエリアに展開し、該システムプログラムに従って各部を制御する。また、CPU2は、記録部7に記憶されている撮影計画情報作成処理プログラム、送信対象情報選択処理プログラムを始めとする各種処理プログラムを読み出してワークエリアに展開し、後述する撮影計画情報作成処理及び送信対象情報選択処理を始めとする各種処理を実行する。   A CPU (Central Processing Unit) 2 reads a system program stored in the recording unit 7, develops it in a work area formed in the RAM 4, and controls each unit according to the system program. Further, the CPU 2 reads out various processing programs such as a shooting plan information creation processing program and a transmission target information selection processing program stored in the recording unit 7 and develops them in a work area. Various processes including a transmission target information selection process are executed.

入力部3は、文字/英数字入力キー、カーソルキー、及び各種機能キー等を備えたキーボードと、ポインティングデバイスであるマウスと、を備えて構成され、キーボードで押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号としてCPU2に出力する。   The input unit 3 includes a keyboard having character / alphanumeric input keys, cursor keys, various function keys, and the like, and a mouse that is a pointing device. An operation signal from the mouse is output to the CPU 2 as an input signal.

RAM(Random Access Memory)4は、CPU2によって実行される各種プログラム及びこれらプログラムに係るデータを一時的に記憶するワークエリアを形成する。例えば、RAM4は、ワークエリアとして送信対象領域(図示せず)を形成する。   A RAM (Random Access Memory) 4 forms a work area for temporarily storing various programs executed by the CPU 2 and data related to these programs. For example, the RAM 4 forms a transmission target area (not shown) as a work area.

外部I/F5は、通信用ケーブル等によりデジタルカメラ20a内の外部I/F24と接続され、CPU2の制御によりデジタルカメラ20a内の外部I/F24との間でデータ送受信を行い、受信データをCPU2に出力するといった有線通信機能を有する。   The external I / F 5 is connected to the external I / F 24 in the digital camera 20a via a communication cable or the like, and transmits / receives data to / from the external I / F 24 in the digital camera 20a under the control of the CPU 2, and receives data from the CPU 2 Has a wired communication function such as

表示部6は、LCD(Liquid Crystal Display)やCRT(Cathode Ray Tube)等により構成され、CPU2から入力される表示信号の指示に従って、各種画面を表示する。   The display unit 6 is configured by an LCD (Liquid Crystal Display), a CRT (Cathode Ray Tube), or the like, and displays various screens according to instructions of a display signal input from the CPU 2.

記録部7は、プログラム、データ等が予め記憶されており、この記録部7は、磁気的、光学的記録媒体、若しくは半導体メモリなどCPU2で読取り可能な記録媒体を含んだ構成である。この記録媒体はCD-ROM(Compact Disc Read Only Memory)、メモリカード等の可搬型の媒体やハードディスク等の固定的な媒体を含む。また、この記録媒体に格納する上記システムプログラム、撮影計画情報作成処理プログラム及び送信対象情報選択処理プログラムを始めとする各種処理プログラム等は、その一部若しくは全部をサーバやクライアントからWAN(Wide Area Network)、LAN(Local Area Network)などのネットワークを介して通信制御部8から受信する構成にしてもよく、更に、記録媒体はネットワーク上に構築されたサーバやクライアントの記録媒体であってもよい。   The recording unit 7 stores programs, data, and the like in advance, and the recording unit 7 includes a recording medium readable by the CPU 2 such as a magnetic or optical recording medium or a semiconductor memory. This recording medium includes a portable medium such as a CD-ROM (Compact Disc Read Only Memory) and a memory card, and a fixed medium such as a hard disk. Various processing programs including the system program, the shooting plan information creation processing program, and the transmission target information selection processing program stored in the recording medium are partially or entirely transferred from a server or client to a WAN (Wide Area Network). ), And may be configured to receive from the communication control unit 8 via a network such as a LAN (Local Area Network), and the recording medium may be a recording medium of a server or a client built on the network.

この記録部7は、図4に示すタイプ別建築工程メモリ71を有する。図4に示すタイプ別建築工程メモリ71は、タイプ別に複数の作業工程を含む建築工程を工期とともに設定したタイプ別建築工程ファイルを複数格納し、図中に示すように「タイプA建築工程ファイル、タイプB建築工程ファイル、・・・、タイプN建築工程ファイル等」を格納する。   The recording unit 7 includes a type-specific construction process memory 71 shown in FIG. The type-specific construction process memory 71 shown in FIG. 4 stores a plurality of type-specific construction process files in which a construction process including a plurality of work processes is set together with a construction period for each type. “Type B building process file,..., Type N building process file” are stored.

図4に格納されるタイプ別建築工程ファイルは、各タイプの建築工事で行うべき複数の作業工程の工種(仮設工事、基礎工事、建方工事、屋根板金樋工事等)、種別(地縄張り、遣り方、足場架け等)、工期及び各工程の計画画像(各作業行程の撮影の基準となる基準画像であり、完成予定のイメージ写真の画像等)のリンク先等の各データを対応付けて記憶するファイルである。図5に、タイプA建築工程ファイルの内容をスケジュールとして見られるように展開した図を示す。他のタイプB建築工程ファイルやタイプN建築工程ファイルについても同様のファイルが設定されている。   The type-specific building process file stored in FIG. 4 includes the types of work processes (temporary work, foundation work, building work, roof sheet metal work, etc.) and types (ground rope, (Links, scaffolding, etc.), construction schedule, and schedule images of each process (reference images that serve as the basis for shooting each work process, such as images of images to be completed) A file to remember. FIG. 5 shows a developed view of the contents of the type A building process file so that it can be seen as a schedule. Similar files are set for other type B construction process files and type N construction process files.

また、記録部7は、図6に示す撮影計画メモリ72を有する。この撮影計画情報メモリ72は、後述する撮影計画情報作成処理で作成される撮影計画情報(撮影すべき各作業行程の計画画像及びその文字情報からなる計画画像ファイル)を撮影計画情報に対応する工事件名と対応付けて格納するメモリである。   Further, the recording unit 7 has a shooting plan memory 72 shown in FIG. This shooting plan information memory 72 is a construction that corresponds to shooting plan information (planning image file consisting of a plan image of each work process to be shot and its character information) created in shooting plan information creation processing described later. This is a memory that is stored in association with the subject.

また、記録部7は、工事毎に、その工事の各作業行程の設計時に作成したCAD画像のデータを格納するCAD画像データ格納メモリ73を有する。   Further, the recording unit 7 has a CAD image data storage memory 73 for storing CAD image data created at the time of designing each work process of the construction for each construction.

通信制御部8は、アンテナ11が接続され、デジタルカメラ20a内の通信制御部28と無線通信可能な無線通信制御機能を有し、CPU2の制御により無線通信動作を実行し、デジタルカメラ20aとのデータ送受信を行う。   The communication control unit 8 is connected to the antenna 11 and has a wireless communication control function capable of wireless communication with the communication control unit 28 in the digital camera 20a. The communication control unit 8 executes a wireless communication operation under the control of the CPU 2 and is connected to the digital camera 20a. Send and receive data.

図7は、デジタルカメラ20aの機能的構成を示すブロック図である。図7において、デジタルカメラ20aは、CPU21、入力部22、RAM23、外部I/F24、表示部25、撮像部26、記録部27、通信制御部28により構成されており、各部はバス29により接続されている。   FIG. 7 is a block diagram showing a functional configuration of the digital camera 20a. In FIG. 7, the digital camera 20 a includes a CPU 21, an input unit 22, a RAM 23, an external I / F 24, a display unit 25, an imaging unit 26, a recording unit 27, and a communication control unit 28. Has been.

CPU21は、記録部27に記憶されているシステムプログラムを読み出し、RAM23内に形成されたワークエリアに展開し、該システムプログラムに従って各部を制御する。また、CPU21は、記録部27に記憶されている撮影処理プログラムを始めとする各種処理プログラムを読み出してワークエリアに展開し、後述する撮影処理を始めとする各種処理を実行する。   The CPU 21 reads a system program stored in the recording unit 27, develops it in a work area formed in the RAM 23, and controls each unit according to the system program. Further, the CPU 21 reads out various processing programs including a photographing processing program stored in the recording unit 27 and develops them in a work area, and executes various kinds of processing such as photographing processing described later.

入力部22は、電源スイッチ、シャッタースイッチ、表示部25の表示画面上で各種設定を行うためのボタン群(上下左右の方向ボタン、決定ボタン等)等を備え、その各スイッチ操作に応じた操作信号をCPU21に出力する。   The input unit 22 includes a power switch, a shutter switch, a button group (up / down / left / right direction buttons, a determination button, and the like) for performing various settings on the display screen of the display unit 25, and an operation corresponding to each switch operation. The signal is output to the CPU 21.

RAM23は、CPU21によって実行される各種プログラム及びこれらプログラムに係るデータを一時的に記憶するワークエリアを形成する。例えば、RAM23は、ワークエリアとして計画画像領域、画像領域1、画像領域2、ポインタm領域、ポインタn領域(いずれも図示せず)等を形成する。   The RAM 23 forms a work area for temporarily storing various programs executed by the CPU 21 and data related to these programs. For example, the RAM 23 forms a plan image area, an image area 1, an image area 2, a pointer m area, a pointer n area (none of which are shown) as work areas.

外部I/F24は、通信用ケーブル等によりパーソナルコンピュータ1内の外部I/F5と接続され、CPU21の制御によりパーソナルコンピュータ1内の外部I/F5との間でデータ送受信を行い、受信データをCPU21に出力するといった有線通信機能を有する。   The external I / F 24 is connected to the external I / F 5 in the personal computer 1 through a communication cable or the like, and performs data transmission / reception with the external I / F 5 in the personal computer 1 under the control of the CPU 21, and the received data is transferred to the CPU 21. Has a wired communication function such as

表示部25は、LCD等のモニタにより構成され、CPU21から入力される表示信号の指示に従って、各種画面を表示する。   The display unit 25 is configured by a monitor such as an LCD, and displays various screens in accordance with display signal instructions input from the CPU 21.

撮像部26は、ガラス又はプラスチックからなる光学レンズ、及びCCD(Charge Coupled Diode)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子、A/D変換器等により構成され、光学レンズを介して入力される被写体の光学画像を撮像素子で電気信号に変換し、更にA/D変換してデジタル画像(画像データ)を取得する。   The imaging unit 26 includes an optical lens made of glass or plastic, an imaging device such as a CCD (Charge Coupled Diode) or CMOS (Complementary Metal Oxide Semiconductor), an A / D converter, and the like, and is input via the optical lens. A digital image (image data) is obtained by converting an optical image of a subject to be converted into an electrical signal by an image sensor and further A / D converting.

記録部27は、フラッシュメモリなどの不揮発メモリ等により構成され、デジタルカメラ20aに対応するシステムプログラム、及び該システムプログラム上で実行可能な各種処理プログラム、アプリケーションプログラム及びこれらのプログラムで処理されたデータ等を記録する。   The recording unit 27 includes a non-volatile memory such as a flash memory, and includes a system program corresponding to the digital camera 20a, various processing programs that can be executed on the system program, application programs, data processed by these programs, and the like. Record.

この記録部27は、パーソナルコンピュータ1から受信された撮影計画情報を格納する撮影計画情報格納メモリ271を有する。   The recording unit 27 includes a shooting plan information storage memory 271 that stores shooting plan information received from the personal computer 1.

また、記録部27は、撮影された撮影画像を格納する撮影画像格納メモリ272を有する。   The recording unit 27 includes a captured image storage memory 272 that stores captured images.

通信制御部28は、アンテナ31が接続され、パーソナルコンピュータ1内の通信制御部8と無線通信可能な無線通信制御機能を有し、CPU21の制御により無線通信動作を実行し、パーソナルコンピュータ1とデータの送受信を行う。   The communication control unit 28 is connected to the antenna 31 and has a wireless communication control function capable of wireless communication with the communication control unit 8 in the personal computer 1. The communication control unit 28 executes a wireless communication operation under the control of the CPU 21, and Send and receive.

次に、本実施の形態の動作について説明する。
<撮影計画情報作成処理>
図8は、パーソナルコンピュータ1のCPU2により実行される撮影計画情報作成処理を示すフローチャートである。当該処理は、入力部3から撮影計画の作成が指示された際にCPU2と記録部7に記憶されている撮影計画情報作成処理プログラムとの協働によるソフトウエア処理により実現される処理である。以下、図8を参照して、撮影計画情報作成処理について説明する。
Next, the operation of the present embodiment will be described.
<Photographing plan information creation process>
FIG. 8 is a flowchart showing the shooting plan information creation process executed by the CPU 2 of the personal computer 1. This process is a process realized by software processing in cooperation with the CPU 2 and the shooting plan information creation processing program stored in the recording unit 7 when an instruction to create a shooting plan is given from the input unit 3. Hereinafter, the shooting plan information creation process will be described with reference to FIG.

まず、タイプ別建築工程メモリ71に格納されているタイプ別建築工程ファイルに応じた工事タイプ名の一覧が表示部6に表示され、入力部3により一覧の中から工事タイプ名が選択されると(ステップS1)、選択された工事タイプに応じたタイプの建築工程ファイルがタイプ別建築工程メモリ71から読み出され、表示部6の表示画面上にその内容が表示される(ステップS2)。入力部3により、表示された建築工事の作業工程の内容の確定が指示されず(ステップS3;NO)、編集が指示された場合は(ステップS4;YES)、入力部3からの入力に基づいて、読み出されたファイルの内容の編集が行われ(ステップS5)、処理はステップS3に戻る。   First, a list of construction type names corresponding to the type-specific construction process file stored in the type-specific construction process memory 71 is displayed on the display unit 6, and when the construction type name is selected from the list by the input unit 3. (Step S1), a construction process file of a type corresponding to the selected construction type is read from the construction process memory 71 by type, and the contents are displayed on the display screen of the display unit 6 (Step S2). If the input unit 3 does not instruct confirmation of the contents of the displayed construction work process (step S3; NO), and if editing is instructed (step S4; YES), it is based on the input from the input unit 3. Thus, the contents of the read file are edited (step S5), and the process returns to step S3.

ここで、タイプ別建築工程ファイルの各ファイルの内容は、各タイプの建築工事の標準的な作業工程となっており、図5で示したように、具体的な工事日程は設定されていない。実際の各工事の撮影計画では、各工程をいつ、どの順番で撮影するかの具体的な情報が必要となるため、ステップS5においては、実際の工事日付(撮影日付)及びその順序の入力が行われる。その他、実際の各工事の内容に応じて作業工程の追加、削除、日程変更が行われる。図9に、ステップS5における編集例を示す。   Here, the content of each file of the type-specific building process file is a standard work process of each type of building work, and no specific work schedule is set as shown in FIG. In the actual shooting plan for each construction, specific information on when and in what order each process is shot is required. Therefore, in step S5, the actual construction date (shooting date) and its order are input. Done. In addition, work processes are added, deleted, and the schedule is changed according to the actual contents of each construction. FIG. 9 shows an editing example in step S5.

ステップS3において、表示された建築工事の作業工程の内容が確定されると(ステップS3;YES)、計画画像がリンクされていない作業工程(例えば、ステップS5で追加された工程)の判別が行われ(ステップS6)、計画画像がリンクされていない作業工程がある場合は(ステップS7;YES)、作業工程名(ここでは、種別)が表示されるとともにCAD画像データ格納メモリ73から該当する作業工程に対するCAD画像のデータが読み出されて表示部6に表示される(ステップS8)。入力部3より、表示されたCAD画像へのリンクが指示された場合は(ステップS9;YES)、当該CAD画像がその作業工程にリンク付けされ(ステップS10)、処理はステップS7に戻る。   In step S3, when the content of the displayed work process of the building work is confirmed (step S3; YES), the work process to which the plan image is not linked (for example, the process added in step S5) is determined. If there is a work process to which the plan image is not linked (step S7; YES), the work process name (here, type) is displayed and the corresponding work is stored in the CAD image data storage memory 73. CAD image data for the process is read and displayed on the display unit 6 (step S8). When a link to the displayed CAD image is instructed from the input unit 3 (step S9; YES), the CAD image is linked to the work process (step S10), and the process returns to step S7.

一方、ステップS9において、CAD画像のリンクが指示されず(ステップS9;NO)、新たな画像の入力が指示された場合(ステップS11;YES)、新たな画像の入力及びその画像の作業工程へのリンク付けが行われ(ステップS12)、処理はステップS7へ戻る。   On the other hand, if the CAD image link is not instructed in step S9 (step S9; NO) and the input of a new image is instructed (step S11; YES), the input of the new image and the work process of the image are performed. Are linked (step S12), and the process returns to step S7.

ステップS7において、すべての作業工程に画像がリンク付けされていると判断されると(ステップS7;NO)、工事件名(撮影計画名)の入力画面が表示され、工事件名が入力されると(ステップS13)、編集された内容に基づいて各作業工程毎に計画画像ファイルが作成され、ステップS13で入力された工事件名と対応付けて記録部7の撮影計画メモリ72に格納され(ステップS14)、本処理は終了する。   If it is determined in step S7 that images are linked to all work processes (step S7; NO), a construction subject (shooting plan name) input screen is displayed, and a construction subject is entered ( In step S13), a plan image file is created for each work process based on the edited content, and stored in the shooting plan memory 72 of the recording unit 7 in association with the construction subject inputted in step S13 (step S14). This process ends.

図10に、計画画像ファイルの一例を示す。計画画像ファイルは、図10に示すように、各作業工程で撮影すべき対象の計画画像、撮影順番、計画画像に関する文字情報(工程名(工事件名+種別)、撮影日付等)により構成される。一工事で撮影すべき一連の作業行程に関する計画画像ファイルにより、一工事分の撮影計画情報が形成される。   FIG. 10 shows an example of the plan image file. As shown in FIG. 10, the plan image file is composed of a plan image to be photographed in each work process, a photographing order, and character information about the plan image (process name (construction subject name + type), photographing date, etc.). . Shooting plan information for one construction is formed by a plan image file relating to a series of work processes to be photographed in one construction.

<送信対象情報選択処理>
図11は、パーソナルコンピュータ1のCPU2により実行される送信対象情報選択処理を示すフローチャートである。当該処理は、上述の撮影計画情報作成処理で作成された撮影計画情報のうち、デジタルカメラ20aへの送信対象とする撮影計画情報を選択するための処理であり、入力部3からデジタルカメラ20aへ送信対象とする撮影計画情報の選択が指示された際にCPU2と記録部7に記憶されている送信対象情報選択処理プログラムとの協働によるソフトウエア処理により実現される。以下、図11を参照して、送信対象情報選択処理について説明する。
<Transmission target information selection process>
FIG. 11 is a flowchart showing a transmission target information selection process executed by the CPU 2 of the personal computer 1. This process is a process for selecting the shooting plan information to be transmitted to the digital camera 20a from the shooting plan information created by the above-described shooting plan information creation process, from the input unit 3 to the digital camera 20a. This is realized by software processing in cooperation with the CPU 2 and the transmission target information selection processing program stored in the recording unit 7 when the selection of the shooting plan information to be transmitted is instructed. Hereinafter, the transmission target information selection process will be described with reference to FIG.

まず、表示部6に、撮影計画メモリ72に格納されている撮影計画情報に対応する工事件名の一覧が表示され、デジタルカメラ20aへの送信対象となる撮影計画情報に対応する工事件名が選択されると(ステップS21)、選択された撮影計画情報に含まれるの全計画画像、即ち、選択された工事件名の工事の全作業工程分の計画画像がサムネイル表示される(ステップS22)。表示部6の一画面で全工程の画像表示が不可能な場合は、入力部3による画面スクロール等に基づき全工程分の画像が表示される。   First, a list of construction subjects corresponding to the photographing plan information stored in the photographing plan memory 72 is displayed on the display unit 6, and a construction subject corresponding to the photographing plan information to be transmitted to the digital camera 20a is selected. Then (step S21), all plan images included in the selected shooting plan information, that is, plan images for all work steps of the construction with the selected construction subject are displayed as thumbnails (step S22). When it is impossible to display images for all processes on one screen of the display unit 6, images for all processes are displayed based on screen scrolling by the input unit 3.

入力部3により、表示された全作業工程の計画画像の確定が指示入力されず(ステップS23;NO)、編集が指示された場合は(ステップS24;YES)、編集対象画像の指定及び編集が行われ(ステップS25)、処理はステップS22に戻る。ここでは、サムネイル表示された全作業工程の計画画像を、実際の設計図等に基づき、デジタルカメラ20aへの送信前に見直し、必要に応じて画像を編集することができる。   If the input unit 3 does not input an instruction to confirm the displayed plan images for all the work processes (step S23; NO), and if editing is instructed (step S24; YES), the editing target image is specified and edited. Performed (step S25), the process returns to step S22. Here, the plan images of all the work processes displayed as thumbnails can be reviewed before being transmitted to the digital camera 20a on the basis of actual design drawings and the like, and the images can be edited as necessary.

ステップS23において、確定が指示されると(ステップS23;YES)、ステップS21で選択された工事件名に対応する撮影計画情報(編集された画像を含む)がデジタルカメラ20aへの送信対象とされ、RAM4の送信対象領域に格納され(ステップS26)、本処理は終了する。   When confirmation is instructed in step S23 (step S23; YES), shooting plan information (including the edited image) corresponding to the construction subject selected in step S21 is set as a transmission target to the digital camera 20a. The data is stored in the transmission target area of the RAM 4 (step S26), and this process ends.

パーソナルコンピュータ1において、通信制御部8を介してデジタルカメラ20aからの接続要求が受信されると、RAM4の送信対象領域に格納された撮影計画情報が読み出され、デジタルカメラ20aに送信され、RAM4の送信対象領域内のデータがクリアされる。デジタルカメラ20aにおいては、パーソナルコンピュータ1から送信された撮影計画情報が受信され、記録部27の撮影計画情報格納メモリ271に記憶される。   When the personal computer 1 receives a connection request from the digital camera 20a via the communication control unit 8, the shooting plan information stored in the transmission target area of the RAM 4 is read out and transmitted to the digital camera 20a. The data in the transmission target area is cleared. In the digital camera 20 a, the shooting plan information transmitted from the personal computer 1 is received and stored in the shooting plan information storage memory 271 of the recording unit 27.

このように、撮影システム100、200においては、外部のパーソナルコンピュータ1で作成された撮影計画情報に従ってデジタルカメラ20aで撮影を行うことが可能である。   As described above, in the imaging systems 100 and 200, it is possible to perform imaging with the digital camera 20a in accordance with the imaging plan information created by the external personal computer 1.

<撮影処理>
図12は、デジタルカメラ20aのCPU21により実行される撮影処理を示すフローチャートである。当該処理は、電源がオンされた際に、CPU21と記録部27に記憶されている撮影処理プログラムとの協働によるソフトウエア処理により実現される処理である。以下、図12を参照して、撮影処理について説明する。
<Shooting process>
FIG. 12 is a flowchart showing a photographing process executed by the CPU 21 of the digital camera 20a. This processing is realized by software processing in cooperation with the CPU 21 and the photographing processing program stored in the recording unit 27 when the power is turned on. Hereinafter, the photographing process will be described with reference to FIG.

まず、表示部25に初期画面が表示され(ステップS31)、初期画面上から撮影計画情報を使用して撮影を行うか否かの指定が行われる(ステップS32)。撮影計画情報を使用して撮影を行うことが指定された場合(ステップS33;YES)、計画画像選択処理が行われる(ステップS34)。撮影計画情報を使用して撮影を行わないことが指定された場合(ステップS33;NO)、通常の撮影処理、即ち、次に撮影すべき作業工程のガイダンスを行わず、シャッターが押下されて撮影された画像をそのまま撮影画像格納メモリ272に記録する処理が実行される(ステップS42)。   First, an initial screen is displayed on the display unit 25 (step S31), and whether or not to shoot using the shooting plan information is specified from the initial screen (step S32). When it is designated to perform shooting using the shooting plan information (step S33; YES), a planned image selection process is performed (step S34). When it is specified that shooting is not performed using the shooting plan information (step S33; NO), normal shooting processing, that is, guidance of a work process to be shot next is not performed, and the shutter is pressed and shooting is performed. A process of recording the image as it is in the captured image storage memory 272 is executed (step S42).

図13に、ステップS34で実行される計画画像選択処理のフローチャートを示す。この計画画像選択処理では、その日に撮影が予定されている作業工程の計画画像を、その日の撮影のガイダンスに用いる計画画像として選択するものである。なお、デジタルカメラ20aに複数の工事に対する撮影計画情報が記憶されている場合、その複数の工事間で工期の重複はないものとする。   FIG. 13 shows a flowchart of the planned image selection process executed in step S34. In this plan image selection process, a plan image of a work process scheduled to be shot on that day is selected as a plan image to be used for shooting guidance for that day. When shooting plan information for a plurality of constructions is stored in the digital camera 20a, it is assumed that there is no duplication of work periods among the plurality of constructions.

まず、ポインタmに1が設定される(ステップT1)。次いで、デジタルカメラ20aのシステムから日付情報が読み込まれ(ステップT2)、撮影計画情報格納メモリ271に格納されている撮影計画情報のm番目の計画画像ファイルが選択され、その撮影日付情報が読み込まれる(ステップT3)。次いで、読み込まれたシステムの日付情報と撮影日付情報が比較され、一致すると判断された場合(ステップT4;YES)、選択されている計画画像ファイルがRAM23の計画画像領域に保存され(ステップT5)、処理はステップT6へ移行する。読み込まれたシステムの日付情報と撮影日付情報が一致しないと判断された場合(ステップT4;NO)、処理はステップT6へ移行する。   First, 1 is set to the pointer m (step T1). Next, date information is read from the system of the digital camera 20a (step T2), the mth plan image file of the shooting plan information stored in the shooting plan information storage memory 271 is selected, and the shooting date information is read. (Step T3). Next, the date information of the read system and the shooting date information are compared, and if it is determined that they match (step T4; YES), the selected plan image file is stored in the plan image area of the RAM 23 (step T5). The process proceeds to step T6. If it is determined that the date information of the read system and the shooting date information do not match (step T4; NO), the process proceeds to step T6.

ステップT6において、ポインタm<撮影計画情報格納メモリ271の全計画画像ファイル数であるか否かが判断され、m<全計画画像ファイル数である場合(ステップT6;YES)、mがインクリメントされ(ステップT7)、ステップT3〜T6の処理が実行される。m≧全計画画像ファイル数であると判断された場合(ステップT6;NO)、RAM23の計画画像領域に保存された計画画像ファイルが、以降の各種処理で使用される、有効な計画画像ファイルとして選択され(ステップT8)、撮影順番でソートされ(ステップT9)、処理は図12のステップS35に移行する。   In step T6, it is determined whether or not the pointer m <the number of all plan image files in the photographing plan information storage memory 271. If m <the number of all plan image files (step T6; YES), m is incremented ( Steps T7) and T3 to T6 are executed. When it is determined that m ≧ the total number of plan image files (step T6; NO), the plan image file stored in the plan image area of the RAM 23 is used as an effective plan image file used in various processes thereafter. Selected (step T8) and sorted in the shooting order (step T9), the process proceeds to step S35 in FIG.

上記計画画像選択処理により、その日に撮影するものとして計画された計画画像のファイルが自動的に選択され、選択された計画画像ファイルを使用して撮影順のガイダンスが行われる。   By the plan image selection process, a plan image file planned to be shot on that day is automatically selected, and shooting order guidance is performed using the selected plan image file.

図12のステップS35において、RAM23のポインタnに1がセットされ(ステップS35)、RAM23の計画画像領域に格納されている計画画像ファイルのうちn番目のファイルの計画画像及びその文字情報(撮影順番、工程名称、等)が読み出されて表示部25に表示され、次に撮影すべき作業工程のガイダンス(案内表示)が行われる(ステップS36)。ここで計画画像とともにこの計画画像に関する文字情報をガイダンスすることで、撮影者が次に撮影すべき対象を認識しやすくなる。シャッタースイッチの押下が検知されると(ステップS37;YES)、画像照合処理が実行される(ステップS38)。   In step S35 of FIG. 12, 1 is set to the pointer n of the RAM 23 (step S35), and the plan image of the nth file among the plan image files stored in the plan image area of the RAM 23 and its character information (shooting order). , Process name, etc.) are read out and displayed on the display unit 25, and guidance (guidance display) of the work process to be photographed next is performed (step S36). Here, guidance of the character information related to the plan image together with the plan image makes it easier for the photographer to recognize the object to be photographed next. When pressing of the shutter switch is detected (step S37; YES), an image collation process is executed (step S38).

図14に、ステップS38で実行される画像照合処理のフローチャートを示す。
まず、計画画像領域に格納されているn番目の計画画像ファイルの計画画像のデータがRAM23の画像領域2に読み込まれ(ステップT11)、シャッターの押下により撮像部26により取得されたデジタル画像、即ち、撮影画像のデータがRAM23の画像領域1に読み込まれる(ステップT12)。次いで、画像領域1の画像と画像領域2の画像との画像照合が行われ、一致率が算出される(ステップT13)。
FIG. 14 shows a flowchart of the image matching process executed in step S38.
First, the plan image data of the nth plan image file stored in the plan image area is read into the image area 2 of the RAM 23 (step T11), that is, the digital image acquired by the imaging unit 26 by pressing the shutter, ie, The captured image data is read into the image area 1 of the RAM 23 (step T12). Next, image matching between the image in the image area 1 and the image in the image area 2 is performed, and a matching rate is calculated (step T13).

一致率は、計画画像及び撮影画像の画像を照合し、双方の画像における特定部分の領域(例えば、人物なら顔領域)の類似度、被写体の配置、配色等に応じて算出される。画像照合を行う際には、計画画像の拡大、縮小を行って、2つの画像の照合が行われる。計画画像を3D(dimension)画像とし、計画画像を回転させて照合を行うようにしてもよい。閾値は、計画画像毎、撮影計画情報毎に設定されるようにしてもよい。   The matching rate is calculated according to the similarity of the area of a specific portion (for example, a face area for a person) in both images, the arrangement of the subject, the color scheme, and the like by comparing the plan image and the captured image. When performing image collation, the plan image is enlarged and reduced to collate the two images. The plan image may be a 3D (dimension) image, and collation may be performed by rotating the plan image. The threshold value may be set for each plan image and each shooting plan information.

算出された一致率が予め設定された閾値以上であると判断されると(ステップT14;YES)、撮影画像が表示部25に表示されるとともに、計画どおりに作業工程の撮影が行われた旨がガイダンスされる(ステップT15)。
また、n番目の計画画像ファイルに撮影済みフラグが付加され(ステップT16)、画像領域1に格納されている撮影画像のデータに、n番目の計画画像ファイルの工程名称及び撮影順番が付加されて記録部27の撮影画像格納メモリ272に記憶されることにより、撮影画像が計画画像と対応付けて記憶され(ステップT17)、処理は図12のステップS39に移行する。
When it is determined that the calculated coincidence rate is equal to or higher than a preset threshold value (step T14; YES), a photographed image is displayed on the display unit 25, and the work process is photographed as planned. Is guided (step T15).
In addition, a captured flag is added to the nth plan image file (step T16), and the process name and the shooting order of the nth plan image file are added to the data of the shot image stored in the image area 1. By memorize | storing in the picked-up image storage memory 272 of the recording part 27, a picked-up image is matched and memorize | stored with a plan image (step T17), and a process transfers to step S39 of FIG.

一方、算出された一致率が予め設定された閾値を超えないと判断された場合(ステップT14;NO)、撮り直しを促すガイダンス及びn番目の計画画像とその工程名称が表示部25に表示される(ステップT18)。計画画像の工程名称は、強調表示(点滅させる等)される。シャッタースイッチが押下されると(ステップT19)、処理はステップT12に戻り、ステップT12以降の処理が繰り返し実行される。シャッタースイッチが押下されず、入力部22から当該工程の撮影のスキップが指示されると(ステップT20;YES)、処理は図12のステップS39に移行する。なお、スキップされた工程、即ち、未撮影の画像は、適宜読み出して表示部25に計画画像を表示し、撮影を行うことができる。   On the other hand, when it is determined that the calculated coincidence rate does not exceed a preset threshold (step T14; NO), guidance for prompting reshooting, the nth plan image, and its process name are displayed on the display unit 25. (Step T18). The process name of the plan image is highlighted (flashed, etc.). When the shutter switch is pressed (step T19), the process returns to step T12, and the processes after step T12 are repeatedly executed. If the shutter switch is not pressed and the input unit 22 instructs to skip shooting of the process (step T20; YES), the process proceeds to step S39 in FIG. Note that the skipped process, that is, an unphotographed image can be read out as appropriate, and the planned image can be displayed on the display unit 25 for photographing.

図12のステップS39においては、n<計画画像領域に格納された全計画画像ファイル数、であるか否かが判断され、n<全計画画像ファイル数であると判断されると(ステップS39;YES)、nがインクリメントされ、処理はステップS36に戻る。n<全計画画像ファイル数ではない、即ち、n≧全計画画像ファイル数であると判断されると(ステップS39;NO)、本処理は終了する。また、ステップS37においてシャッタースイッチが押下されず(ステップS37;NO)、入力部22によりモード替えが指示された場合(ステップS41;YES)、本処理は終了する。   In step S39 of FIG. 12, it is determined whether or not n <the number of all plan image files stored in the plan image area, and if n <the number of all plan image files is determined (step S39; YES), n is incremented, and the process returns to step S36. If it is determined that n <the number of all plan image files is not satisfied, i.e., n ≧ the number of all plan image files (step S39; NO), this process ends. If the shutter switch is not pressed in step S37 (step S37; NO) and the mode change is instructed by the input unit 22 (step S41; YES), this process ends.

以上説明したように、本発明に係る撮影システム100、200によれば、デジタルカメラ20aの記録部27に、工事の各作業行程の計画画像及びその情報(工程名称等)を記憶しておき、シャッタースイッチが押下され撮影が行われると撮影画像と計画画像の画像照合が行われて一致率が算出され、一致率が予め設定された閾値以上であると判断されると、次に撮影すべき作業工程の計画画像およびその名称等の文字情報が表示され、撮影のガイダンスが行われる。   As described above, according to the photographing systems 100 and 200 according to the present invention, the plan image of each work process of construction and information thereof (process name, etc.) are stored in the recording unit 27 of the digital camera 20a. When the shutter switch is pressed and shooting is performed, the captured image and the planned image are collated to calculate the coincidence rate. If it is determined that the coincidence rate is equal to or higher than a preset threshold value, the next image should be captured. Character information such as a plan image of the work process and its name is displayed, and shooting guidance is performed.

従って、撮影者は、次に撮影すべき作業工程を画像で確認することができるので、容易に次に撮影すべき工程を認識することができ、撮影計画された一連の作業工程を撮影する際の撮影効率が向上し、撮影計画された順番どおりに、もれなく確実に撮影を行うことができるようになる。   Accordingly, since the photographer can confirm the work process to be photographed next with an image, the photographer can easily recognize the process to be photographed next, and when photographing a series of work processes planned for photographing. The shooting efficiency is improved, and it becomes possible to reliably perform shooting in the order planned for shooting.

なお、上記実施形態1における記述内容は、本発明に係る撮影システム100、200の好適な一例であり、これに限定されるものではない。   In addition, the description content in the said Embodiment 1 is a suitable example of the imaging | photography systems 100 and 200 which concern on this invention, and is not limited to this.

例えば、上記実施形態においては、建設工事現場の各作業行程の写真を撮影計画に基づき撮影する場合を例にとり説明したが、結婚式等のイベントにおいて、進行に合わせて順番に撮影場面が決められた撮影計画や、点検する箇所及び順番が決められた点検業務の撮影計画等においても、本発明を適用することができる。   For example, in the above embodiment, the case where a photograph of each work process at a construction site is taken based on a shooting plan has been described as an example. However, in an event such as a wedding, shooting scenes are determined in order according to progress. The present invention can also be applied to a shooting plan, a shooting plan for inspection work in which the location and order of inspection are determined, and the like.

結婚式の撮影計画では、パーソナルコンピュータ1において、当日着用する衣装を着用した人物による各場面(例えば、新郎新婦入場、新郎新婦ケーキ入刀等)の画像と、新郎新婦の顔写真の画像とを合成して計画画像を作成し、各計画画像にその撮影順番、場面の名称を付加して計画画像ファイルを作成して、その結婚式の撮影計画情報とし、デジタルカメラ20aへ送信する。デジタルカメラ20aにおいては、上述の撮影処理により、計画画像に基づき、次に撮影すべき場面のガイダンスを行う。   In the wedding photography plan, the personal computer 1 includes images of scenes (for example, entrance to the bride and groom, entrance to the bride and groom cake), and images of the bride and groom's face photos. A plan image is synthesized to create a plan image file by adding the shooting order and scene name to each plan image and sending it to the digital camera 20a as shooting plan information for the wedding. In the digital camera 20a, guidance of a scene to be photographed next is performed based on the planned image by the above-described photographing process.

撮影を行う機器としては、デジタルカメラ20aで撮影を行うこととしたが、例えば、PHS、カメラ一体型のパーソナルコンピュータ、ウェアラブルコンピュータ、デジタルムービー等で通信機能及び撮影機能を備えた装置であれば適用可能である。   As a device for taking a picture, the digital camera 20a is used for taking a picture. However, for example, a PHS, a camera-integrated personal computer, a wearable computer, a digital movie, or the like is applicable to any apparatus having a communication function and a photographing function. Is possible.

また、種々の観光地ガイド画像を旅行の日程順にデジタルカメラ20aに設定しておき、お勧めの場所での撮影を案内するようにしてもよい。   In addition, various sightseeing spot guide images may be set in the digital camera 20a in the order of travel dates, and shooting at recommended locations may be guided.

その他、撮影システム100、200を構成する各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each apparatus constituting the photographing systems 100 and 200 can be changed as appropriate without departing from the spirit of the present invention.

〔実施形態2〕
次に、本発明の実施形態2について説明する。
実施形態2で説明するデジタルカメラ20bは、各種ポーズをとる際の基準となるポーズデータを予め記憶しておき、撮影時に、レンズを介して入力される撮影対象の画像を取り込んでポーズデータとの一致率を算出して表示することにより、被写体が撮りたいポーズとどれだけ近い状態であるかを撮影者に示し、撮影者が撮影タイミングを判断しやすいように支援するものである。
[Embodiment 2]
Next, Embodiment 2 of the present invention will be described.
The digital camera 20b described in the second embodiment stores pose data as a reference when taking various poses in advance, and captures an image to be photographed input via a lens at the time of photographing, By calculating and displaying the coincidence rate, the photographer is shown how close the subject is to the pose that he / she wants to shoot, and assists the photographer in easily determining the shooting timing.

まず、構成を説明する。
図15は、本実施形態2におけるデジタルカメラ20bの背面を示す模式図である。
図16は、本実施形態2におけるデジタルカメラ20bの機能的構成を示すブロック図である。
デジタルカメラ20bは、図16に示すように、図7で説明したデジタルカメラ20aの構成に、記録媒体接続部30を追加した構成であり、記録媒体接続部30に挿入された可搬型の記録媒体Mに記録されたデータの読み出しが可能となっている。なお、本実施形態2においては、外部I/F24、通信制御部28は、必須構成ではない。
First, the configuration will be described.
FIG. 15 is a schematic diagram illustrating the back surface of the digital camera 20b according to the second embodiment.
FIG. 16 is a block diagram illustrating a functional configuration of the digital camera 20b according to the second embodiment.
As shown in FIG. 16, the digital camera 20 b has a configuration in which a recording medium connection unit 30 is added to the configuration of the digital camera 20 a described in FIG. 7, and a portable recording medium inserted into the recording medium connection unit 30. The data recorded in M can be read. In the second embodiment, the external I / F 24 and the communication control unit 28 are not essential components.

CPU21は、記録部27に記憶されているシステムプログラムを読み出し、RAM23内に形成されたワークエリアに展開し、該システムプログラムに従って各部を制御する。また、CPU21は、入力部22からの指示に応じて、記録部27に記憶されているポーズデータ登録処理プログラム、ポーズデータ削除処理プログラム、ポーズデータ選択処理プログラム、背景画像登録処理プログラム、ポーズ撮影処理プログラムを始めとする各種処理プログラムを読み出してワークエリアに展開し、後述するポーズデータ登録処理、ポーズデータ削除処理、ポーズデータ選択処理、背景画像登録処理、ポーズ撮影処理を始めとする各種処理を実行する。   The CPU 21 reads a system program stored in the recording unit 27, develops it in a work area formed in the RAM 23, and controls each unit according to the system program. Also, the CPU 21 responds to an instruction from the input unit 22 with a pose data registration processing program, a pose data deletion processing program, a pose data selection processing program, a background image registration processing program, and a pose shooting process stored in the recording unit 27. Various processing programs such as programs are read and expanded in the work area, and various processes such as pose data registration processing, pose data deletion processing, pose data selection processing, background image registration processing, and pose shooting processing described later are executed. To do.

入力部22は、図15に示すボタン群22a(上下左右のカーソルボタン、決定ボタン)、シャッタースイッチ22b、図示しない電源スイッチ等を備え、その各スイッチ操作に応じた操作信号をCPU21に出力する。   The input unit 22 includes a button group 22a (up / down / left / right cursor buttons and a determination button), a shutter switch 22b, a power switch (not shown), and the like shown in FIG. 15 and outputs an operation signal corresponding to each switch operation to the CPU 21.

RAM23は、CPU21によって実行される各種プログラム及びこれらプログラムに係るデータを一時的に記憶するワークエリアを形成する。
例えば、RAM23は、後述するポーズ選択処理において選択されたポーズデータを格納する選択ポーズデータ格納領域231、背景画像登録処理において登録された背景画像を格納する背景画像格納領域232、ポインタN領域(図示せず)を形成する。
The RAM 23 forms a work area for temporarily storing various programs executed by the CPU 21 and data related to these programs.
For example, the RAM 23 stores a selected pose data storage area 231 for storing pose data selected in a pose selection process described later, a background image storage area 232 for storing a background image registered in the background image registration process, and a pointer N area (see FIG. (Not shown).

表示部25は、図15に示すLCD25aにより構成され、CPU21から入力される表示信号の指示に従って、メニュー画面を始めとする各種画面、画像を表示する。   The display unit 25 is composed of the LCD 25a shown in FIG. 15, and displays various screens and images including a menu screen in accordance with instructions of display signals input from the CPU 21.

撮像部26は、ガラス又はプラスチックからなる光学レンズ、及びCCDやCMOS等の撮像素子、A/D変換器等により構成され、光学レンズを介して入力される被写体の光学画像を撮像素子で電気信号に変換し、更にA/D変換してデジタル画像を取得する。   The imaging unit 26 includes an optical lens made of glass or plastic, an imaging element such as a CCD or CMOS, an A / D converter, and the like, and an optical image of a subject input via the optical lens is converted into an electrical signal by the imaging element. And A / D conversion to obtain a digital image.

記録部27は、図16に示すように、ポーズデータ格納領域273、撮影済み画像格納領域274を有している。   As shown in FIG. 16, the recording unit 27 has a pause data storage area 273 and a captured image storage area 274.

記録媒体接続部30は、メモリカード、SDカード(Secure Digital memory card)等の可搬型の記録媒体Mを挿入するためのスロットを備え、スロットに挿入された記録媒体Mとデータの入出力を行うためのインターフェースである。   The recording medium connection unit 30 includes a slot for inserting a portable recording medium M such as a memory card or an SD card (Secure Digital memory card), and inputs / outputs data to / from the recording medium M inserted in the slot. It is an interface for.

次に、実施形態2の動作について説明する。
なお、以下に説明する各処理は、電源ON時、或いは入力部22からの指示により表示部25に表示されるメニュー画面251(図17参照)において、ボタン群22aが操作され、処理が選択されることにより実行される。ポーズデータ登録処理(図18参照)は、ポーズデータを登録するための処理であり、ポーズデータ選択処理(図20参照)は、被写体にとらせたいポーズデータを選択するための処理であり、背景画像登録処理(図21参照)は、実際に撮影する背景の画像を登録する処理である。ポーズ撮影処理(図22参照)はこれらの処理における登録、選択に基づいて行われる。
Next, the operation of the second embodiment will be described.
Each process described below is performed by operating the button group 22a on the menu screen 251 (see FIG. 17) displayed on the display unit 25 when the power is turned on or in response to an instruction from the input unit 22. To be executed. The pose data registration process (see FIG. 18) is a process for registering pose data, and the pose data selection process (see FIG. 20) is a process for selecting pose data to be taken by the subject. The image registration process (see FIG. 21) is a process for registering a background image to be actually captured. The pause shooting process (see FIG. 22) is performed based on registration and selection in these processes.

<ポーズデータ登録処理>
図18は、デジタルカメラ20bのCPU21により実行されるポーズデータ登録処理を示すフローチャートである。当該処理は、CPU21と記録部27に記憶されているポーズデータ登録処理プログラムとの協働によるソフトウエア処理により実現される。
<Pause data registration process>
FIG. 18 is a flowchart showing pause data registration processing executed by the CPU 21 of the digital camera 20b. This processing is realized by software processing in cooperation with the CPU 21 and the pause data registration processing program stored in the recording unit 27.

ここで、ポーズデータは、撮影の際、被写体のポーズの基準となる基準画像であり、本実施形態2においては、ポーズデータを記録媒体Mから取り込むこととして説明する。なお、ポーズデータは、この他、外部I/F24や通信制御部28から取り込むことも可能である。   Here, the pose data is a reference image that serves as a reference for the pose of the subject at the time of shooting. In the second embodiment, the pose data is described as being taken from the recording medium M. In addition, the pause data can also be taken in from the external I / F 24 or the communication control unit 28.

まず、記録媒体接続部30への記録媒体Mの挿入が待機され、記録媒体Mの挿入が検知されると(ステップS101)、ポインタNに1が設定され(ステップS102)、挿入された記録媒体Mに記録されている画像データのうち、N番目の画像が表示部25に表示され(ステップS103)、ボタン群22aの押下が待機される。ボタン群22aからボタンが押下されると、押下されたボタンで処理が分岐される(ステップS104)。   First, the insertion of the recording medium M to the recording medium connection unit 30 is waited. When the insertion of the recording medium M is detected (step S101), 1 is set to the pointer N (step S102), and the inserted recording medium is inserted. Of the image data recorded in M, the Nth image is displayed on the display unit 25 (step S103), and the pressing of the button group 22a is awaited. When a button is pressed from the button group 22a, the process branches at the pressed button (step S104).

左カーソルボタンが押下されて「戻る」が指示されると(ステップS104;戻る)、N>1の場合にのみポインタNにN−1が設定され(ステップS105)、処理はステップS103に戻る。右カーソルボタンが押下されて「進む」が指示されると(ステップS104;進む)、N<記録媒体Mの総画像数である場合にのみポインタNにN+1が設定され(ステップS106)、処理はステップS103に戻る。決定ボタンが押下されて「選択」が指示されると(ステップS104;選択)、N番目の画像のデータが記録媒体接続部30を介して記録媒体Mから取りこまれてポーズデータ格納領域273に格納され(ステップS107)、本処理は終了する。   When the left cursor button is pressed and "return" is instructed (step S104; return), N-1 is set to the pointer N only when N> 1 (step S105), and the process returns to step S103. When the right cursor button is pressed and “advance” is instructed (step S104; advance), the pointer N is set to N + 1 only when N <the total number of images on the recording medium M (step S106), and the process is as follows. The process returns to step S103. When the determination button is pressed and “selection” is instructed (step S104; selection), the data of the Nth image is taken from the recording medium M via the recording medium connection unit 30 and is stored in the pause data storage area 273. Stored (step S107), the process ends.

<ポーズデータ削除処理>
図19は、デジタルカメラ20bのCPU21により実行されるポーズデータ削除処理を示すフローチャートである。当該処理は、CPU21と記録部27に記憶されているポーズデータ削除処理プログラムとの協働によるソフトウエア処理により実現される。
<Pause data deletion process>
FIG. 19 is a flowchart showing pause data deletion processing executed by the CPU 21 of the digital camera 20b. This processing is realized by software processing in cooperation with the CPU 21 and the pause data deletion processing program stored in the recording unit 27.

まず、ポインタNに1が設定され(ステップS111)、ポーズデータ格納領域に格納されているポーズデータのうち、N番目のポーズデータが表示部25に表示され(ステップS112)、ボタン群22aの押下が待機される。ボタン群22aからボタンが押下されると、押下されたボタンで処理が分岐される(ステップS113)。   First, 1 is set to the pointer N (step S111), and among the pose data stored in the pose data storage area, the Nth pose data is displayed on the display unit 25 (step S112), and the button group 22a is pressed. Waits. When a button is pressed from the button group 22a, the process branches at the pressed button (step S113).

左カーソルボタンが押下されて「戻る」が指示されると(ステップS113;戻る)、N>1の場合にのみポインタNにN−1が設定され(ステップS114)、処理はステップS112に戻る。右カーソルボタンが押下されて「進む」が指示されると(ステップS113;進む)、N<総ポーズデータ数(ポーズデータ格納領域273の総ポーズデータ数)である場合にのみポインタNにN+1が設定され(ステップS115)、処理はステップS112に戻る。決定ボタンが押下されて「選択」が指示されると(ステップS113;選択)、N番目のポーズデータがポーズデータ格納領域273から削除され(ステップS116)、本処理は終了する。   When the left cursor button is pressed and “return” is instructed (step S113; return), N−1 is set to the pointer N only when N> 1 (step S114), and the process returns to step S112. When the right cursor button is pressed and “advance” is instructed (step S113; advance), N + 1 is added to the pointer N only when N <total number of pose data (total number of pose data in the pose data storage area 273). The setting is made (step S115), and the process returns to step S112. When the determination button is pressed to instruct “selection” (step S113; selection), the Nth pose data is deleted from the pose data storage area 273 (step S116), and this process ends.

<ポーズデータ選択処理>
図20は、デジタルカメラ20bのCPU21により実行されるポーズデータ選択処理を示すフローチャートである。当該処理は、CPU21と記録部27に記憶されているポーズデータ選択処理プログラムとの協働によるソフトウエア処理により実現される。
<Pause data selection process>
FIG. 20 is a flowchart showing pause data selection processing executed by the CPU 21 of the digital camera 20b. This processing is realized by software processing in cooperation with the CPU 21 and the pause data selection processing program stored in the recording unit 27.

まず、ポインタNに1が設定され(ステップS121)、ポーズデータ格納領域273に格納されているポーズデータのうち、N番目のポーズデータが表示部25に表示され(ステップS122)、ボタン群22aの押下が待機される。ボタン群22aからボタンが押下されると、押下されたボタンで処理が分岐される(ステップS123)。   First, 1 is set to the pointer N (step S121), and among the pose data stored in the pose data storage area 273, the Nth pose data is displayed on the display unit 25 (step S122), and the button group 22a is displayed. Pressing waits. When a button is pressed from the button group 22a, the process branches at the pressed button (step S123).

左カーソルボタンが押下されて「戻る」が指示されると(ステップS123;戻る)、N>1の場合にのみポインタNにN−1が設定され(ステップS124)、処理はステップS122に戻る。右カーソルボタンが押下されて「進む」が指示されると(ステップS123;進む)、N<総ポーズデータ数(ポーズデータ格納領域273の総ポーズデータ数)である場合にのみポインタNにN+1が設定され(ステップS125)、処理はステップS122に戻る。決定ボタンが押下されて「選択」が指示されると(ステップS123;選択)、N番目のポーズデータが選択ポーズデータ格納領域231に格納され(ステップS126)、本処理は終了する。   When the left cursor button is pressed and “return” is instructed (step S123; return), N−1 is set to the pointer N only when N> 1 (step S124), and the process returns to step S122. When the right cursor button is pressed and “advance” is instructed (step S123; advance), N + 1 is added to the pointer N only when N <total number of pose data (total number of pose data in the pose data storage area 273). The setting is made (step S125), and the process returns to step S122. When the determination button is pressed and “select” is instructed (step S123; selection), the Nth pose data is stored in the selected pose data storage area 231 (step S126), and this process ends.

<背景画像登録処理>
図21は、デジタルカメラ20bのCPU21により実行される背景画像登録処理を示すフローチャートである。当該処理は、CPU21と記録部27に記憶されている背景画像登録処理プログラムとの協働によるソフトウエア処理により実現される。
<Background image registration processing>
FIG. 21 is a flowchart showing background image registration processing executed by the CPU 21 of the digital camera 20b. This processing is realized by software processing in cooperation with the CPU 21 and the background image registration processing program stored in the recording unit 27.

撮像部26において、光学レンズを介して入力される画像のデータが取り込まれ(ステップS131)、背景画像格納領域232に格納される(ステップS132)。   In the imaging unit 26, image data input via the optical lens is captured (step S131) and stored in the background image storage area 232 (step S132).

<ポーズ撮影処理>
図22は、デジタルカメラ20bのCPU21により実行されるポーズ撮影処理を示すフローチャートである。当該処理は、CPU21と記録部27に記憶されているポーズ撮影処理プログラムとの協働によるソフトウエア処理により実現される。なお、当該処理の前には、上述のポーズ選択処理において、被写体にとらせたい、撮影の際に基準となるポーズのポーズデータが選択され、背景画像登録処理において、撮影する際の背景画像が登録されているものとする。
<Pause shooting process>
FIG. 22 is a flowchart showing a pause shooting process executed by the CPU 21 of the digital camera 20b. This processing is realized by software processing in cooperation with the CPU 21 and the pause shooting processing program stored in the recording unit 27. Prior to this process, the pose data of a pose that is a reference when shooting is selected in the above-described pose selection process, and the background image at the time of shooting is selected in the background image registration process. It shall be registered.

まず、撮像部26において、光学レンズを介して入力されるデジタル画像、即ち、撮影対象の画像のデータが取り込まれ(ステップS141)、シャッタースイッチ22bが押下されなけば(ステップS142;NO)、被写体抽出処理が行われる(ステップS143)。   First, in the imaging unit 26, a digital image input via an optical lens, that is, data of an image to be captured is captured (step S141), and the subject is not pressed if the shutter switch 22b is not pressed (step S142; NO). An extraction process is performed (step S143).

図23は、ステップS143でCPU21により実行される被写体抽出処理を示すフローチャートである。
まず、ステップS143で取り込まれた撮影対象の画像と背景画像格納領域232に格納されている背景画像との差分が計算される(ステップT101)。
FIG. 23 is a flowchart showing subject extraction processing executed by the CPU 21 in step S143.
First, the difference between the image to be captured captured in step S143 and the background image stored in the background image storage area 232 is calculated (step T101).

ここで、デジタルカメラ20bにおいて撮像部26により取り込まれるデジタル画像のデータ、即ち、上述の背景画像のデータ、撮影対象画像のデータ及びシャッター押下後に取り込まれる撮影画像のデータは、ビットマップ形式で表される。図24は、ビットマップ形式の画像データを模式的に示す図である。図24における1マスは1ピクセルに対応するデータを示し(一部省略)、複数のピクセル、例えば、640×480個のピクセルのデータで1枚の画像データが表される。1ピクセルは、24ビットのカラー画像であれば3バイトの数値、8ビットのグレイスケールであれば、1バイトの数値で表される。   Here, the digital image data captured by the image capturing unit 26 in the digital camera 20b, that is, the above-described background image data, the shooting target image data, and the captured image data captured after the shutter is pressed is represented in a bitmap format. The FIG. 24 is a diagram schematically showing image data in a bitmap format. One square in FIG. 24 indicates data corresponding to one pixel (partially omitted), and one piece of image data is represented by data of a plurality of pixels, for example, 640 × 480 pixels. One pixel is represented by a 3-byte numerical value for a 24-bit color image, and a 1-byte numerical value for an 8-bit gray scale.

撮影対象画像と背景画像との差分は、撮影対象画像の各ピクセルを表すデータと、背景画像の対応する位置のピクセルを表すデータを比較し、データが一致しないピクセルを差分として求めることができる。なお、背景画像の対応する位置のピクセルから所定範囲にあるピクセルも比較対象とし、所定範囲に一致するデータがない撮影対象画像のピクセルを差分とするようにしてもよい。各ピクセルのデータの比較結果は、差分データとして、図25に示す形式で格納される。即ち、各ピクセルに1ビットを割り当て、差分とされたピクセルにフラグを立てる(図25の黒で示す領域)。   The difference between the photographic target image and the background image can be obtained as a difference by comparing the data representing each pixel of the photographic target image with the data representing the pixel at the corresponding position of the background image, and by comparing the data that does not match the data. It should be noted that pixels within a predetermined range from a pixel at a corresponding position in the background image may also be compared, and pixels of the photographic target image that have no data matching the predetermined range may be used as a difference. The comparison result of the data of each pixel is stored as difference data in the format shown in FIG. That is, 1 bit is assigned to each pixel, and a flag is set for the pixel that is the difference (area indicated by black in FIG. 25).

次いで、差分として求められたピクセルの数が予め定められた閾値以上であるか否かが判断され(ステップT102;YES)、予め定められた閾値以上である場合は、被写体抽出が成功したと判断され(ステップT103)、図25に示す差分のピクセルの位置が被写体領域とされ、処理は図22のステップS144へ移行する。予め定められた閾値を超えなければ(ステップT102;NO)、被写体抽出が失敗したと判断され(ステップT104)、処理は図22のステップS144へ移行する。   Next, it is determined whether or not the number of pixels obtained as the difference is equal to or greater than a predetermined threshold (step T102; YES). If the difference is equal to or greater than the predetermined threshold, it is determined that subject extraction has succeeded. Then, the position of the difference pixel shown in FIG. 25 is set as the subject region, and the process proceeds to step S144 in FIG. If the predetermined threshold value is not exceeded (step T102; NO), it is determined that subject extraction has failed (step T104), and the process proceeds to step S144 in FIG.

ステップS144においては、上述の被写体抽出処理で被写体抽出が成功したか否かが判断され(ステップS144)、被写体抽出が失敗したと判断されると(ステップS144;NO)、処理はステップS141に戻る。被写体抽出が成功したと判断されると(ステップS144;YES)、撮影対象画像と選択ポーズデータ格納領域231に格納されているポーズデータの画像照合が行われ一致率Cが算出される(ステップS145)。   In step S144, it is determined whether or not subject extraction has succeeded in the subject extraction process described above (step S144). If it is determined that subject extraction has failed (step S144; NO), the process returns to step S141. . If it is determined that the subject extraction has been successful (step S144; YES), the image to be photographed and the pose data stored in the selected pose data storage area 231 are collated to calculate the coincidence rate C (step S145). ).

図26は、ポーズデータの一例を示す図である。ポーズデータは、撮像部26で取り込まれる画像データと同数のピクセルを有し、図25に示す差分データと同様に、各ピクセルに1ビットが割り当てられ、被写体領域に対応するピクセルにフラグが立てられている。   FIG. 26 is a diagram illustrating an example of pause data. The pose data has the same number of pixels as the image data captured by the imaging unit 26, and 1 bit is assigned to each pixel and a flag corresponding to the subject area is flagged as in the difference data shown in FIG. ing.

図27は、差分データとポーズデータの対応するピクセルを重ねた結果を模式的に示す図である。図中の斜線で示す領域は、差分データの被写体領域のみに位置するピクセルであり、点で示す領域は、ポーズデータの被写体領域のみに位置するピクセルであり、白で示す領域は、双方の被写体領域に位置するピクセルである。   FIG. 27 is a diagram schematically illustrating a result of overlapping corresponding pixels of difference data and pause data. In the figure, the hatched area is a pixel located only in the subject area of the difference data, the area indicated by a dot is a pixel located only in the subject area of the pose data, and the area shown in white is both subjects. A pixel located in the region.

ステップS145で求められる一致率Cは、双方の画像の被写体領域に位置するピクセルの個数をNc(図27の白で示す部分)、差分データ、即ち、撮影対象画像の被写体領域のみに位置するピクセルの個数をNo(図27の斜線で示す部分)、ポーズデータの被写体領域のみに位置するピクセルの個数をNp(図27の点で示す部分)として、
C=Nc/(Nc+No+Np)
で定義される。
The coincidence rate C obtained in step S145 is the number of pixels located in the subject area of both images Nc (portion indicated by white in FIG. 27), difference data, that is, pixels located only in the subject area of the image to be photographed. The number of pixels is No (the portion indicated by diagonal lines in FIG. 27), and the number of pixels located only in the subject area of the pose data is Np (the portion indicated by dots in FIG. 27).
C = Nc / (Nc + No + Np)
Defined by

一致率Cが算出されると、表示部25に一致率が表示され(ステップS146)、処理はステップS141に戻る。
図28に、表示部25における一致率の表示例を示す。図28(a)は、一致率を数値で表した場合、図28(b)は、一致率をインジケータで表した場合を示す。
When the coincidence rate C is calculated, the coincidence rate is displayed on the display unit 25 (step S146), and the process returns to step S141.
FIG. 28 shows a display example of the matching rate on the display unit 25. FIG. 28A shows a case where the coincidence rate is represented by a numerical value, and FIG. 28B shows a case where the coincidence rate is represented by an indicator.

シャッタースイッチ22bが押下されるまで、上述のステップS141〜146の処理が繰り返し実行され、シャッタースイッチ22bが押下されると(ステップS142;YES)、撮像部26により取り込まれた画像が撮影画像として、撮影済み画像格納領域274に格納され(ステップS147)、本処理は終了する。   Until the shutter switch 22b is pressed, the processes in steps S141 to 146 are repeatedly executed. When the shutter switch 22b is pressed (step S142; YES), the image captured by the imaging unit 26 is used as a captured image. The image is stored in the captured image storage area 274 (step S147), and this process ends.

以上説明したように、デジタルカメラ20bによれば、撮像部26から撮影対象の画像が取り込まれると、取り込まれた撮影対象の画像データから被写体領域が抽出され、予め記憶されたポーズデータにおける被写体領域と抽出された被写体領域とが比較されて一致率Cが算出され、算出された一致率Cが表示部25に表示される。   As described above, according to the digital camera 20b, when an image to be photographed is captured from the imaging unit 26, a subject region is extracted from the captured image data to be photographed, and the subject region in the pose data stored in advance is stored. And the extracted subject area are compared to calculate a matching rate C, and the calculated matching rate C is displayed on the display unit 25.

従って、被写体が、撮りたいポーズとどれだけ近い状態であるかを撮影者に示すことができるので、撮影者は、ポーズをとった被写体を撮影する際のシャッターチャンスが判断しやすくなり、目的とするポーズ写真が容易に撮影できるようになる。   Therefore, it is possible to indicate to the photographer how close the subject is to the pose that he / she wants to shoot, so that the photographer can easily determine the photo opportunity when photographing the posed subject. You can easily take a pose photo.

なお、上記実施形態2における記述内容は、本発明に係るデジタルカメラ20bの好適な一例であり、これに限定されるものではない。
例えば、上記実施形態2においては、算出された一致率Cを表示部25に表示する場合を例にとり説明したが、ポーズ撮影処理においては、一致率が予め設定された閾値以上になったときに自動的にシャッターを切り撮影を行うようにしてもよい。これにより、被写体が所望のポーズに近い状態となったときにシャッターチャンスを逃すことなく撮影を行うことが可能となる。また、デジタルカメラ20bを三脚に固定して自分自身を撮影することが可能となる。
In addition, the description content in the said Embodiment 2 is a suitable example of the digital camera 20b which concerns on this invention, and is not limited to this.
For example, in the second embodiment, the case where the calculated match rate C is displayed on the display unit 25 has been described as an example. However, in the pause shooting process, when the match rate is equal to or higher than a preset threshold value. It is also possible to automatically shoot and take a picture. This makes it possible to take a picture without missing a photo opportunity when the subject is in a desired pose state. In addition, it is possible to take a picture of itself by fixing the digital camera 20b to a tripod.

また、ポーズ撮影処理においては、ポーズデータ格納領域273に複数のポーズデータが格納されている場合、撮影対象画像を複数のポーズデータのそれぞれと比較して一致率を算出し、何れかのポーズデータとの一致率が予め設定された閾値以上となったときに自動的に撮影を行うようにしてもよい。このようにすれば、被写体の状態が予め設定された複数のポーズに近い複数の撮影画像を、ポーズデータの選択なしに連続的に撮影することができるので、被写体の状態が予め設定された複数のポーズに近い状態となった複数の撮影画像を容易に、効率的に撮影することが可能となる。   In the pose shooting process, when a plurality of pose data is stored in the pose data storage area 273, the image to be shot is compared with each of the plurality of pose data to calculate a match rate, and any pose data It is also possible to automatically take a picture when the coincidence rate with the threshold value exceeds a preset threshold value. In this way, a plurality of captured images close to a plurality of poses whose subject states are set in advance can be continuously shot without selecting pose data. It is possible to easily and efficiently photograph a plurality of photographed images in a state close to the pose.

また、上記実施の形態においては、背景画像と撮影対象画像との差分に基づき被写体を抽出することとしたが、被写体を抽出する方法としては、これに限定されず、撮影対象の画像を連続的に取り込んで、フレーム間差分やオプティカルフローの技術を用いて連続した各画像から動いている物体の領域を抽出するようにしてもよい(例えば、共立出版株式会社、画像処理工学基礎編、応用編)。また、これらの技術を用いれば、被写体の動作が止まったことを検知することが可能であるので、被写体の動きが止まったときに自動的に撮影を行うようにすれば、ポーズデータに従った撮影はできないが、多くのポーズ撮影を効率的に行うことが可能となる。   In the above embodiment, the subject is extracted based on the difference between the background image and the shooting target image. However, the method of extracting the subject is not limited to this, and the shooting target image is continuously extracted. And extracting the region of the moving object from each successive image using the inter-frame difference or optical flow technology (for example, Kyoritsu Publishing Co., Ltd., Image Processing Engineering Basics, Applications) ). In addition, if these techniques are used, it is possible to detect that the movement of the subject has stopped. Therefore, if automatic shooting is performed when the movement of the subject stops, the pose data is followed. Although shooting is not possible, many poses can be shot efficiently.

また、撮影画像について、上述の被写体領域を抽出及びポーズデータとの画像照合を行い、差がほとんどない場合には、ポーズデータと一致しない部分のピクセルのデータを補正して、撮影画像をポーズデータにあわせる画像補正手段を備えるようにしてもよい。これにより、目的とするポーズの撮影画像を確実に得ることができる。   In addition, for the captured image, the above-described subject region is extracted and image verification is performed with the pose data. The image correcting unit may be provided to match the above. As a result, a photographed image of the target pose can be obtained with certainty.

その他、デジタルカメラ20bを構成する各装置の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the digital camera 20b can be changed as appropriate without departing from the spirit of the present invention.

本発明の実施形態1における撮影システムの無線通信を利用した場合の構成を示す図である。It is a figure which shows the structure at the time of utilizing the radio | wireless communication of the imaging | photography system in Embodiment 1 of this invention. 本発明の実施形態1における撮影システムの有線通信を利用した場合の構成を示す図である。It is a figure which shows the structure at the time of utilizing the wire communication of the imaging | photography system in Embodiment 1 of this invention. 図1、2のパーソナルコンピュータ1の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the personal computer 1 of FIG. 図3の記録部7のタイプ別建築工程メモリ71のデータ格納例を示す図である。It is a figure which shows the data storage example of the construction process memory 71 classified by type of the recording part 7 of FIG. 図4のタイプ別建築工程メモリ71に格納されるタイプ別建築工程ファイルの内容の一例を示す図である。It is a figure which shows an example of the content of the construction process file classified by type stored in the construction process memory 71 classified by type of FIG. 図3の記録部7の撮影計画メモリ72のデータ格納例を示す図である。It is a figure which shows the example of data storage of the imaging | photography plan memory 72 of the recording part 7 of FIG. 図1、2のデジタルカメラ20aの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the digital camera 20a of FIG. 図3のCPU2により実行される撮影計画情報作成処理を示すフローチャートである。It is a flowchart which shows the imaging plan information creation process performed by CPU2 of FIG. 図5のタイプ別建築工程ファイルの編集例を示す図である。It is a figure which shows the example of an edit of the construction process file classified by type of FIG. 図4の撮影計画情報格納メモリ271に格納される計画画像ファイルの構成例を示すである。FIG. 5 is a configuration example of a plan image file stored in an imaging plan information storage memory 271 in FIG. 4. FIG. 図3のCPU2により実行される送信対象情報選択処理を示すフローチャートである。It is a flowchart which shows the transmission target information selection process performed by CPU2 of FIG. 図7のCPU21により実行される撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process performed by CPU21 of FIG. 図7のCPU21により実行される計画画像選択処理を示すフローチャートである。It is a flowchart which shows the plan image selection process performed by CPU21 of FIG. 図7のCPU21により実行される画像照合処理を示すフローチャートである。It is a flowchart which shows the image collation process performed by CPU21 of FIG. 本発明の実施形態2におけるデジタルカメラ20bの背面図である。It is a rear view of the digital camera 20b in Embodiment 2 of this invention. 図15のデジタルカメラ20bの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the digital camera 20b of FIG. 図16の表示部25に表示されるメニュー画面251の一例を示す図である。It is a figure which shows an example of the menu screen 251 displayed on the display part 25 of FIG. 図16のCPU21により実行されるポーズデータ登録処理を示すフローチャートである。It is a flowchart which shows the pause data registration process performed by CPU21 of FIG. 図16のCPU21により実行されるポーズデータ削除処理を示すフローチャートである。It is a flowchart which shows the pause data deletion process performed by CPU21 of FIG. 図16のCPU21により実行されるポーズデータ選択処理を示すフローチャートである。It is a flowchart which shows the pause data selection process performed by CPU21 of FIG. 図16のCPU21により背景画像登録処理を示すフローチャートである。It is a flowchart which shows a background image registration process by CPU21 of FIG. 図16のCPU21により実行されるポーズ撮影処理を示すフローチャートである。It is a flowchart which shows the pause imaging | photography process performed by CPU21 of FIG. 図16のCPU21により実行される被写体抽出処理を示すフローチャートである。It is a flowchart which shows the to-be-photographed object extraction process performed by CPU21 of FIG. ビットマップ形式の画像データを模式的に示す図である。It is a figure which shows typically the image data of a bitmap format. 撮影対象画像と背景画像との差分を示す差分データを模式的に示す図である。It is a figure which shows typically the difference data which shows the difference of a imaging | photography object image and a background image. ポーズデータの一例を示す図である。It is a figure which shows an example of pause data. 図25の差分データと図26のポーズデータの対応するピクセルを重ねた結果を模式的に示す図である。It is a figure which shows typically the result of having overlapped the corresponding pixel of the difference data of FIG. 25, and the pose data of FIG. (a)は一致率を数値で表示した場合の表示例を示す図、(b)は一致率をインジケータで表示した場合の表示例を示す図である。(A) is a figure which shows the example of a display when a coincidence rate is displayed with a numerical value, (b) is a figure which shows the example of a display when a coincidence rate is displayed with an indicator.

符号の説明Explanation of symbols

100、200 撮影システム
1 パーソナルコンピュータ
2 CPU
3 入力部
4 RAM
5 外部I/F
6 表示部
7 記録部
71 タイプ別建築工程メモリ
72 撮影計画メモリ
73 CAD画像データ格納メモリ
8 通信制御部
9 バス
11 アンテナ
20a、20b デジタルカメラ
21 CPU
22 入力部
23 RAM
231 選択ポーズデータ格納領域
232 背景画像格納領域
24 外部I/F
25 表示部
26 撮像部
27 記録部
271 撮影計画情報格納メモリ
272 撮影画像格納メモリ
273 ポーズデータ格納領域
274 撮影済み画像格納領域
28 通信制御部
31 アンテナ
29 バス
30 記録媒体接続部
100, 200 Shooting system 1 Personal computer 2 CPU
3 Input unit 4 RAM
5 External I / F
6 Display unit 7 Recording unit 71 Architectural process memory 72 by type 72 Shooting plan memory 73 CAD image data storage memory 8 Communication control unit 9 Bus 11 Antenna 20a, 20b Digital camera 21 CPU
22 Input unit 23 RAM
231 Selected pose data storage area 232 Background image storage area 24 External I / F
25 Display section 26 Imaging section 27 Recording section 271 Shooting plan information storage memory 272 Captured image storage memory 273 Pause data storage area 274 Captured image storage area 28 Communication control section 31 Antenna 29 Bus 30 Recording medium connection section

Claims (12)

撮影の基準となる基準画像を撮影順に記憶する記憶手段と、
被写体の光学画像を電気信号に変換してデジタル画像を取得する撮像手段と、
前記撮像手段により取得されたデジタル画像を撮影順に応じた前記基準画像と照合して一致率を算出する画像照合手段と、
前記画像照合手段により算出された一致率が所定の閾値を超えたと判断された場合に、次の撮影の基準となる基準画像を前記記憶手段から読み出して案内表示する表示手段と、
を備えたことを特徴とする撮影装置。
Storage means for storing a reference image as a reference for shooting in order of shooting;
Imaging means for converting an optical image of a subject into an electrical signal to obtain a digital image;
Image collating means for collating the digital image acquired by the imaging means with the reference image according to the photographing order to calculate a matching rate;
A display unit that reads out and guides a reference image serving as a reference for the next shooting from the storage unit when it is determined that the coincidence rate calculated by the image matching unit exceeds a predetermined threshold;
An imaging apparatus comprising:
前記基準画像は、一連の撮影計画における各工程に応じた計画画像であることを特徴とする請求項1に記載の撮影装置。   The photographing apparatus according to claim 1, wherein the reference image is a plan image corresponding to each step in a series of photographing plans. 前記記憶手段は、前記基準画像に関する文字情報を前記基準画像に対応付けて記憶し、
前記表示手段は、次の撮影の基準となる基準画像を案内表示する際に対応する文字情報を併せて案内表示することを特徴とする請求項1又は2に記載の撮影装置。
The storage means stores character information related to the reference image in association with the reference image,
The photographing apparatus according to claim 1, wherein the display unit guides and displays character information corresponding to a reference image that is a reference for the next photographing.
撮影の基準となる基準画像を記憶する記憶手段と、
被写体の光学画像を電気信号に変換してデジタル画像を取得する撮像手段と、
前記撮像手段により取得されたデジタル画像を前記基準画像と照合して一致率を算出する画像照合手段と、
前記画像照合手段により算出された一致率を表示する表示手段と、
を備えたことを特徴とする撮影装置。
Storage means for storing a reference image as a reference for photographing;
Imaging means for converting an optical image of a subject into an electrical signal to obtain a digital image;
Image collating means for collating the digital image acquired by the imaging means with the reference image and calculating a matching rate;
Display means for displaying the matching rate calculated by the image matching means;
An imaging apparatus comprising:
撮影の基準となる基準画像を記憶する記憶手段と、
被写体の光学画像を電気信号に変換してデジタル画像を取得する撮像手段と、
前記撮像手段により取得されたデジタル画像を前記基準画像と照合して一致率を算出する画像照合手段と、
前記画像照合手段により算出された一致率が所定の閾値を超えたと判断された場合に撮影を行う撮影制御手段と、
を備えたことを特徴とする撮影装置。
Storage means for storing a reference image as a reference for photographing;
Imaging means for converting an optical image of a subject into an electrical signal to obtain a digital image;
Image collating means for collating the digital image acquired by the imaging means with the reference image and calculating a matching rate;
Photographing control means for photographing when it is determined that the matching rate calculated by the image collating means exceeds a predetermined threshold;
An imaging apparatus comprising:
前記基準画像は、被写体がとるべきポーズを表すものであることを特徴とする請求項4又は5に記載の撮影装置。   The photographing apparatus according to claim 4, wherein the reference image represents a pose to be taken by a subject. 前記記憶手段は、複数の基準画像を記憶し、
前記複数の基準画像の中から撮影の基準とする基準画像を選択する選択手段を備え、
前記画像照合手段は、前記撮像手段により取得されたデジタル画像を前記基準画像と照合して一致率を算出することを特徴とする請求項4〜6の何れか一項に記載の撮影装置。
The storage means stores a plurality of reference images,
Selecting means for selecting a reference image as a reference for photographing from the plurality of reference images;
The photographing apparatus according to claim 4, wherein the image collating unit collates the digital image acquired by the imaging unit with the reference image to calculate a matching rate.
前記記憶手段は、複数の基準画像を記憶し、
前記画像照合手段は、前記撮像手段により取得されたデジタル画像を前記複数の基準画像のそれぞれと照合して一致率を算出し、
前記撮影制御手段は、前記撮像手段により取得されたデジタル画像と前記複数の基準画像のうち何れかとの照合により算出された一致率が所定の閾値を超えた場合に、撮影を行うことを特徴とする請求項5に記載の撮影装置。
The storage means stores a plurality of reference images,
The image collating unit collates the digital image acquired by the imaging unit with each of the plurality of reference images to calculate a coincidence rate,
The imaging control unit performs imaging when a coincidence rate calculated by collating the digital image acquired by the imaging unit and any one of the plurality of reference images exceeds a predetermined threshold value. The imaging device according to claim 5.
撮影により得られたデジタル画像を基準画像に基づいて補正する画像補正手段を備えたことを特徴とする請求項4〜8の何れか一項に記載の撮影装置。   The photographing apparatus according to claim 4, further comprising an image correcting unit that corrects a digital image obtained by photographing based on a reference image. コンピュータに、
撮影の基準となる基準画像を撮影順に記憶手段に記憶する機能と、
被写体の光学画像を電気信号に変換して得られたデジタル画像を撮影順に応じた基準画像と照合して一致率を算出する機能と、
前記算出された一致率が所定の閾値を超えたと判断された場合に、次の撮影の基準となる基準画像を前記記憶手段から読み出して案内表示する機能と、
を実現させるためのプログラム。
On the computer,
A function of storing a reference image serving as a reference for shooting in a storage unit in the order of shooting;
A function of comparing the digital image obtained by converting the optical image of the subject into an electrical signal with a reference image according to the shooting order and calculating a matching rate;
A function of reading a reference image serving as a reference for the next shooting from the storage unit and displaying guidance when it is determined that the calculated matching rate exceeds a predetermined threshold;
A program to realize
コンピュータに、
撮影の基準となる基準画像を記憶する機能と、
被写体の光学画像を電気信号に変換して得られたデジタル画像を前記基準画像と照合して一致率を算出する機能と、
前記算出された一致率を表示する機能と、
を実現させるためのプログラム。
On the computer,
A function for storing a reference image as a reference for shooting;
A function of collating a digital image obtained by converting an optical image of a subject into an electrical signal with the reference image and calculating a matching rate;
A function of displaying the calculated match rate;
A program to realize
コンピュータに、
撮影の基準となる基準画像を記憶する機能と、
被写体の光学画像を電気信号に変換して得られたデジタル画像を前記基準画像と照合して一致率を算出する機能と、
前記算出された一致率が所定の閾値を超えたと判断された場合に、撮影を行う機能と、
を実現させるためのプログラム。
On the computer,
A function for storing a reference image as a reference for shooting;
A function of collating a digital image obtained by converting an optical image of a subject into an electrical signal with the reference image and calculating a matching rate;
A function of shooting when it is determined that the calculated matching rate exceeds a predetermined threshold;
A program to realize
JP2004284544A 2004-09-29 2004-09-29 Imaging apparatus and program Active JP4217831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004284544A JP4217831B2 (en) 2004-09-29 2004-09-29 Imaging apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004284544A JP4217831B2 (en) 2004-09-29 2004-09-29 Imaging apparatus and program

Publications (2)

Publication Number Publication Date
JP2006101173A true JP2006101173A (en) 2006-04-13
JP4217831B2 JP4217831B2 (en) 2009-02-04

Family

ID=36240573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004284544A Active JP4217831B2 (en) 2004-09-29 2004-09-29 Imaging apparatus and program

Country Status (1)

Country Link
JP (1) JP4217831B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006258944A (en) * 2005-03-15 2006-09-28 Fujinon Corp Autofocus system
JP2008288882A (en) * 2007-05-17 2008-11-27 Olympus Corp Photography system and photographic apparatus
JP2009105697A (en) * 2007-10-24 2009-05-14 Omron Corp Automatic photographing system, photographing camera device, photographing camera device control program, automatic photographing management server, and automatic photographing management server control program
JP2011004408A (en) * 2010-07-30 2011-01-06 Casio Computer Co Ltd Imaging apparatus, control program and method of controlling display
JP2012129986A (en) * 2010-12-15 2012-07-05 Canon Inc Collaborative image capture
JP2017107443A (en) * 2015-12-10 2017-06-15 株式会社大林組 Situation determination system, situation determination method, and situation determination program
JP2017532922A (en) * 2015-07-31 2017-11-02 シャオミ・インコーポレイテッド Image photographing method and apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015735A (en) * 2002-06-11 2004-01-15 Omron Corp Image printing apparatus and method, printing medium, and printing medium unit
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face collating device and face collating method
JP2004096438A (en) * 2002-08-30 2004-03-25 Casio Comput Co Ltd Photographing device and method, and program
JP2004228770A (en) * 2003-01-21 2004-08-12 Minolta Co Ltd Image processing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015735A (en) * 2002-06-11 2004-01-15 Omron Corp Image printing apparatus and method, printing medium, and printing medium unit
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face collating device and face collating method
JP2004096438A (en) * 2002-08-30 2004-03-25 Casio Comput Co Ltd Photographing device and method, and program
JP2004228770A (en) * 2003-01-21 2004-08-12 Minolta Co Ltd Image processing system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006258944A (en) * 2005-03-15 2006-09-28 Fujinon Corp Autofocus system
JP2008288882A (en) * 2007-05-17 2008-11-27 Olympus Corp Photography system and photographic apparatus
JP2009105697A (en) * 2007-10-24 2009-05-14 Omron Corp Automatic photographing system, photographing camera device, photographing camera device control program, automatic photographing management server, and automatic photographing management server control program
JP4595986B2 (en) * 2007-10-24 2010-12-08 オムロン株式会社 Automatic photographing system, photographing camera device, photographing camera device control program, automatic photographing management server, and automatic photographing management server control program
JP2011004408A (en) * 2010-07-30 2011-01-06 Casio Computer Co Ltd Imaging apparatus, control program and method of controlling display
JP2012129986A (en) * 2010-12-15 2012-07-05 Canon Inc Collaborative image capture
US8711228B2 (en) 2010-12-15 2014-04-29 Canon Kabushiki Kaisha Collaborative image capture
JP2017532922A (en) * 2015-07-31 2017-11-02 シャオミ・インコーポレイテッド Image photographing method and apparatus
JP2017107443A (en) * 2015-12-10 2017-06-15 株式会社大林組 Situation determination system, situation determination method, and situation determination program

Also Published As

Publication number Publication date
JP4217831B2 (en) 2009-02-04

Similar Documents

Publication Publication Date Title
JP4645685B2 (en) Camera, camera control program, and photographing method
JP2011198251A (en) Inspection information processing apparatus, method, and program
JP4396500B2 (en) Imaging apparatus, image orientation adjustment method, and program
CN101616261A (en) Image recorder and method, image processing equipment and method and program
JP5050465B2 (en) Imaging apparatus, imaging control method, and program
US20050185063A1 (en) Digital camera
JP4259595B2 (en) Imaging apparatus and program
JP2007148691A (en) Image processor
JP4217831B2 (en) Imaging apparatus and program
JP4003588B2 (en) Imaging apparatus and program
JP4461987B2 (en) Imaging apparatus and program
US20180198983A1 (en) Image pickup apparatus, image pickup system, image pickup method, image pickup program, and display apparatus for image pickup
JP4533017B2 (en) Imaging device
WO2020162264A1 (en) Photographing system, photographing spot setting device, photographing device, and photographing method
JP6639832B2 (en) Imaging device, imaging method, imaging program
JP2010087899A (en) Imaging apparatus, control method thereof, and program
JP4906685B2 (en) Imaging apparatus, control method thereof, and program
CN101076086B (en) Scene selection screen generation device
US20100053372A1 (en) Image reproduction apparatus
JP2009049886A (en) Image retrieval device, photographing device, image retrieval method, and program
JP4925568B2 (en) Imaging apparatus and control method thereof
JP5181935B2 (en) Image processing apparatus, program, and subject detection method
JP2005039579A (en) Image management device and digital camera
JP4172527B2 (en) Imaging apparatus and program
US20230360368A1 (en) Image processing apparatus and method, and image capturing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081014

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081027

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4217831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5