JP3092142B2 - Image recording and playback system - Google Patents

Image recording and playback system

Info

Publication number
JP3092142B2
JP3092142B2 JP02184757A JP18475790A JP3092142B2 JP 3092142 B2 JP3092142 B2 JP 3092142B2 JP 02184757 A JP02184757 A JP 02184757A JP 18475790 A JP18475790 A JP 18475790A JP 3092142 B2 JP3092142 B2 JP 3092142B2
Authority
JP
Japan
Prior art keywords
image
search
data
information
reproduced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP02184757A
Other languages
Japanese (ja)
Other versions
JPH0470727A (en
Inventor
信行 谷口
博史 石部
弘和 鳴戸
良弘 田中
義人 田中
克行 難波
大 新谷
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP02184757A priority Critical patent/JP3092142B2/en
Publication of JPH0470727A publication Critical patent/JPH0470727A/en
Priority to US08/029,991 priority patent/US5335072A/en
Application granted granted Critical
Publication of JP3092142B2 publication Critical patent/JP3092142B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Camera Data Copying Or Recording (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、撮影時に焦点距離情報、被写体距離情報が
記録可能なカメラと、撮影画像を再生する再生機とから
成る撮影画像記録再生システムに係り、特に再生される
画像の実際の被写体の大きさに関するデータを併記表示
するものである。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a photographed image recording / reproducing system including a camera capable of recording focal length information and subject distance information during photographing, and a reproducing device for reproducing a photographed image. In particular, data relating to the actual size of the subject in the reproduced image is displayed together.

〔従来の技術〕[Conventional technology]

従来、撮影画像を着脱可能なメモリカードに記憶する
方式のカメラは既に提案されており(特開昭63−274289
号公報)、更に進んでこのようにして得られたメモリカ
ード内の記憶画像をファイリングシステム(DAT)に転
送するようにし、必要に応じて再生するようにしたシス
テムが知られている。
Conventionally, a camera of the type in which a captured image is stored in a removable memory card has already been proposed (Japanese Patent Laid-Open No. 63-274289).
There is known a system in which the stored image in the memory card thus obtained is further transferred to a filing system (DAT) and reproduced as needed.

また、銀塩カメラで写真撮影する際に、被写体の横に
該被写体の大きさが確認できる、例えば定規、タバコや
人物等スケールとなるものを置いて撮影を行い、撮影画
像と共にこのスケールを写し込むようにしたものが提案
されている(特開昭58−158507号、特開昭62−259004号
公報)。更に、フィルムのコマ画像の適所にプリント時
の拡大倍率を指示するマークを記録するようにしたもの
が提案されている(実開昭60−145428号公報)。
Also, when taking a picture with a silver halide camera, place a scale, such as a ruler, a cigarette, a person, or the like that can be used to check the size of the subject next to the subject, and take a picture. Japanese Patent Application Laid-Open Nos. 58-158507 and 62-259004 have been proposed. In addition, there has been proposed a film in which a mark for designating an enlargement magnification at the time of printing is recorded at an appropriate position on a frame image of a film (Japanese Utility Model Laid-Open No. 60-145428).

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

撮影画像がメモリカードに記憶可能になされた装置に
おいても、またファイリングシステムに転送して、必要
に応じて再生するシステムにおいても再生画面サイズが
異なる場合の対策に関する技術は開示されていない。
No technique has been disclosed for a device in which a captured image can be stored in a memory card, or a system that transfers the captured image to a filing system and reproduces the image as necessary, when a reproduction screen size is different.

また、フィルム面にスケールを写し込むものでは、ス
ケールに相当するものを撮影毎に被写体の横に置く作業
が必要となり、頻雑となる。特に、被写体が遠くに位置
する場合等では最早スケールを置くことが出来ないとい
う問題がある。また、拡大倍率を指示するマークを記録
するものはフィルムに対する画像の拡大率を指示するの
みであり、プリントサイズに合わせた表示を行うように
したものではなく、またプリントサイズの如何に拘らず
常に所定の大きさでプリントするようにしたものでもな
い。
In addition, when a scale is printed on a film surface, a work equivalent to the scale must be placed beside a subject for each photographing, which is complicated. In particular, there is a problem that the scale can no longer be placed when the subject is located far away. In addition, what records the mark indicating the enlargement magnification only indicates the enlargement ratio of the image with respect to the film, and is not intended to be displayed in accordance with the print size, and is always irrespective of the print size. It is not intended to print in a predetermined size.

本発明は上記に鑑みてなされたもので、カメラでの撮
影時に記録された焦点距離情報や被写体距離情報及び再
生機の画面サイズデータを基に、再生される画像の表示
倍率を画面サイズの合った形で表示し、あるいは画面サ
イズのに拘らず所定の表示倍率で表示するようにした撮
影画像記録再生システムを提供することを目的とする。
The present invention has been made in view of the above, and based on focal length information, subject distance information, and screen size data of a playback device recorded at the time of shooting with a camera, the display magnification of a reproduced image is adjusted to the screen size. It is an object of the present invention to provide a photographed image recording / reproducing system which displays a photographed image at a predetermined display magnification regardless of the screen size.

〔課題を解決するための手段〕[Means for solving the problem]

本発明に係る撮影画像記録再生システムは、撮影時に
おける焦点距離情報、被写体距離情報と撮影画像とを対
応付けて記録する記録媒体を有するカメラと、上記記録
媒体に記録された撮影画像を再生する再生機とから成
り、上記再生機は、該再生機の画面サイズを入力する画
面サイズ入力手段と、該画面サイズ入力手段から入力さ
れた画面サイズと上記再生される画像の焦点距離情報及
び被写体距離情報とから再生画像の表示倍率を求める算
出手段と、該求めた表示倍率データを表示すべく出力す
るデータ出力手段とを備え、この出力データを前記再生
画像と共に表示ようにしたものである。
A captured image recording / reproducing system according to the present invention reproduces a captured image recorded on the recording medium, including a camera having a recording medium for recording focal length information, subject distance information, and a captured image in association with each other when capturing an image. A screen size input means for inputting a screen size of the reproducer; a screen size input from the screen size input means; focal length information of the reproduced image; and a subject distance. The information processing apparatus further comprises a calculating means for calculating the display magnification of the reproduced image from the information, and a data output means for outputting the obtained display magnification data for display, and the output data is displayed together with the reproduced image.

また、本発明に係る撮影画像記録再生システムは、撮
影時における焦点距離情報、被写体距離情報と撮影画像
とを対応付けて記録する記録媒体を有するカメラと、上
記記録媒体に記録された撮影画像を再生する再生機とか
ら成り、上記再生機は、該再生機の画面サイズを入力す
る画面サイズ入力手段と、該画面サイズ入力手段から入
力された画面サイズと上記再生される画像の焦点距離情
報及び被写体距離情報とから再生画像の表示倍率を求め
る算出手段と、該求めた表示倍率データと予め設定され
た値との比率を求める演算手段と、上記予め設定された
値を表示倍率データとして表示すべく出力するデータ出
力手段と、上記求めた比率に応じて再生すべき画像の拡
大、縮小処理を行う画像処理手段とを備え、上記出力デ
ータを前記再生画像と共に表示するようにしたものであ
る。
Further, a photographed image recording and reproducing system according to the present invention includes a camera having a recording medium for recording focal length information at the time of photographing, subject distance information and a photographed image in association with each other, and a photographed image recorded on the recording medium. A reproducing device for reproducing, the reproducing device has a screen size input means for inputting a screen size of the reproducing device, a screen size input from the screen size input means, focal length information of the reproduced image and Calculating means for obtaining the display magnification of the reproduced image from the subject distance information; calculating means for obtaining the ratio between the obtained display magnification data and a preset value; and displaying the preset value as display magnification data. Data output means for outputting the image data to be reproduced according to the obtained ratio, and image processing means for performing enlargement and reduction processing of the image to be reproduced. It is obtained so as to display both.

また、本発明に係る撮影画像記録再生システムは、撮
影時における焦点距離情報、被写体距離情報と撮影画像
とを対応付けて記録媒体に記録する手段と、上記記録媒
体に記録された撮影画像を再生する手段とから成り、上
記再生手段は、該再生手段の画面サイズと上記再生され
る画像の焦点距離情報及び被写体距離情報とから再生画
像の表示倍率を決定するようにしたものである。
Further, a photographed image recording / reproducing system according to the present invention comprises: means for recording focal length information at the time of photographing, subject distance information and a photographed image in association with each other on a recording medium, and reproducing the photographed image recorded on the recording medium. The reproducing means determines the display magnification of the reproduced image from the screen size of the reproducing means, the focal length information of the reproduced image, and the subject distance information.

更に、決定された表示倍率データを前記再生画像と共
に表示するようにしたものである。
Further, the determined display magnification data is displayed together with the reproduced image.

〔作用〕[Action]

本発明によれば、撮影画像の記録と共にその時得られ
た焦点距離情報、被写体距離情報が対応付けて記録さ
れ、撮影画像の再生時には、再生される画像に対応する
焦点距離情報及び被写体距離情報及び入力された画面サ
イズに基づいて表示倍率データが求められる。そして、
このデータは表示すべく出力され、再生画像と共に表示
される。
According to the present invention, the focal length information and the subject distance information obtained at that time are recorded in association with the recording of the photographed image, and when the photographed image is reproduced, the focal length information and the subject distance information corresponding to the reproduced image are recorded. Display magnification data is obtained based on the input screen size. And
This data is output for display and displayed along with the reproduced image.

また、請求項2記載の発明によれば、撮影画像の記録
と共にその時得られた焦点距離情報、被写体距離情報が
対応付けて記録され、撮影画像の再生時には、再生され
る画像に対応する焦点距離情報及び被写体距離情報及び
入力された画面サイズに基づいて表示倍率データが求め
られ、更に、得られた表示倍率データと予め設定された
表示倍率との比率が求められる。そして、再生される画
像は上記求められた比率に応じて画像の拡大、縮小処理
が施され、表示される。また、上記予め設定された表示
倍率は表示倍率データとして表示すべく出力され、再生
画像と共に表示される。
According to the second aspect of the present invention, the focal length information and the subject distance information obtained at that time are recorded in association with the recording of the photographed image, and when the photographed image is reproduced, the focal length corresponding to the reproduced image is recorded. The display magnification data is obtained based on the information, the subject distance information, and the input screen size, and further, the ratio between the obtained display magnification data and a preset display magnification is obtained. Then, the reproduced image is subjected to image enlargement / reduction processing in accordance with the obtained ratio and displayed. The preset display magnification is output to be displayed as display magnification data, and is displayed together with the reproduced image.

また、請求項3記載の発明によれば、再生画像の表示
倍率は、再生手段により、該再生手段の画面サイズと再
生される画像の焦点距離情報及び被写体距離情報とを用
いて決定される。
According to the third aspect of the invention, the display magnification of the reproduced image is determined by the reproducing unit using the screen size of the reproducing unit, the focal length information of the reproduced image, and the subject distance information.

更に、請求項4記載の発明によれば、決定された表示
倍率データは再生画像と共に表示される。
Further, according to the invention described in claim 4, the determined display magnification data is displayed together with the reproduced image.

〔実施例〕〔Example〕

第1図は、画像撮影を行うカメラのブロック図の一例
を示すものである。
FIG. 1 shows an example of a block diagram of a camera for taking an image.

図において、レンズ1乃至エンコーダ8は撮影画像の
ための構成である。
In the figure, lenses 1 to encoder 8 are components for a captured image.

2はレンズ1の光軸上後方位置に配設された撮像素子
(以下、CCDという)で、レンズ1を通して得られる被
写体像を撮像するものである。増幅器3はCCD2からの出
力画像信号を所定の増幅率で増幅し、次段ADコンバータ
4に出力する。ADコンバータ4は入力されたアナログ画
像信号をデジタル画像信号に変換する。ホワイトバラン
ス補正回路5はデジタル画像信号に後述するホワイトバ
ランスセンサ14からの色温度データに基づいてホワイト
バランス補正を施し、γ補正回路6は更にγ補正を施す
ものである。更に、マトリクス処理回路7はデジタル画
像信号に所定の階調補正を施すものである。エンコーダ
8は入力されるデジタル画像信号を再生画像用としての
NTSC信号にエンコードするもので、エンコードされたNT
SC信号をメモリカードI/F9へ出力する。
Reference numeral 2 denotes an image pickup device (hereinafter, referred to as a CCD) disposed behind the lens 1 on the optical axis, and picks up an object image obtained through the lens 1. The amplifier 3 amplifies the output image signal from the CCD 2 at a predetermined amplification rate and outputs the amplified image signal to the next-stage AD converter 4. The AD converter 4 converts the input analog image signal into a digital image signal. The white balance correction circuit 5 performs white balance correction on the digital image signal based on color temperature data from a white balance sensor 14 described later, and the gamma correction circuit 6 further performs gamma correction. Further, the matrix processing circuit 7 performs a predetermined gradation correction on the digital image signal. The encoder 8 converts the input digital image signal into a reproduced image signal.
Encode to NTSC signal, encoded NT
Outputs SC signal to memory card I / F9.

マイク10乃至メモリ13は音声入力のための構成であ
る。
The microphone 10 to the memory 13 are components for voice input.

マイク10はカメラ本体の適所に設けられ、撮影者、被
撮影者等の音声を取り込むものである。増幅器11はマイ
ク10からの音声信号を所定の増幅率で増幅し、次段ADコ
ンバータ12に出力する。ADコンバータ12は入力されたア
ナログ音声信号をデジタル音声信号に変換する。メモリ
13は音声記録用(話者認識用)として用いられるもの
で、入力されたデジタル音声データを一旦記憶し、その
後に前記メモリカードI/F9へ出力する。
The microphone 10 is provided at an appropriate position in the camera body, and captures voices of a photographer, a subject, and the like. The amplifier 11 amplifies the audio signal from the microphone 10 at a predetermined amplification rate, and outputs it to the next-stage AD converter 12. The AD converter 12 converts the input analog audio signal into a digital audio signal. memory
Numeral 13 is used for voice recording (for speaker recognition), temporarily stores the input digital voice data, and thereafter outputs it to the memory card I / F9.

次に、その他の各種情報を取り込むための構成につい
て説明する。
Next, a configuration for taking in other various information will be described.

ホワイトバランスセンサ14は被写界の色温度を検出す
るもので、得られた色温度データから撮影が螢光灯下で
行われたのか太陽光下で行われたのかを判別して前記適
切なホワイトバランスを施す。AFセンサ15は既知の測距
方法を利用して被写体までの距離を算出するために用い
られるもので、例えばレンズ1を通過した被写体影像を
二方向に分離してそれぞれの受光部(不図示)に被写体
像を導くように構成されている。そして、上記両受光部
で得られた被写体像はAFCPU16に入力されるようになさ
れており、AFCPU16は上記両受光部の被写体像からその
位相差を求め、該位相差から被写体像までの距離を算出
する。また、AFCPU16は算出した距離データを基に不図
示のレンズ駆動系を駆動させてレンズ1を合焦位置に移
動させる。そして、合焦位置への移動が完了すると、レ
ンズ1からの焦点距離データfとAFCPU16からの被写体
距離データDが後述する制御部(以下、CPUという)20
へ出力される。
The white balance sensor 14 detects the color temperature of the object scene, and determines from the obtained color temperature data whether the shooting was performed under fluorescent light or under sunlight, and the appropriate Apply white balance. The AF sensor 15 is used to calculate the distance to the subject by using a known distance measuring method. For example, the subject image passing through the lens 1 is separated into two directions and each light receiving unit (not shown) Is configured to guide a subject image. The subject images obtained by the two light receiving units are input to the AF CPU 16, and the AF CPU 16 obtains the phase difference from the subject images of the two light receiving units, and calculates the distance from the phase difference to the subject image. calculate. Further, the AF CPU 16 drives a lens driving system (not shown) based on the calculated distance data to move the lens 1 to a focusing position. When the movement to the in-focus position is completed, the focal length data f from the lens 1 and the subject distance data D from the AF CPU 16 are stored in a control unit (hereinafter referred to as CPU) 20.
Output to

温度センサ17、湿度センサ18及び気圧センサ19は撮影
下における温度(気温)、湿度及び気圧をそれぞれ測定
するものである。測定された各データはCPU20へ出力さ
れる。上記各センサは撮影下における各データを自動的
に測定し、CPU20に導くようにされている。
The temperature sensor 17, the humidity sensor 18, and the atmospheric pressure sensor 19 measure the temperature (air temperature), the humidity, and the atmospheric pressure under photographing, respectively. Each measured data is output to the CPU 20. Each of the above-mentioned sensors automatically measures each data under photographing and guides it to the CPU 20.

受信同調部21と復調部22、またGPS受信器23は位置情
報を得るための構成である。受信同調部21はアンテナ21
aを通して受信される場所に関するコード(地域、観光
地あるいはイベント等を示すコード、以下場所コードと
いう)を含むFM電波を受信するもので、復調部22は受信
されたFM信号を復調することにより場所コードのデータ
を再生し、CPU20へ出力する。なお、詳細な第2図で説
明する。一方、GPS受信器23は図外の衛星からの電波を
アンテナ23aで受信し、現在位置の緯度、経度及び高度
を算出してCPU20へ出力するもので、詳細は第3図で説
明する。
The reception tuning unit 21, the demodulation unit 22, and the GPS receiver 23 are components for obtaining position information. The reception tuning unit 21 is an antenna 21
The receiver receives FM radio waves including a code related to a place received through a (code indicating a region, a sightseeing spot, an event, etc., hereinafter referred to as a place code), and the demodulation unit 22 demodulates the received FM signal to thereby The code data is reproduced and output to the CPU 20. This will be described in detail with reference to FIG. On the other hand, the GPS receiver 23 receives a radio wave from a satellite (not shown) by an antenna 23a, calculates the latitude, longitude, and altitude of the current position and outputs the calculated latitude and longitude to the CPU 20, which will be described in detail with reference to FIG.

計時部24はカメラ本体に内蔵された日時を計時するも
のである。
The timer 24 measures the date and time built in the camera body.

操作及び制御系は前記CPU20と、各操作スイッチS1〜S
3の操作状態を該CPU20へ出力する操作及び表示部25とか
ら構成される。
The operation and control system includes the CPU 20 and each of the operation switches S 1 to S
3 and an operation and display unit 25 for outputting the operation state to the CPU 20.

CPU20は前述したカメラ各部の動作を統括的に制御す
るマイクロコンピュータである。撮影準備用スイッチS1
は前記各センサの動作をスタートさせるものである。露
出スタート用スイッチS2は、いわゆるレリーズボタンで
あり、カメラの露出動作を開始させるものである。な
お、好ましくは上記撮影準備用スイッチS1を上記レリー
ズボタンが半押しされた状態で作動し、露出スタート用
スイッチS2はレリーズボタンが全押しされると作動する
ようにしてある。また、操作及び表示部25は上記各スイ
ッチS1〜S3の切換状態をCPU20へ出力するとともに、必
要に応じてCPU20からのコマ番号等撮影時の各種データ
を表示するものである。
The CPU 20 is a microcomputer that controls the operation of each section of the camera as described above. Shooting preparation for the switch S 1
Starts the operation of each sensor. Exposure start switch S 2 is a so-called release button, is intended to start the exposure operation of the camera. Incidentally, Aru preferably so as to operate as the shooting preparation switch S 1 the release button is actuated in the state of being half-pressed, the exposure start switch S 2 is the release button is fully pressed. The operation and display unit 25 is for displaying various data upon the frame number and the like taking outputs a switching state of the switches S 1 to S 3 to CPU 20, from the CPU 20 as necessary.

また、メモリカードI/F9はCPU20の制御により、前記
画像データ、音声データ及び各種撮影情報をカメラ本体
に装着脱可能なSRAMあるいはE2PROMから成るメモリカー
ド26に記憶し、またメモリカード26の使用状態(記憶領
域の有無等)をCPU20へ出力する。
Further, the control of the memory card I / F9 are CPU 20, the image data, and stores the audio data and various shooting information on the memory card 26 of detachable SRAM or E 2 PROM mounted on the camera body, and the memory card 26 The use state (presence / absence of a storage area) is output to the CPU 20.

メモリカード26に記憶された上記各撮影情報は、後述
するようにファイリング時の検索用情報として利用され
る。
The respective pieces of photographing information stored in the memory card 26 are used as search information at the time of filing as described later.

第2図は、場所コードの送受信装置を説明するもの
で、同図(A)は各地域、観光地あるいはイベント会場
等に設置され場所コードを送信する送信機を示し、同図
(B)は上記場所コードを受信するカメラ本体に設けら
れる受信機を示す。
FIG. 2 is a view for explaining a place code transmitting / receiving apparatus. FIG. 2 (A) shows a transmitter installed in each area, tourist spot or event venue for transmitting a place code, and FIG. 2 shows a receiver provided on a camera body for receiving the location code.

図(A)において、ROM201は場所コード、例えば場所
(イベント)識別コードか、場所(イベント)名の漢字
のJISコード列のいずれかが、あるいは双方が予め書き
込まれたものである。DPSK変調部202はROM201からの出
力コードデータにより搬送波に差分位相変調(DPSK:Dif
ferential Phase Shift Keying)を施すものであ
る。FM変調部203は入力されるシリアルデータにより搬
送波にFM変調を施し、更に増幅器204で所定の電力に増
幅された後、アンテナ205から場所コードを含むFM電波
として送信される。
In FIG. 1A, a ROM 201 is a location code, for example, a location (event) identification code, a JIS code string of kanji of a location (event) name, or both are written in advance. The DPSK modulator 202 performs differential phase modulation (DPSK: Dif) on a carrier using output code data from the ROM 201.
ferential Phase Shift Keying). The FM modulator 203 performs FM modulation on the carrier wave based on the input serial data, further amplifies the carrier to a predetermined power by the amplifier 204, and transmits the FM radio wave including the location code from the antenna 205.

タイミング発生回路206は送信機側の各ブロックのタ
イミングを制御するもので、ROM201には読出用のアドレ
スデータを、DPSK変調部202及びFM変調部203にはクロッ
クパルスCKを出力する。
The timing generation circuit 206 controls the timing of each block on the transmitter side, and outputs read address data to the ROM 201, and outputs a clock pulse CK to the DPSK modulation unit 202 and the FM modulation unit 203.

なお、上記DSPK変調は上記タイミング発生回路206の
クロックパルスCKを用いて可聴域でのAFM、中波でのMFM
あるいはPLL方式等によりデジタルデータから位相差デ
ータを抽出し、シリアルデータに変換するものである。
The DSPK modulation uses the clock pulse CK of the timing generation circuit 206 to perform AFM in the audible range and MFM in the medium wave.
Alternatively, phase difference data is extracted from digital data by a PLL method or the like, and is converted into serial data.

次に、図(B)において、アンテナ21aは前記送信機
側のアンテナ205から送信された場所コードのFM電波を
受信するもので、受信信号は増幅器207で増幅されてFM
復調部208に入力される。受信信号はFM復調部208でキャ
リア周波数が取り除かれ、更に次段DPSK復調部209で元
のコードデータに復調される。CPU20は復調されたコー
ドデータを取込むとともに、メモリカード26に記憶させ
る。すなわち、CPU20は該メモリカード26へのコードデ
ータの書込をその時の撮影画像の書込と対応付けて行う
ようにしている。タイミング発生回路210は受信機側の
各ブロックのタイミングを制御するもので、CPU20から
の制御信号に応じてFM復調部208、DPSK復調部209にクロ
ックパルスCKを出力する。
Next, in FIG. 3B, the antenna 21a receives the FM radio wave of the location code transmitted from the antenna 205 on the transmitter side.
Input to demodulation section 208. The carrier frequency of the received signal is removed by the FM demodulation unit 208, and further demodulated to the original code data by the next-stage DPSK demodulation unit 209. The CPU 20 takes in the demodulated code data and stores it in the memory card 26. That is, the CPU 20 writes the code data to the memory card 26 in association with the writing of the captured image at that time. The timing generation circuit 210 controls the timing of each block on the receiver side, and outputs a clock pulse CK to the FM demodulation unit 208 and the DPSK demodulation unit 209 according to a control signal from the CPU 20.

従って、ある地域、観光地、イベント会場等上記送信
機が設置されている場所で、カメラ撮影が行われると、
場所コードが自動的にメモリカードに記憶される。
Therefore, if camera shooting is performed in a certain area, a sightseeing spot, a place where the above transmitter is installed, such as an event venue,
The location code is automatically stored on the memory card.

なお、上記ROM201はその場所固有の場所コードのみ記
憶しているものでもよく、あるいは複数の場所コードが
予め書込まれており、設置場所に応じた場所コードを出
力すべく切換可能になされたものでもよい。
The above-mentioned ROM 201 may store only a place code specific to the place, or a place code in which a plurality of place codes are written in advance and which can be switched to output a place code corresponding to the installation place. May be.

第3図は、GPS受信機23の詳細なブロック図である。 FIG. 3 is a detailed block diagram of the GPS receiver 23.

アンテナ23aは図外のNAVASTAR衛星からの送信電波を
受信する、例えばクオドリフィラーヘリックス(quadri
filar helix)型である。このアンテナ23aで受信され
たRF信号は混合器230に入力される。一方、変調器231は
局部発振器232からの局部発振信号CK1をPNコード発生器
223からのPNコード信号で拡散するもので、該拡散され
た変調信号は上記混合器230に入力される。これによっ
て、上記RF信号は中間周波数であるIF信号に変換され、
データ復調回路234に入力される。このデータ復調回路2
34は入力信号から衛星が信号を送信する時刻等を含むデ
ータを復調するものである。復調されたデータはデータ
処理回路235及び遅延計測回路236に入力される。
The antenna 23a receives a radio wave transmitted from a NAVASTAR satellite (not shown).
filar helix) type. The RF signal received by the antenna 23a is input to the mixer 230. On the other hand, the modulator 231 PN code generator a local oscillation signal CK 1 from the local oscillator 232
The PN code signal from 223 is spread, and the spread modulated signal is input to the mixer 230. As a result, the RF signal is converted to an intermediate frequency IF signal,
The data is input to the data demodulation circuit 234. This data demodulation circuit 2
34 demodulates data including the time at which the satellite transmits the signal from the input signal. The demodulated data is input to the data processing circuit 235 and the delay measurement circuit 236.

該遅延計測回路236は、先ず復調データが入力される
と、タイミング信号をPNコード発生器233に出力する。P
Nコード発生器233はPNコード用クロック発生器237から
のクロックパルスCK2により常時PNコードを発生してお
り、上記タイミング信号が入力されると発生したPNコー
ドを遅延計測回路236に送出するようになされている。
そして、データ復調回路234からのPNコードとPNコード
発生器233からのPNコードとが遅延計測回路236に導か
れ、両PNコードの相関に必要なPNコードの遅延時間が測
定される。このPNコードの遅延時間は計測用クロック発
生器238からの高周波クロックパルスCK3を計数すること
により計測され、該計数値が両PNコードの相関に必要な
遅延データとして、遅延計測回路236からデータ処理回
路235へ出力される。
The delay measurement circuit 236 first outputs a timing signal to the PN code generator 233 when demodulated data is input. P
N code generator 233 is always PN code generated by the clock pulse CK 2 from the PN code clock generator 237, so as to deliver the PN code generated with the timing signal is input to the delay measurement circuit 236 Has been made.
Then, the PN code from the data demodulation circuit 234 and the PN code from the PN code generator 233 are guided to the delay measurement circuit 236, and the delay time of the PN code required for correlation between the two PN codes is measured. The PN code delay time is measured by counting the high frequency clock pulses CK 3 from the measuring clock generator 238, as the delay data necessary for correlation the regimen the number is two PN codes, data from the delay measuring circuit 236 Output to the processing circuit 235.

データ処理回路235はマイクロプロセッサで構成さ
れ、データ処理用クロック発生回路239からのクロック
パルスCK4によって駆動されるもので、データ復調回路2
34からの復調データ中に含まれる送信時刻データとGPS
受信機内蔵の不図示のセシウム及びルビジウム蒸気原子
時計より得られる受信時刻データとから衛星からGPS受
信機(カメラ)までの電波伝搬時間を求め、該時間より
衛星からGPS受信機(カメラ)までの距離を算出する。
そして、データ処理回路235は、それぞれの衛星からの
距離情報と復調データ中に含まれるそれぞれの衛星自身
の位置情報とからカメラ(撮影者)の緯度、経度及び高
度に関する位置情報を演算して求め、CPU20へ出力す
る。
The data processing circuit 235 is constituted by a microprocessor, it is driven by the clock pulse CK 4 from the data processing clock generation circuit 239, data demodulation circuit 2
Transmission time data and GPS included in demodulated data from 34
The radio wave propagation time from the satellite to the GPS receiver (camera) is obtained from the reception time data obtained from the cesium and rubidium vapor atomic clocks (not shown) built in the receiver, and the time from the satellite to the GPS receiver (camera) is obtained from the time. Calculate the distance.
Then, the data processing circuit 235 calculates and obtains position information on the latitude, longitude and altitude of the camera (photographer) from the distance information from each satellite and the position information of each satellite itself included in the demodulated data. Output to the CPU 20.

GPSは周知のようにNAVASTAR18個により全世界を網羅
するシステムであるが、現在は全ての衛星が打上げられ
ておらず、受信不能な地域や時刻により受信不能となる
地域がある。CPU20は、かかる受信不能な地域において
前記場所コード受信機からの場所コードデータを自動記
憶可能にし、一方、場所コード送信機が設置されておら
ず場所コードが受信されないときは、衛星からのデータ
を受信し、該受信データを位置情報として取り込み、お
互いに補間し合うように、両受信機を制御している。
As is well known, GPS is a system that covers the entire world with 18 NAVASTARs. However, at present, not all satellites have been launched, and there are areas where reception is not possible and areas where reception is not possible due to time. The CPU 20 enables the location code data from the location code receiver to be automatically stored in such an unreceivable area.On the other hand, when the location code transmitter is not installed and the location code is not received, the data from the satellite is transmitted. Receiving, receiving the received data as position information, and controlling both receivers so as to interpolate each other.

第4図は、カメラの動作を説明するフローチャートで
ある。
FIG. 4 is a flowchart illustrating the operation of the camera.

ステップ♯1で、不図示の電源がオンされるのを待
ち、電源がオンになると(ステップ♯1でYES)、メモ
リカード26の有無が判別される(ステップ♯2)。メモ
リカード26が無い場合は「カード無」の表示及び撮影
(記録)不可の警告を行ってステップ♯1に戻る(ステ
ップ♯3、ステップ♯4)。なお、この場合、メモリカ
ード26とは別にカメラ内部に複数コマ記録可能なメモリ
を持たせてもよい。
In step # 1, the control waits until a power supply (not shown) is turned on. When the power is turned on (YES in step # 1), it is determined whether or not the memory card 26 is present (step # 2). If there is no memory card 26, a message "no card" is displayed and a warning that shooting (recording) is impossible is performed, and the process returns to step # 1 (step # 3, step # 4). In this case, a memory capable of recording a plurality of frames may be provided inside the camera separately from the memory card 26.

メモリカード26が装着されている場合は、「カード
有」の表示を行い(ステップ♯5)、続いてメモリカー
ド26の使用状況、すなわち記録可能な空き領域の有無が
検知される(ステップ♯6)。空き領域が無い場合は
(ステップ♯7でYES)、記録不可として警告を行いス
テップ♯1に戻る。なお、前述したように、複数コマ分
の内蔵メモリを備えている場合は、該内蔵メモリの空き
領域の有無も考慮して記録不可の判別をするようにして
もよい。
If the memory card 26 has been inserted, "card present" is displayed (step # 5), and the use status of the memory card 26, that is, the presence or absence of a recordable free area is detected (step # 6). ). If there is no free area (YES in step # 7), a warning is issued that recording is impossible, and the process returns to step # 1. As described above, when a built-in memory for a plurality of frames is provided, it may be determined whether or not recording is possible in consideration of the presence or absence of a free area in the built-in memory.

一方、記録が可能な場合は(ステップ♯7でNO)、撮
影準備用スイッチS1がオンであるか否かの判別が行われ
る(ステップ♯9)。上記スイッチS1がオンでなければ
(ステップ♯9でNO)、カメラは未撮影状態にあると判
断してステップ♯1に戻り、オンであれば(ステップ♯
9でYES)、ステップ♯10に移行して撮影準備のための
各操作、処理が行われる。すなわち、AFセンサ15による
被写体までの測距、WBセンサ14による被写界の色温度測
定、温度センサ17による温度測定、湿度センサ18による
湿度測定、気圧センサ19による気圧測定、GPS受信機23
による測位、そして場所コード受信機21,22による場所
コードを含むFM電波の受信が順次行われる(ステップ♯
10〜ステップ♯16)。なお、上記ステップでは、各セン
サ等からの撮影情報を全て入力するようにしているが、
所望の撮影情報のみ入力可能なように図外のスイッチで
選択し得るようにしてもよい。
On the other hand, if the recording is possible (NO at step # 7), photographing preparation switch S 1 is whether the determination is ON or not (step # 9). If the switch S 1 is not ON (NO in step # 9), the camera returns to step ♯1 and determined to be non-shooting state, if it is on (step ♯
(YES in 9), the process proceeds to step # 10, and various operations and processes for photographing preparation are performed. That is, the AF sensor 15 measures the distance to the subject, the WB sensor 14 measures the color temperature of the field, the temperature sensor 17 measures the temperature, the humidity sensor 18 measures the humidity, the pressure sensor 19 measures the atmospheric pressure, the GPS receiver 23
, And the reception of FM radio waves including the location code by the location code receivers 21 and 22 are sequentially performed (step ♯).
10 to step # 16). In the above steps, all the shooting information from each sensor and the like is input.
A switch (not shown) may be used so that only desired photographing information can be input.

上記各センサ等から撮影情報の入力動作が終了する
と、次に露出スタート用スイッチS2がオンであるか否か
の判別が行われる(ステップ♯17)。上記スイッチS2
オンでなければ(ステップ♯17でNO)、ステップ♯18に
進み、スイッチS1の状態が再度調べられる。ここで、ス
イッチS1がオンであれば(ステップ♯18でYES)、撮影
直前のより正確な撮影情報を取得すべく、ステップ♯10
に戻って再度前記各センサ等によるセンシングが行わ
れ、一方、スイッチS1がオフであれば(ステップ♯18で
NO)、撮影は解除されたものと判断して、ステップ♯1
に戻る。
When the input operation of the photographing information from the sensors or the like is completed, the exposure start switch S 2 is whether the determination is ON or not (step # 17). The switch S 2 is not the ON (NO in step # 17), the flow proceeds to step # 18, the state of the switch S 1 is examined again. Here, if the switch S 1 is ON (YES in step # 18), in order to obtain more accurate imaging information immediately before photographing, step ♯10
Sensing is performed by again the sensors or the like back to, whereas, if the switch S 1 is turned off (in step ♯18
NO), it is determined that the shooting has been canceled, and step # 1
Return to

スイッチS2がオンであれば(ステップ♯17でYES)、
測距データがロックされ、続いてレンズ1から焦点距離
情報f及びAFCPU16からの被写体距離情報Dとが記憶さ
れる(ステップ♯19,ステップ♯20)。そして、WBセン
サ14で得られた測色データがロックされ、次にマイク10
による音声入力動作が開始される(ステップ♯21,ステ
ップ♯22)。また、かかる動作と並行して露光が行われ
(ステップ♯23)、該露光が終了すると(ステップ♯24
でYES)、撮影画像を取り込むための所定の信号処理が
開始される(ステップ♯25)。
If the switch S 2 is on (YES in step # 17),
The distance measurement data is locked, and subsequently, the focal length information f from the lens 1 and the subject distance information D from the AF CPU 16 are stored (step # 19, step # 20). Then, the colorimetric data obtained by the WB sensor 14 is locked, and then the microphone 10
Is started (step # 21, step # 22). Exposure is performed in parallel with this operation (step # 23), and when the exposure is completed (step # 24).
And YES), predetermined signal processing for taking in a captured image is started (step # 25).

続いて、ステップ♯26で、音声入力切換スイッチS3
オンであるか否かが判別され、上記スイッチS3がオンで
あれば(ステップ♯26でYES)、音声が全て取り込まれ
(ステップ♯27)、オンでなければ(ステップ♯26でN
O)、認識用として、例えば1秒間だけ音声が取り込ま
れる(ステップ♯28)。
Then, at step # 26, the audio input selector switch S 3 is determined whether it is turned on, the switch S 3 is equal ON (YES in step # 26), the speech are all taken (Step ♯ 27) If not on (N in step # 26)
O) A voice is taken in for only one second, for example, for recognition (step # 28).

以上の動作の後、画像データ、音声データ及び各セン
サ等から得られた検索用情報(撮影情報)がメモリカー
ド26に対応する形(第27図参照)で書き込まれ(ステッ
プ♯29)、メモリカード26の空き情報の更新がなされる
とともにコマ番号を1だけカウントアップして(ステッ
プ♯30,ステップ♯31)、次の撮影に備える。
After the above operation, the image data, the audio data, and the search information (photographing information) obtained from each sensor and the like are written in a form corresponding to the memory card 26 (see FIG. 27) (step # 29). The empty information of the card 26 is updated, and the frame number is incremented by 1 (step # 30, step # 31) to prepare for the next photographing.

第5図は、検索機能を備えた撮影画像の再生機の一例
を示すブロック図である。
FIG. 5 is a block diagram showing an example of a photographed image reproducing device having a search function.

本再生機はCPU50により統括的に制御される。このCPU
50は、後述する各検索、再生処理内容に応じて各種の制
御機能を果たすよう予めプログラムされている。
The playback device is controlled by the CPU 50 as a whole. This CPU
50 is programmed in advance to perform various control functions in accordance with the contents of each search and reproduction process described later.

メモリカードI/F51はメモリカード26から再生機側へ
記録画像、検索用情報及び該メモリカード26の使用状況
に関するデータを導くとともに、再生機側からメモリカ
ード26へ読出画像選択用データを導くためのインターフ
ェースである。特殊再生処理部52はメモリカード26から
読出された画像を、後述するように特殊処理するもの
で、該特殊再生処理部52で処理された画像データは一旦
画像用フレームメモリ53に格納される。合成部54は画像
データと後述するスーパーインポーズされる画像とを合
成するもので、CPU50からのオンスクリーン表示ON/OFF
切換用制御信号により切換制御される。合成された画像
信号はDAコンバータ55でアナログ信号に変換され、更に
次段増幅器56で増幅された後、TVモニタ57に導かれて再
生表示される。
The memory card I / F 51 guides the recorded image, the search information and the data on the use status of the memory card 26 from the memory card 26 to the player, and also guides the read image selection data from the player to the memory card 26. Interface. The special reproduction processing section 52 performs special processing on the image read from the memory card 26 as described later. The image data processed by the special reproduction processing section 52 is temporarily stored in the image frame memory 53. The synthesizing unit 54 synthesizes the image data and an image to be superimposed, which will be described later.
Switching is controlled by a switching control signal. The synthesized image signal is converted into an analog signal by the DA converter 55, and further amplified by the next-stage amplifier 56, and then guided to the TV monitor 57 to be reproduced and displayed.

スーパーインポーズ用メモリ58は各種検索用情報やス
ケール等のオンスクリーン表示パターンを記憶するもの
である。読出クロック発生回路59は画像フレームメモリ
53、合成部54、DAコンバータ55及びスーパーインポーズ
用メモリ58にそれぞれ読出タイミング用のクロックパル
スを供給するものである。
The superimpose memory 58 stores on-screen display patterns such as various search information and scales. Read clock generation circuit 59 is an image frame memory
53, a synthesizing unit 54, a DA converter 55, and a superimposing memory 58 for supplying clock pulses for read timing.

キャラクタジェネレータ60は日本工業規格JISコード
列の文字フォントを記憶しているもので、前記場所コー
ドとしてJISコード列が採用されている場合に、対応す
る文字コードをCPU50に出力する。ファイリング装置61
は光ディスク等の記録媒体とその駆動回路とから構成さ
れ、メモリカード26内の記録画像を適宜記録する、所謂
アルバムである。このファイリング装置61はCPU50によ
り読出、書込制御され、及び画像、登録用検索情報を記
録するとともに、CPU50に登録用検索情報及びディスク
管理情報を出力する。
The character generator 60 stores a character font of a Japanese Industrial Standard JIS code string, and outputs a corresponding character code to the CPU 50 when a JIS code string is adopted as the location code. Filing device 61
Is a so-called album which is composed of a recording medium such as an optical disk and its drive circuit, and which appropriately records the recorded images in the memory card 26. The filing device 61 is controlled to be read and written by the CPU 50, records an image and search information for registration, and outputs search information for registration and disc management information to the CPU 50.

キーボード62は検索用情報の入力や修正を行うととも
に、ファイリング装置61に記録されている検索用情報、
特に地図、地名の位置指定を行うためのマウス、トラッ
クボールまたはタブレット等の位置指定部材63が接続さ
れている。音声入力部64は検索用音声登録時に音声を入
力するもので、話者データ用E2PROM65は音声登録時の入
力音声を符号化し、登録音声として記録するものであ
る。
The keyboard 62 is used to input and correct search information, and search information recorded in the filing device 61,
In particular, a position specifying member 63 such as a mouse, a trackball or a tablet for specifying the position of a map or a place name is connected. The voice input unit 64 inputs voice at the time of registration of the search voice, and the speaker data E 2 PROM 65 encodes the input voice at the time of voice registration and records it as a registered voice.

また、音声データメモリ66はメモリカードI/F51を介
して入力されるメモリカード26に記録されている音声を
一旦記憶するもので、その後DAコンバータ67、増幅器68
を経てスピード69に導かれて音声再生される。話者認識
部70はメモリカードI/F51を介して入力される音声デー
タと前記話者データ用E2PROM65に登録された話者データ
とを照合して誰の声であるかを判別するものである。こ
の話者の判定結果はCPU50にも出力され、検索時のイン
デックスとして用いられる。
The audio data memory 66 temporarily stores the audio recorded on the memory card 26 input via the memory card I / F 51, and then stores the DA converter 67 and the amplifier 68
And the sound is reproduced by being guided to the speed 69. The speaker recognition unit 70 compares the voice data input via the memory card I / F 51 with the speaker data registered in the speaker data E 2 PROM 65 to determine the voice of the speaker. It is. The result of this speaker determination is also output to the CPU 50 and used as an index at the time of search.

なお、71〜73は記憶画像や検索画像を伝送して出力す
るためのプリンタ、FAX及びTV電話である。
Reference numerals 71 to 73 denote printers, fax machines, and videophones for transmitting and outputting stored images and search images.

上記構成において、次に再生機側の処理を第6図〜第
22図のフローチャートにより説明する。
In the above configuration, the processing on the reproducing apparatus side
This will be described with reference to the flowchart of FIG.

先ず、第6図によりメモリカード26内の画像をファイ
リング装置61に登録する手順について説明する。
First, a procedure for registering an image in the memory card 26 in the filing device 61 will be described with reference to FIG.

メモリカード26が再生機に挿入されると(ステップ♯
41)、該メモリカード26内の記録画像が順次読出される
(ステップ♯42)。読出された記録画像は特殊再生処理
部52でマルチ画面用に再生処理された後、TVモニタ57に
マルチ表示される(ステップ♯43)。マルチ表示は、1
枚のフレームに所定のコマ数、あるいはメモリカード26
内の記録画像数に応じて設定されるコマ数が割り当てら
れることにより行われる。
When the memory card 26 is inserted into the player (step ♯)
41), The recorded images in the memory card 26 are sequentially read (step # 42). The read recorded image is subjected to reproduction processing for a multi-screen by the special reproduction processing section 52, and then multi-displayed on the TV monitor 57 (step # 43). Multi display is 1
A predetermined number of frames or 26
This is performed by allocating the number of frames set according to the number of recorded images in the area.

次に、CPU50はマルチ画面内の画像の中からファイリ
ング装置61に登録を希望する画像の選択を受付け、続い
てキーボード62等により該当する画像のコマ番号を入力
して選択が行われると(ステップ♯44)、選択された画
像について再度マルチ画像の表示が行われる(ステップ
♯45)。次に、ステップ♯45で、カメラ側で入力された
検索用情報の修正、または追加の有無が判断される。こ
の修正、追加の内容しては、話者判別の結果が誤って表
示されている場合の人名修正や位置情報の修正、またコ
メント等の追加が例として挙げられる。
Next, the CPU 50 receives a selection of an image desired to be registered in the filing device 61 from among the images in the multi-screen, and then inputs the frame number of the corresponding image using the keyboard 62 or the like, and the selection is performed (step # 44) Then, the multi image is displayed again for the selected image (step # 45). Next, at step # 45, it is determined whether or not the search information input on the camera side is corrected or added. Examples of the contents of the correction and the addition include a correction of a person name and a correction of position information when a result of the speaker determination is erroneously displayed, and an addition of a comment and the like.

検索用情報の修正等がない場合は(ステップ♯46でN
O)、キーボード62で登録操作を行うことにより前記画
像及び検索用情報がファイリング装置61に記録されると
ともに、該記録された画像、検索用情報がメモリカード
26から消去される(ステップ♯47、ステップ♯48)。メ
モリカード26はこの消去動作により空き領域が出来、新
たな撮影画像の記録が可能となる。
If there is no modification of the search information (N in step # 46
O) By performing a registration operation using the keyboard 62, the image and the search information are recorded in the filing device 61, and the recorded image and the search information are stored in the memory card.
It is deleted from 26 (step # 47, step # 48). The memory card 26 has a free area by this erasing operation, and can record a new photographed image.

一方、修正等がある場合(ステップ♯46でYES)、キ
ーボード62や位置指示部材63で修正等を要する画像が選
択されると、その画像及び検索用情報がTVモニタの画面
に表示される(ステップ♯49、ステップ♯50)。ユーザ
ーは画面を見ながら必要な修正や追加を行う(ステップ
♯51)。一つの画像について修正等が終了する毎にその
他の画像に対して順次修正等の要否の問い掛けが行われ
る(ステップ♯51からステップ♯46へ戻る)。そして、
必要な修正等が完了すると、ステップ♯47に移行して登
録処理が終了する。
On the other hand, if there is a correction or the like (YES in step # 46), when an image requiring correction or the like is selected by the keyboard 62 or the position indicating member 63, the image and the search information are displayed on the screen of the TV monitor ( Step # 49, Step # 50). The user makes necessary corrections and additions while viewing the screen (step # 51). Each time the correction or the like is completed for one image, an inquiry is made as to whether or not the other images need to be corrected (step # 51 returns to step # 46). And
Upon completion of the necessary corrections and the like, the process shifts to step # 47 and the registration process ends.

次に、第7図及び第8図により音声を登録する手順に
ついて説明する。
Next, a procedure for registering voice will be described with reference to FIGS.

第7図は音声と人名を対応付けて登録する「音声登録
I」の手順を示し、第8図は音声のみを登録する「音声
登録II」の手順を示す。この両手順は前記ステップ♯51
で実行するようにしてもよいし、別に音声登録モードと
して持たせるようにしてもよい。
FIG. 7 shows a procedure of "voice registration I" for registering voice and personal name in association with each other, and FIG. 8 shows a procedure of "voice registration II" for registering voice only. Both procedures are performed in step # 51.
, Or may be provided as a separate voice registration mode.

第7図において、先ず、CPU50が音声入力の受付けを
可能にした後、音声入力部64のマイクから音声が入力さ
れると(ステップ♯61)、入力された音声はAD変換さ
れ、符号化される(ステップ♯62、♯63)。この符号化
された音声データは話者データ記録用E2PROM65に登録さ
れる(ステップ♯64)。続いて、CPU50はキーボード62
からのデータを受付け可能にし、話者の人名がキーボー
ド62から入力されると(ステップ♯65)、符号化され
(ステップ♯66)、更に上記話者の音声データと対応付
けられてE2PROM65に登録される(ステップ♯67)。
In FIG. 7, first, after the CPU 50 enables reception of a voice input, when voice is input from the microphone of the voice input unit 64 (step # 61), the input voice is AD-converted and encoded. (Steps # 62 and # 63). The encoded voice data is registered in the speaker data recording E 2 PROM 65 (step # 64). Subsequently, the CPU 50 is connected to the keyboard 62
When the name of the speaker is input from the keyboard 62 (step # 65), the data is encoded (step # 66), and is further associated with the voice data of the speaker and the E 2 PROM 65 Is registered (step # 67).

従って、後述するように音声による検索時にはスーパ
ーインポーズにより検索画像と共に話者の人名がTVモニ
タ57に重ね表示されることになる。
Therefore, the name of the speaker is superimposed and displayed on the TV monitor 57 together with the search image by superimposition during the search by voice as described later.

第8図において、先ず、CPU50が音声入力を受付け可
能とした後、音声入力部64のマイクから音声が入力され
ると(ステップ♯71)、入力された音声はAD変換され、
符号化される(ステップ♯72、♯73)。この符号化され
た音声データは話者データ記録用E2PROM65に登録される
(ステップ♯74)。
In FIG. 8, first, after the CPU 50 makes it possible to receive a voice input, when a voice is input from the microphone of the voice input unit 64 (step # 71), the input voice is AD-converted,
It is encoded (steps # 72 and # 73). The encoded voice data is registered in the speaker data recording E 2 PROM 65 (step # 74).

従って、音声による検索時には検索画像のみがTVモニ
タ57に表示されることになる。
Therefore, only the search image is displayed on the TV monitor 57 during the search by voice.

次に、第9図〜第21図により各種の検索手順を説明す
る。
Next, various search procedures will be described with reference to FIGS.

第9図は検索処理のメインフローを示す。 FIG. 9 shows the main flow of the search process.

先ず、どの項目(条件)で検索するかをキーボード62
等により入力すると、CPU50は該検索項目と各画像乃至
は検索用情報とを照合し(ステップ♯81)、合致した画
像を順次メモリカード26から読出してTVモニタ57にマル
チ表示させる(ステップ♯82)。そして、マルチ表示さ
れた画像の中からユーザーが希望する1または複数の画
像の選択が行われる(ステップ♯83)。現表示画面に対
して選択が終了すると、前記検索項目に合致した画像を
表示する他のマルチ画面全てが表示されたか否かが判断
され(ステップ♯84)、他のマルチ画面があれば現画面
から次画面に更新される(ステップ♯85)。そして、更
新されるマルチ画面に対して画像選択が終了すると(ス
テップ♯83、ステップ♯84でYES)、選択された画像
が、後述するように所望の出力形態で出力される(ステ
ップ♯86)。
First, the keyboard 62 determines which item (condition) is searched.
Then, the CPU 50 checks the search item against each image or search information (step # 81), sequentially reads the matched images from the memory card 26, and causes the TV monitor 57 to display multiple images (step # 82). ). Then, the user selects one or a plurality of desired images from the multi-displayed images (step # 83). When the selection on the current display screen is completed, it is determined whether or not all other multi-screens displaying images matching the search item have been displayed (step # 84). Is updated to the next screen (step # 85). When the image selection for the multi-screen to be updated is completed (YES in steps # 83 and # 84), the selected image is output in a desired output form as described later (step # 86). .

第10図は前記ステップ♯81で示した検索項目に対する
「項目検索」のフローチャートを示す。
FIG. 10 shows a flowchart of “item search” for the search item shown in step # 81.

この実施例では、検索項目として「場所」「日時」
「天候」「人名」「室内外」「人物風景」「イベント」
「音声」等が挙げられている。
In this embodiment, “location” and “date and time” are used as search items.
"Weather""Person'sname""Indoor and outdoor""Portraitscenery""Event"
“Voice” and the like are mentioned.

「項目検索」が開始されると、先ず、検索項目として
「場所」を選択するか否かの問い合わせが行われる(ス
テップ♯91)。「場所」が選択されると、第11図に示す
「場所検索」のフローが実行される(ステップ♯92)。
選択されなければ、次に検索項目として「日時」を選択
するか否かの問い合わせが行われる(ステップ♯93)。
「日時」が選択されると、第12図に示す「日時検索」の
フローが実行される(ステップ♯94)。選択されなけれ
ば、次に検索項目として「天候」を選択するか否かの問
い合わせが行われる(ステップ♯95)。「天候」が選択
されると、第13図に示す「天候検索」のフローが実行さ
れる(ステップ♯96)。選択されなければ、次に検索項
目として「人名」を選択するか否かの問い合わせが行わ
れる(ステップ♯97)。「人名」が選択されると、第14
図に示す「人名検索」のフローが実行される(ステップ
♯98)。選択されなければ、次に検索項目として「室内
外」を選択するか否かの問い合わせが行われる(ステッ
プ♯99)。「室内外」が選択されると、第16図に示す
「室内外検索」のフローが実行される(ステップ♯10
0)。選択されなければ、次に検索項目として「人物風
景」を選択するか否かの問い合わせが行われる(ステッ
プ♯101)。「人物風景」が選択されると、第17図に示
す「人物風景検索」のフローが実行される(ステップ♯
102)。選択されなければ、次に検索項目として「イベ
ント」を選択するか否かの問い合わせが行われる(ステ
ップ♯103)。「イベント」が選択されると、第19図に
示す「イベント検索」のフローが実行される(ステップ
♯104)。選択されなければ、次に検索項目として「音
声」を選択するか否かの問い合わせが行われる(ステッ
プ♯105)。音声が選択されると、第20図に示す「音声
検索」のフローが実行される(ステップ♯106)。続い
て、検索項目の変更や追加等を考慮して、再選択を可能
にしている(ステップ♯107でNO)。この後、「項目検
索」処理を終了して、ステップ♯82にリターンする。
When the "item search" is started, first, an inquiry is made as to whether to select "place" as a search item (step # 91). When "place" is selected, the flow of "place search" shown in FIG. 11 is executed (step # 92).
If not selected, an inquiry is made as to whether to select "date" as a search item (step # 93).
When "date and time" is selected, the flow of "date and time search" shown in FIG. 12 is executed (step # 94). If not selected, an inquiry is made as to whether to select "weather" as a search item (step # 95). When "weather" is selected, the flow of "weather search" shown in FIG. 13 is executed (step # 96). If not selected, an inquiry is made as to whether to select "person name" as a search item (step # 97). When "person name" is selected, the 14th
The flow of "person name search" shown in the figure is executed (step # 98). If not selected, an inquiry is made as to whether to select "indoor / outdoor" as a search item (step # 99). When "indoor / outdoor" is selected, the flow of "indoor / outdoor search" shown in FIG. 16 is executed (step # 10).
0). If not selected, an inquiry is made as to whether to select "person scenery" as a search item (step # 101). When the “person scenery” is selected, the flow of “person scene search” shown in FIG. 17 is executed (step ♯).
102). If not selected, an inquiry is made as to whether to select "event" as a search item (step # 103). When "event" is selected, the flow of "event search" shown in FIG. 19 is executed (step # 104). If not selected, an inquiry is made as to whether to select "voice" as a search item (step # 105). When a voice is selected, the flow of "voice search" shown in FIG. 20 is executed (step # 106). Subsequently, reselection is enabled in consideration of a change or addition of a search item (NO in step # 107). Thereafter, the "item search" process ends, and the process returns to step # 82.

これらの検索項目はカメラ側の各センサ等に依存して
おり、また2以上の項目を重複して選択することも可能
となっている。
These search items depend on each sensor and the like on the camera side, and two or more items can be selected redundantly.

以下、第11図〜第21図により上記各検索処理の詳細を
説明する。
Hereinafter, the details of each of the above search processes will be described with reference to FIGS. 11 to 21.

第11図に示す「場所検索」のフローにおいては、場所
コード及び/またはGPS測位データが位置情報のインデ
ックスになる。
In the flow of “location search” shown in FIG. 11, a location code and / or GPS positioning data is an index of location information.

先ず、TVモニタ57への地図表示の要否が判別される
(ステップ♯111)。地図表示を行う場合、すなわち地
図上で撮影場所を指示する場合はファイリング装置61ま
たはCPU50の内蔵メモリ(図示せず)、若しくは着脱可
能な地図専用メモリ(同じく図示せず)に記憶されてい
る地図をTVモニタ57に導いて表示し(ステップ♯11
2)、マウス等の位置情報部材63で表示地図上における
位置の指定を行う(ステップ♯113)。指示された位置
データ(緯度、経度)は表示地図と位置指示部材63の出
力位置信号に基づいて算出される。あるいは、例えばタ
ブレット等により検出するようにしてもよい。一方、地
図表示が不要な場合は、記録画像に関連付けて記録され
ている地名や場所を読出して表示し、この表示された地
名等の中から所望の地名等をキーボード62から入力する
ことで指定を行う(ステップ♯114、♯115)。続いて、
CPU50は指定された位置または入力された地名等に合致
する画像の検索を実行する(ステップ♯116)。この検
索は各画像に関連付けて記録されている検索用情報を走
査することにより行われる。検索が終了すると、該検索
結果として該当件数が表示される(ステップ♯117)。
このとき、該当する画像のコマ番号を表示するようにし
てもよい。この後、再検索の要否について判別される
(ステップ♯118)。再検索の例としては、該当件数が
多数の場合や逆に零の場合が考えられる。再検索の場合
は他の検索条件を入力または指定すると、上記と同様に
してCPU50による検索が行われる(ステップ♯111〜ステ
ップ♯117)。そして、検索が終了すると(ステップ♯1
18でNO)、ステップ♯93にリターンする。
First, it is determined whether or not a map is to be displayed on the TV monitor 57 (step # 111). When displaying a map, that is, when instructing a shooting location on a map, a map stored in a filing device 61 or a built-in memory (not shown) of the CPU 50, or a detachable map dedicated memory (also not shown). Is displayed on the TV monitor 57 and displayed (step # 11).
2) The position on the display map is designated by the position information member 63 such as a mouse (step # 113). The designated position data (latitude, longitude) is calculated based on the display map and the output position signal of the position indicating member 63. Alternatively, it may be detected by, for example, a tablet or the like. On the other hand, when the map display is not required, the place names and places recorded in association with the recorded image are read out and displayed, and a desired place name or the like is designated from the displayed place names or the like by inputting from the keyboard 62. Is performed (steps # 114 and # 115). continue,
CPU 50 searches for an image that matches the designated position or the input place name or the like (step # 116). This search is performed by scanning the search information recorded in association with each image. When the search is completed, the number of hits is displayed as the search result (step # 117).
At this time, the frame number of the corresponding image may be displayed. Thereafter, it is determined whether or not a re-search is necessary (step # 118). As an example of the re-search, a case where the number of hits is large or a case where it is zero may be considered. In the case of a re-search, if another search condition is input or specified, the search is performed by the CPU 50 in the same manner as described above (step # 111 to step # 117). When the search is completed (step # 1
NO at 18), and returns to step # 93.

第12図に示す「日時検索」のフローにおいては、計時
部24からの日付情報がインデックスとなる。
In the flow of “date and time search” shown in FIG. 12, date information from the clock unit 24 is used as an index.

日時、すなわち何月日あるいは時分又は季節等がキー
ボード62から入力されると(ステップ♯121)、CPU50は
入力された検索条件に合致する画像の検索を実行する
(ステップ♯122)。この検索は前述同様各画像に関連
付けて記録されている検索用情報(日時データ)を走査
することにより行われる。なお、CPU50内には季節と日
時データとを対応付けた記憶手段が設けられており、検
索条件が季節の場合には、入力された季節が該記憶手段
で対応する日時データに変換され、該変換された日時デ
ータにより検索が行われる。
When the date and time, that is, the month, day, hour, minute, or season is input from the keyboard 62 (step # 121), the CPU 50 executes a search for an image that matches the input search condition (step # 122). This search is performed by scanning the search information (date and time data) recorded in association with each image as described above. Note that a storage unit that associates the season with the date and time data is provided in the CPU 50. If the search condition is a season, the input season is converted into the corresponding date and time data by the storage unit. A search is performed using the converted date and time data.

検索が終了すると、該検索結果として該当件数が表示
される(ステップ♯123)。なお、該当する画像のコマ
番号を表示するようにしてもよい点は前述と同様であ
る。この後、再検索の要否について判別される(ステッ
プ♯124)。再検索の場合は他の検索条件を入力する
と、上記と同様にしてCPU50による検索が行われる(ス
テップ♯121〜ステップ♯123)。そして、検索が終了す
ると(ステップ♯124でNO)、ステップ♯95にリターン
する。
When the search is completed, the number of hits is displayed as the search result (step # 123). Note that the frame number of the corresponding image may be displayed as described above. Thereafter, it is determined whether or not a re-search is necessary (step # 124). In the case of a re-search, when another search condition is input, a search is performed by the CPU 50 in the same manner as described above (steps # 121 to # 123). When the search is completed (NO in step # 124), the process returns to step # 95.

第13図に示す「天候検索」のフローにおいては、温度
センサ17や湿度センサ18からの温度、湿度情報がインデ
ックスとなる。
In the flow of “weather search” shown in FIG. 13, temperature and humidity information from the temperature sensor 17 and the humidity sensor 18 are used as indexes.

天候に関する状態、例えば「晴れ」、「雨」、「暑
い」、「寒い」等がキーボード62から入力されると(ス
テップ♯131)、CPU50は入力された検索条件に合致する
画像の検索を、検索用情報を走査することにより行う
(ステップ♯132)。CPU50内には上記天候に関する状態
と温度、湿度からなる天候データとの対応関係を予め記
憶している記憶手段が設けられている。例えば「暑い」
と入力した場合は、温度(気温)が30℃以上のもの、湿
度80%以上のものといったように、ある所定気温、湿度
を基準に検索するようにすればよい。更に、その基準温
度、湿度は場所、日時(季節も)によって変更するよう
にしてもよい。例えば「夏+暑い」で検索したい場合
は、気温が30℃以上で、かつ7,8,9月のものとし、一
方、「冬+暑い」では気温が25℃以上で、かつ12,1,2月
のものというようにする。そして、検索時には、入力さ
れた天候に関する状態を上記記憶手段で対応する天候デ
ータに変換し、該変換された天候データにより検索が行
われる。
When a state related to the weather, for example, “sunny”, “rain”, “hot”, “cold”, or the like is input from the keyboard 62 (step # 131), the CPU 50 searches for an image that matches the input search condition. This is performed by scanning the search information (step # 132). The CPU 50 is provided with storage means for storing in advance the correspondence between the above-mentioned weather-related state and weather data including temperature and humidity. For example, "hot"
Is input, the search may be performed based on a predetermined temperature and humidity, such as a temperature (temperature) of 30 ° C. or more and a humidity of 80% or more. Further, the reference temperature and the humidity may be changed depending on the place, date and time (also season). For example, if you want to search for “summer + hot”, the temperature should be 30 ° C or higher and July, August, September, while “winter + hot” should be 25 ° C or higher and 12,1, February thing. Then, at the time of retrieval, the input weather-related state is converted into corresponding weather data by the storage means, and a search is performed using the converted weather data.

検索が終了すると、該検索結果として該当件数等が表
示される(ステップ♯133)。この後、再検索の要否に
ついて判別される(ステップ♯134)。再検索の場合は
他の検索条件を入力すると、上記と同様にしてCPU50に
よる検索が行われる(ステップ♯131〜ステップ♯13
3)。そして、検索が終了すると(ステップ♯134でN
O)、ステップ♯97にリターンする。
When the search is completed, the number of hits is displayed as the search result (step # 133). Thereafter, it is determined whether or not a re-search is necessary (step # 134). In the case of a re-search, when another search condition is input, a search by the CPU 50 is performed in the same manner as described above (steps # 131 to # 13).
3). When the search is completed (N in step # 134)
O), and return to step # 97.

第14図に示す「人名検索」のフローにおいては、「音
声」、または「人名」がインデックスとなる。
In the flow of “person name search” shown in FIG. 14, “speech” or “person name” is an index.

「人名」がキーボード62から入力されると(ステップ
♯141)、CPU50は入力された検索条件に合致する画像の
検索を実行する(ステップ♯142)。この処理は第15図
に示す「検索処理I」に従って行われる。すなわち、先
ず、「音声」による検索か「人名」による検索かが判別
される(ステップ♯151)。「音声」による検索の場合
は、入力された人名は符号化されて人名コードに変換さ
れ、該人名コードに対応した音声コードがE2PROM65から
抽出される(ステップ♯153、♯154)。次に、ファイリ
ング装置61から予め登録されている画像に関連付けられ
て記録されている音声データが抽出され、符号化される
(ステップ♯155、♯156)。そして、E2PROM65からの音
声コードとファイリング装置61からの音声コードとの照
合が行われる(ステップ♯157)。この照合はファイリ
ング装置61内に登録された画像の音声コードを順次走査
することにより、全画像に対して行われる(ステップ♯
156〜ステップ♯158でNO、ステップ♯159のループ)。
全画像に対する照合が終了すると(ステップ♯158でYE
S)、ステップ♯143にリターンする。一方、ステップ♯
151で、人名による検索が選択された場合は、ファイリ
ング装置61への画像登録時に入力された人名コードを走
査して検索し(ステップ♯152)、該検索が終了する
と、ステップ♯143にリターンする。
When "person name" is input from keyboard 62 (step # 141), CPU 50 executes a search for an image that matches the input search condition (step # 142). This process is performed in accordance with "search process I" shown in FIG. That is, first, it is determined whether the search is based on “voice” or “person name” (step # 151). For search by "voice", names entered is converted encoded in the personal name code, audio code corresponding to the person name code is extracted from the E 2 PROM65 (step ♯153, ♯154). Next, audio data recorded in association with a pre-registered image is extracted from the filing device 61 and encoded (steps # 155 and # 156). Then, the voice code from E 2 PROM 65 and the voice code from filing device 61 are collated (step # 157). This collation is performed for all the images by sequentially scanning the audio codes of the images registered in the filing device 61 (step # 1).
NO from 156 to step # 158, loop of step # 159).
When the collation for all images is completed (YE in step # 158)
S), and return to step # 143. Meanwhile, step ♯
If the search by the personal name is selected in 151, the personal name code input at the time of registering the image in the filing apparatus 61 is scanned and searched (step # 152). When the search is completed, the process returns to step # 143. .

第14図に戻って、上記検索結果として該当件数等が表
示される(ステップ♯143)。この後、再検索の要否に
ついて判別される(ステップ♯144)。再検索の場合は
他の検索条件を入力すると、上記と同様にしてCPU50に
よる検索が行われる(ステップ♯141〜ステップ♯14
3)。そして、検索が終了すると(ステップ♯144でN
O)、ステップ♯99にリターンする。
Returning to FIG. 14, the number of hits and the like are displayed as the search results (step # 143). Thereafter, it is determined whether or not a re-search is necessary (step # 144). In the case of a re-search, when another search condition is input, a search by the CPU 50 is performed in the same manner as described above (steps # 141 to # 14).
3). When the search is completed (N in step # 144)
O), and return to step # 99.

第16図に示す「室内外検索」のフローにおいては、WB
センサ14からの出力がインデックスとなる。
In the flow of “indoor / outdoor search” shown in FIG. 16, WB
The output from the sensor 14 serves as an index.

「室内」、「屋外」の一方が選択的にキーボード62か
ら入力されると(ステップ♯161)、CPU50は入力された
検索条件に合致する画像の検索を、検索用情報を走査す
ることにより行う(ステップ♯162)。CPU50内には、上
記検索条件とWBセンサの出力(色温度データ)との対応
関係、例えば螢光灯下に相当する色温度データに対して
は「室内」、太陽光下に相当する色温度データに対して
は「屋外」として記憶する記憶手段が設けられている。
そして、検索時には、入力された「室内」、「屋外」の
一方を上記記憶手段で対応する色温度データに変換し、
該変換された色温度データにより検索が行われる。
When either “indoor” or “outdoor” is selectively input from the keyboard 62 (step # 161), the CPU 50 searches for an image that matches the input search condition by scanning the search information. (Step # 162). In the CPU 50, the correspondence between the above search condition and the output (color temperature data) of the WB sensor, for example, for the color temperature data corresponding to under fluorescent light, "indoor", and the color temperature corresponding to under sunlight A storage means for storing data as "outdoors" is provided.
Then, at the time of retrieval, one of the input “indoor” and “outdoor” is converted into the corresponding color temperature data by the storage means,
A search is performed using the converted color temperature data.

検索が終了すると、該検索結果として該当件数等が表
示される(ステップ♯163)。この後、再検索の要否に
ついて判別される(ステップ♯164)。再検索の場合は
他の検索条件を入力すると、上記と同様にしてCPU50に
よる検索が行われる(ステップ♯161〜ステップ♯16
3)。そして、検索が終了すると(ステップ♯164でN
O)、ステップ♯101にリターンする。
When the search is completed, the number of hits is displayed as the search result (step # 163). Thereafter, it is determined whether or not a re-search is necessary (step # 164). In the case of a re-search, when other search conditions are input, a search by the CPU 50 is performed in the same manner as described above (steps # 161 to # 16).
3). When the search is completed (N in step # 164)
O), and return to step # 101.

第17図に示す「人物風景検索」のフローにおいては、
「焦点距離f」及び「被写体距離D」の情報(像倍率β
=f・D)がインデックスとなる。
In the flow of “person scenery search” shown in FIG. 17,
Information on “focal length f” and “subject distance D” (image magnification β
= FD) is the index.

先ず、「人物」か「風景」のいずれかがキーボード62
から入力されると(ステップ♯171)、CPU50は入力され
た検索条件に合致する画像の検索を実行する(ステップ
♯172)。この処理は第18図に示す「検索処理II」に従
って行われる。すなわち、先ず、ファイリング装置61に
予め登録された画像に対応して記録されている焦点距離
fと被写体距離Dとが全て読出されて全画像に対する各
像倍率β=f・Dが演算される(ステップ♯181)。続
いて、得られた各像倍率βがβ≧1/100か否かが判別さ
れ(ステップ♯182)、β≧1/100であれば、風景である
と判断し(ステップ♯184)、逆の場合は人物であると
判断する(ステップ♯183)。そして、CPU50は、検索条
件として「人物」が入力されたときはステップ♯183の
結果を抽出し、一方「風景」が入力されたときはステッ
プ♯184の結果を抽出する。
First, either “person” or “landscape” is displayed on the keyboard 62.
(Step # 171), the CPU 50 searches for an image that matches the input search condition (step # 172). This process is performed in accordance with “search process II” shown in FIG. That is, first, all the focal length f and the subject distance D recorded corresponding to the images registered in advance in the filing device 61 are read out, and each image magnification β = f · D for all the images is calculated ( Step # 181). Subsequently, it is determined whether or not each of the obtained image magnifications β is β ≧ 1/100 (step # 182). If β ≧ 1/100, it is determined that the image is a landscape (step # 184). Is determined to be a person (step # 183). Then, CPU 50 extracts the result of step # 183 when "person" is input as a search condition, and extracts the result of step # 184 when "landscape" is input.

なお、照合方法として、前述のように画像毎に判別を
行い、かかる判別を順次繰り返し行うようにしてもよ
い。全画像に対する判別が終了すると、ステップ♯173
にリターンする。
As a matching method, the determination may be performed for each image as described above, and the determination may be sequentially repeated. Upon completion of the determination for all the images, step # 173
Return to

第17図に戻って、上記検索結果として該当件数等が表
示される(ステップ♯173)。この後、再検索の要否に
ついて判別される(ステップ♯174)。再検索の場合は
他方の検索条件を入力すると、上記と同様にしてCPU50
による検索が行われる(ステップ♯171〜ステップ♯17
3)。そして、検索が終了すると(ステップ♯174でN
O)、ステップ♯103にリターンする。
Returning to FIG. 17, the number of hits and the like are displayed as the search result (step # 173). Thereafter, it is determined whether re-search is necessary (step # 174). In the case of a re-search, enter the other search condition and the CPU 50
(Step # 171 to Step # 17)
3). When the search is completed (N in step # 174)
O), and return to step # 103.

なお、上記実施例では、像倍率βと「人物」、「風
景」との関連付けをプログラムとして記憶しているが、
予め像倍率βと「人物」、「風景」とが対応付けて記憶
された記憶手段をCPU50内に設けておいてもよい。ま
た、他の検索方法として、記録されている焦点距離fと
被写体距離Dとから像倍率βを求め、一方、入力される
「人物」、「風景」に対する像倍率βの範囲を予め定め
ておき、検索対象となる各像倍率βがいずれの範囲に含
まれるかを判断することにより検索を行うようにしても
よい。
In the above embodiment, the association between the image magnification β and “person” or “landscape” is stored as a program.
A storage unit in which the image magnification β and “person” and “landscape” are stored in advance in the CPU 50 may be provided. As another search method, the image magnification β is obtained from the recorded focal length f and the subject distance D, and the range of the image magnification β for the input “person” and “landscape” is determined in advance. Alternatively, the search may be performed by determining in which range each image magnification β to be searched falls.

第19図に示す「イベント検索」のフローにおいては、
場所コード(イベントコード)がインデックスとなる。
In the flow of “event search” shown in FIG.
The location code (event code) serves as an index.

イベント名がキーボード62から入力されると(ステッ
プ♯191)、CPU50は入力された検索条件に合致する画像
の検索を、ファイリング装置61に予め登録された画像に
関連付けて記録されたイベントコードを走査することに
より行う(ステップ♯192)。検索が終了すると、該検
索結果として該当件数等が表示される(ステップ♯19
3)。この後、再検索の要否について判別される(ステ
ップ♯194)。再検索の場合は他の検索条件を入力する
と、上記と同様にしてCPU50による検索が行われる(ス
テップ♯191〜ステップ♯193)。そして、検索が終了す
ると(ステップ♯194でNO)、ステップ♯105にリターン
する。
When an event name is input from the keyboard 62 (step # 191), the CPU 50 scans an event code recorded in association with an image registered in advance in the filing device 61 for a search for an image matching the input search condition. (Step # 192). When the search is completed, the number of hits is displayed as the search result (step # 19).
3). Thereafter, it is determined whether or not a re-search is necessary (step # 194). In the case of a re-search, when another search condition is input, a search is performed by the CPU 50 in the same manner as described above (step # 191 to step # 193). When the search ends (NO in step # 194), the process returns to step # 105.

なお、場所コードとして、その場所の識別コードもし
くは場所に関する情報を表示する文字のJISコード列に
すれば、該コードにより直接検索が可能となり、撮影時
には、場所コードの内容を判別することなくそのまま記
録することが可能となる。また、場所コードの内容を判
別するための特別な判別手段を必要としないので、その
分、例えば検索側の構成の簡素化が図れる。
If the location code is a location identification code or a JIS code string of characters indicating information about the location, the code can be searched directly, and when shooting, the location code is recorded without discrimination. It is possible to do. In addition, since no special determining means for determining the content of the location code is required, the configuration on the search side can be simplified accordingly.

第20図に示す「音声検索」のフローにおいては、画像
と関連付けて記録されている音声と検索の際に入力され
る音声とが照合される。
In the “voice search” flow shown in FIG. 20, the voice recorded in association with the image is compared with the voice input at the time of the search.

音声入力部64のマイクから音声が入力されると(ステ
ップ♯201)、CPU50は入力された音声に合致する画像の
検索を実行する(ステップ♯192)。この処理は第21図
に示す「検索処理III」に従って行われる。すなわち、
先ず、入力された音声はAD変換され、符号化された後、
不図示の参照部に記憶される(ステップ♯211〜ステッ
プ♯213)。次に、ファイリング装置61から予め登録さ
れている画像に関連付けられて記録されている音声デー
タが抽出され、符号化される(ステップ♯214、♯21
5)。そして、上記参照部からの音声コードとファイリ
ング装置61からの音声コードとの照合が行われる(ステ
ップ♯216)。この照合はファイリング装置61内に登録
された画像の音声コードを順次走査することにより、全
画像に対して行われる(ステップ♯215〜ステップ♯217
でNO、ステップ♯218のループ)。全画像に対する照合
が終了すると(ステップ♯217でYES)、ステップ♯203
にリターンする。
When a voice is input from the microphone of the voice input unit 64 (step # 201), the CPU 50 searches for an image matching the input voice (step # 192). This process is performed in accordance with the "search process III" shown in FIG. That is,
First, the input voice is A / D converted and coded,
The information is stored in a reference unit (not shown) (step # 211 to step # 213). Next, audio data recorded in association with a pre-registered image is extracted from the filing device 61 and encoded (steps # 214 and # 21).
Five). Then, the voice code from the reference unit and the voice code from filing device 61 are collated (step # 216). This collation is performed for all the images by sequentially scanning the audio codes of the images registered in the filing device 61 (steps # 215 to # 217).
NO, step # 218 loop). When the matching for all images is completed (YES in step # 217), step # 203
Return to

第20図に戻って、上記検索結果として該当件数等が表
示される(ステップ♯203)。この後、再検索の要否に
ついて判別される(ステップ♯204)。再検索の場合は
音声による他の言葉を入力すると、上記と同様にしてCP
U50による検索が行われる(ステップ♯201〜ステップ♯
203)。そして、検索が終了すると(ステップ♯204でN
O)、ステップ♯107にリターンする。
Returning to FIG. 20, the number of hits and the like are displayed as the search result (step # 203). Thereafter, it is determined whether or not a re-search is necessary (step # 204). In the case of re-search, enter another word by voice, and in the same way as above, CP
Search by U50 is performed (Step {201 to Step})
203). When the search is completed (N in step # 204)
O), and return to step # 107.

次に、第9図に戻って、ステップ♯86の実行処理につ
いて、第22図を用いて説明する。
Next, returning to FIG. 9, the execution process of step # 86 will be described with reference to FIG.

この実行モードでは、先ず、出力形態の選択が行われ
る。表1はこの出力形態を示すものである。
In this execution mode, first, an output mode is selected. Table 1 shows this output form.

すなわち、検索が完了した後、上記表1のA〜Fの出
力形態の中から1つの出力形態が選択され、キーボード
62から、例えば対応する文字が入力されると(ステップ
♯221)、検索結果である出力画像数をNと設定し(ス
テップ♯222)、続いて、出力すべき画像がコマ番号の
小さい順にファイリング装置61から読み出されて順次フ
レームメモリ53に転送される(ステップ♯223)。次
に、ステップ♯221で選択された出力形態に沿って画像
を出力する。出力形態Aが選択された場合(ステップ♯
224でYES)、そのままTVモニタ57に表示される。出力形
態Bが選択された場合(ステップ♯225でYES)、その画
像の焦点距離f、被写体距離Dの情報より撮像面上での
被写体の大きさに関するデータ、すなわち目盛サイズが
決定され、画像と該目盛サイズとが合成される(ステッ
プ♯226、♯227)。すなわち、目盛サイズがスーパーイ
ンポーズの形で合成部54で画像と合成され、TVモニタ57
に出力される。
That is, after the search is completed, one output form is selected from the output forms A to F in Table 1 above, and
For example, when a corresponding character is inputted from step 62 (step # 221), the number of output images as a search result is set to N (step # 222), and subsequently, images to be output are filed in ascending order of frame number. The data is read from the device 61 and sequentially transferred to the frame memory 53 (step # 223). Next, an image is output according to the output mode selected in step # 221. When the output mode A is selected (step ♯)
The display is displayed on the TV monitor 57 as it is (YES in 224). When the output mode B is selected (YES in step # 225), data on the size of the subject on the imaging surface, that is, the scale size is determined from the information on the focal length f and the subject distance D of the image, and The scale size is combined (steps # 226, # 227). That is, the scale size is superimposed on the image by the synthesizing unit 54 in a superimposed form,
Is output to

例えば単位スケール表示を行う場合(第24図(B)参
照)、該単位スケールSCに記される目盛サイズは、焦点
距離f、被写体距離Dから算出した像倍率βから上記単
位スケール当りの長さを算出したものである。ここで、
上記単位スケールSCの長さの算出について、第23図に示
される結像状態にある原理図を用いて具体的に説明す
る。図中、Lは撮影距離で、被写体100から撮像面200ま
での距離、fは撮影レンズ300の焦点距離、Hは撮影レ
ンズ300の主点間隔、xは被写体100から撮影レンズ300
の前側焦点までの距離、x′は撮像面200から撮影レン
ズ300の後側焦点までの距離、yは被写体100の長さ及び
y′は撮像面200での被写体100の像の長さであり、上記
各変数L、f、H、x、x′、y、y′の間には、 y:y′=x:f=f:x′ ……(1) x′=L−2f−H−x ……(2) の関係がある。この(1),(2)式からは、 x2−(L−2f−H)x+f2=0− ……(3) の方程式が成立する。この(3)式の根を求めると、 更に、上記(2)式を利用して、 となる。また、上記(1)式から、 y=y′・x/f ……(6) y=y′・f/x′ ……(7) であるので、上記(4)、(5)式のx、x′に基づい
てこの(6)式または(7)式の演算を行えば、撮像面
上の像の長さy′に対応した被写体の長さyが求まる。
ここで、上記撮像面上の像の長さy′を前記単位スケー
ルSCの長さとして扱うと、この単位スケールは(撮像面
上での)その実長が予め分かっているので、前記(6)
式または(7)式の演算により該単位スケールSCの目盛
サイズが求められる。
For example, when a unit scale is displayed (see FIG. 24 (B)), the scale size described on the unit scale SC is obtained by calculating the length per unit scale from the image magnification β calculated from the focal length f and the subject distance D. Is calculated. here,
The calculation of the length of the unit scale SC will be specifically described with reference to a principle diagram in an imaging state shown in FIG. In the figure, L is the shooting distance, the distance from the subject 100 to the imaging surface 200, f is the focal length of the shooting lens 300, H is the distance between the principal points of the shooting lens 300, and x is the distance from the subject 100 to the shooting lens 300.
, X ′ is the distance from the imaging surface 200 to the back focus of the taking lens 300, y is the length of the subject 100, and y ′ is the length of the image of the subject 100 on the imaging surface 200. , Y: y '= x: f = f: x' between the variables L, f, H, x, x ', y and y' (1) x '= L-2f-H −x (2) From the equations (1) and (2), the equation x 2 − (L−2f−H) x + f 2 = 0− (3) is established. When the root of this equation (3) is obtained, Further, using the above equation (2), Becomes From the above equation (1), y = y ′ · x / f (6) y = y ′ · f / x ′ (7) By performing the calculation of the expression (6) or (7) based on x and x ', the length y of the subject corresponding to the length y' of the image on the imaging surface is obtained.
Here, when the length y 'of the image on the imaging surface is treated as the length of the unit scale SC, the actual length (on the imaging surface) of the unit scale is known in advance, and therefore, (6)
The scale size of the unit scale SC is obtained by the operation of the expression or the expression (7).

第24図は、目盛サイズの表示例を示す。 FIG. 24 shows a display example of the scale size.

同図(A)は像倍率をそのまま表示する場合の表示例
であり、同図(B)は単位スケールSCが10cmに相当する
ことを示した場合の表示例である。
FIG. 7A is a display example when the image magnification is displayed as it is, and FIG. 8B is a display example when the unit scale SC is equivalent to 10 cm.

かかる目盛サイズの表示により、画像の実際の大きさ
が把握容易となる。また、スケールSCの表示タイミング
はCPU50で制御される読出しクロック発生部59により自
在に変更可能にし得るので、スケールSCを所望の位置に
移動させることが出来、例えばトラックボール(位置指
定部材63)で行えるようにすれば操作性にも優れる。更
に、スケール表示のオン、オフ切換も容易であり、また
同図(A)と(B)の表示形態を自由に切換えるように
してもよい。
The display of the scale size makes it easy to grasp the actual size of the image. In addition, the display timing of the scale SC can be freely changed by the read clock generator 59 controlled by the CPU 50, so that the scale SC can be moved to a desired position, for example, by a trackball (position specifying member 63). If it can be performed, the operability will be excellent. Further, it is easy to switch on and off the scale display, and the display modes shown in FIGS. 3A and 3B may be freely switched.

なお、特開昭58−158507号公報記載の技術を用いて、
スケールを銀塩フィルムに写し込むようにすることによ
り、該目盛サイズの表示を銀塩フィルムの場合にも適用
可能にすることが出来る。
Incidentally, using the technology described in JP-A-58-158507,
By displaying the scale on a silver halide film, the display of the scale size can be applied to a silver halide film.

次に、出力形態Cが選択された場合(ステップ♯228
でYES)、表示画面のサイズ(たとえばCRTのインチ等)
がキーボード62より入力される(ステップ♯229)。続
いて、焦点距離f、被写体距離Dから求まる像倍率と上
記表示画面サイズとから画像サイズの変更が行われる
(ステップ♯230)。すなわち、実際の被写体の大きさ
に対する最終的にTVモニタ57に表示された画像の大きさ
の表示倍率(画像サイズ)が表示され、あるいは表示倍
率を表示画面サイズに関係なく所定サイズに固定すべく
表示画像の大きさが変更されて表示される。
Next, when the output mode C is selected (step # 228
YES), display screen size (eg CRT inch etc.)
Is input from the keyboard 62 (step # 229). Subsequently, the image size is changed based on the image magnification obtained from the focal length f and the subject distance D and the display screen size (step # 230). That is, in order to display the display magnification (image size) of the size of the image finally displayed on the TV monitor 57 with respect to the actual size of the subject, or to fix the display magnification to a predetermined size regardless of the display screen size. The size of the display image is changed and displayed.

すなわち、CPU50は、焦点距離f、被写体距離Dから
求まる像倍率と上記表示画面サイズとから再生画像の表
示倍率を求める表示倍率算出手段を有しており、この表
示倍率算出手段により、実際の被写体の大きさに対する
TVモニタ57に表示された画像の大きさが決定される。ま
た、予め表示倍率が設定されている場合には、上記表示
倍率算出手段により求められた表示倍率と該設定倍率と
の比率を求め、この比率に応じて、表示される画像を拡
大、縮小すべく画像処理が施される。上記において、最
終的な表示倍率は必要に応じてTVモニタ57の適所に表示
される。
That is, the CPU 50 has display magnification calculating means for obtaining a display magnification of a reproduced image from the image magnification obtained from the focal length f and the object distance D and the display screen size. For the size of
The size of the image displayed on the TV monitor 57 is determined. If the display magnification is set in advance, a ratio between the display magnification calculated by the display magnification calculation means and the set magnification is obtained, and the displayed image is enlarged or reduced according to the ratio. Image processing is performed for this purpose. In the above, the final display magnification is displayed at an appropriate position on the TV monitor 57 as necessary.

このようにすることにより、TVモニタ57に表示された
画像の実際の大きさを把握容易にすることが出来る。
This makes it easy to grasp the actual size of the image displayed on the TV monitor 57.

次に、出力形態Dが選択された場合(ステップ♯231
でYES)、合成表示させたい画像が前記第10図で示す項
目検索で抽出される(ステップ♯232)。そして、検索
条件に合致した画像の中から所望の画像が選択される
(ステップ♯233)。続いて、先に選択された画像の像
倍率と後に選択された画像の像倍率及び併記表示される
両画像が特殊再生処理部52に導かれ、ここで、例えば両
画像内の特定の被写体が同一大になるように画像サイズ
が適宜変更されて画像フレームメモリに53に書込まれ、
TVモニタ57に出力される(ステップ♯234)。このよう
にすることにより、最終的にTVモニタ57に併記表示され
た両画像内の被写体の大きさをあたかも同一大にして表
示させることが出来る。あるいは、逆に併記表示される
両画像の画像サイズが一致するようにすれば、両画像内
の被写体の実際の大きさが容易に対比できる。更に、前
記スケール表示の場合と同様、両表示画像をトラックボ
ール(位置指定部材63)等で移動(重畳)することによ
り、合成写真等を楽しむことができる。
Next, when the output form D is selected (step # 231
YES), an image to be combined and displayed is extracted by the item search shown in FIG. 10 (step # 232). Then, a desired image is selected from the images that match the search condition (step # 233). Subsequently, the image magnification of the previously selected image, the image magnification of the subsequently selected image, and both displayed images are guided to the special reproduction processing unit 52, where, for example, a specific subject in both images is displayed. The image size is appropriately changed so as to be the same size, written into the image frame memory 53,
Output to the TV monitor 57 (step # 234). By doing so, the size of the subject in both images finally displayed together on the TV monitor 57 can be displayed as if they were the same size. Alternatively, if the image sizes of the two images displayed side by side are matched, the actual size of the subject in both images can be easily compared. Further, as in the case of the scale display, by moving (superimposing) both display images with a trackball (position specifying member 63) or the like, a composite photograph or the like can be enjoyed.

なお、今回の撮影画像と以前に撮影した写真とを両像
倍率を利用して合成するようにし、例えば頭切れ写真等
を完成写真として再生することも可能となる。
It is to be noted that the current photographed image and the previously photographed image are combined by using both image magnifications, and for example, it is also possible to reproduce a head-cut photograph or the like as a completed photograph.

次に、出力形態Eが選択された場合(ステップ♯235
でYES)、表示される画像は特殊再生処理部52に導か
れ、ここで表示画像に対してモザイク、ネガ/ポジ反転
等各種の特殊加工が施された後、TVモニタ57に出力され
る(ステップ♯236)。
Next, when the output mode E is selected (step # 235
YES), the displayed image is guided to the special reproduction processing unit 52, where the display image is subjected to various special processing such as mosaic, negative / positive inversion, and then output to the TV monitor 57 ( Step # 236).

次に、出力形態Fが選択された場合(ステップ♯235
でNO)、1画面に4枚、9枚あるいは16枚等の所定枚数
の画像が再生される。この所定枚数は予め、あるいは必
要に応じて前記枚数が選択され、また(2×3)枚のよ
うな所望の枚数が選択しえるようにしてもよい。
Next, when the output mode F is selected (step # 235
NO), a predetermined number of images such as four, nine or sixteen are reproduced on one screen. The predetermined number may be selected in advance or as necessary, or a desired number such as (2 × 3) may be selected.

先ず、マルチ再生を希望する画像のコマ番号と画像枚
数とが記憶される(ステップ♯237)。次に、画像枚数
が上記所定枚数になったか否かが判別され(ステップ♯
238)、所定枚数であると、マルチ処理が施されて(ス
テップ♯239)、ステップ♯240に移行する。一方、所定
枚数でなければ、ステップ♯247に移行する。なお、出
力形態Fの場合の処理の詳細については、後述する。
First, the frame number and the number of images of the image desired to be multi-reproduced are stored (step # 237). Next, it is determined whether or not the number of images has reached the predetermined number (step # 1).
238) If the number is the predetermined number, multi-processing is performed (step # 239), and the routine goes to step # 240. On the other hand, if it is not the predetermined number, the process moves to step # 247. The details of the processing in the case of the output mode F will be described later.

さて、出力形態A〜Fのいずれかが選択され、該選択
の下で得られた画像がTVモニタ57に表示されると(ステ
ップ♯240)、次に、表示画像について音声が記録され
ているか否かの判別が行われる(ステップ♯241)。音
声が記録されているときは、表示画像に対応する音声が
再生される(ステップ♯242)。続いて、表示画像をプ
リントするかどうか、また伝送するかどうかが判別され
る(ステップ♯243、♯245)。プリント指示を行うと、
プリンタ71により表示画像のプリントアウトが行われ、
また伝送指示を行うと、FAX72やTV電話73等を利用して
表示画像の伝送が行われる(ステップ♯244、♯246)。
Now, when one of the output modes A to F is selected and an image obtained under the selection is displayed on the TV monitor 57 (step # 240), next, is it determined whether or not sound is recorded for the displayed image? It is determined whether or not it is (step # 241). If the sound is recorded, the sound corresponding to the displayed image is reproduced (step # 242). Subsequently, it is determined whether the display image is to be printed or not (steps # 243 and # 245). When you give a print instruction,
The display image is printed out by the printer 71,
When the transmission instruction is given, the display image is transmitted using the FAX 72, the videophone 73, or the like (steps # 244, # 246).

1枚のプリントあるいは伝送が終了すると、前記ステ
ップ♯221で設定された出力画像数Nが1だけデクリメ
ントされ(出力形態Fが選択されている場合は除く)、
続いて、該出力画像数Nが0かどうかが判別される(ス
テップ♯248)。N=0でなければ、ステップ♯221に戻
って、次の画像が表示され、該表示画像がプリントや伝
送された後、Nの値がデクリメントされる(ステップ♯
221〜ステップ♯247)。かかる処理は出力画像数分繰り
返し行われ、この後、N=0になると(ステップ♯248
でYES)、出力形態Fの場合を除いて(ステップ♯249で
YES)、第9図のメインフローにリターンする。
When the printing or transmission of one sheet is completed, the number N of output images set in step # 221 is decremented by 1 (except when the output form F is selected).
Subsequently, it is determined whether or not the output image number N is 0 (step # 248). If N = 0, the process returns to step # 221, where the next image is displayed. After the displayed image is printed or transmitted, the value of N is decremented (step # 221).
221 to step # 247). Such processing is repeated for the number of output images, and when N = 0 (step # 248)
YES), except in the case of the output form F (step # 249
YES), returning to the main flow of FIG.

一方、出力形態Fが選択されているときは、1画面内
に所定枚数の画像が取り込まれることから、前記出力形
態A〜Fの場合と多少異なる処理が行われる。すなわ
ち、画像が読出される毎にその画像数が出力画像数Nか
らデクリメントされ(ステップ♯238でNO、ステップ♯2
47)、所定数に達する毎に(ステップ♯238でYES)、マ
ルチ処理が施される(ステップ♯239)。そして、マル
チ処理された所定枚数の画像がTVモニタ57に表示された
後、所定枚数単位で前述同様プリントあるいは伝送され
る。このとき、所定枚数に達した時点の画像分がステッ
プ♯246の後のステップ♯247でデクリメントされること
により、出力画像数Nの正確なデクリメント処理が行わ
れるようにされている。なお、出力形態Fの場合で、出
力画像数Nが所定枚数の整数倍でないときは、ステップ
♯248でN=0となっても、残りの画像が存在するので
(ステップ♯238でNO、ステップ♯248でYES、ステップ
♯249でNO)、この残りの画像についてもステップ♯240
以降の処理が行われる。
On the other hand, when the output mode F is selected, a predetermined number of images are taken in one screen, so that processing slightly different from that of the output modes A to F is performed. That is, each time an image is read, the number of images is decremented from the number N of output images (NO in step # 238, NO in step # 2).
47) Every time the number reaches a predetermined number (YES in step # 238), multi-processing is performed (step # 239). After the multi-processed predetermined number of images are displayed on the TV monitor 57, the images are printed or transmitted in a predetermined number of units in the same manner as described above. At this time, the image at the time when the predetermined number has been reached is decremented in step # 247 after step # 246, so that the accurate decrement processing of the number N of output images is performed. In the case of the output mode F, if the number N of output images is not an integral multiple of the predetermined number, even if N = 0 in step # 248, there are remaining images (NO in step # 238, NO (YES in # 248, NO in step # 249), and step # 240 for the remaining images
The following processing is performed.

第25図は、目次の表示例で、メモリカード26が再生機
側に装着されると、同図に示すように記録順に(あるい
は撮影コマ番号の順に)「日時」「時間」「場所」「音
声有/無」「人名」等の内容がTVモニタ57に表示され
る。この目次表示を基に画像の再生表示、あるいはファ
イリング装置61への記録方法の選択が容易となる。
FIG. 25 shows a display example of the table of contents. When the memory card 26 is inserted in the playback device, as shown in FIG. The contents such as “with / without voice” and “person name” are displayed on the TV monitor 57. Based on this table of contents display, reproduction and display of an image or selection of a recording method for the filing device 61 can be easily performed.

第26図は、検索の際の検索条件を入力する画面の一例
を示す。検索条件としては「日時」「時刻」「場所」
「話者」「天候」「その他」が準備されており、各条件
欄に図示の如く「日付」として「夏」が、「時刻」とし
て「夕方」が、「場所」として「花博」が、「話者」と
して「難波」がキーボード62から入力されている。CPU5
0は該入力された検索条件に基づいて前述した検索処理
を実行する。一方、画面下方には各種の操作指示欄が準
備されており、例えばタブレットやマウスで位置指示す
ることにより、その指定が行えるようになっている。
FIG. 26 shows an example of a screen for inputting search conditions at the time of search. Search conditions include "date and time", "time" and "location"
"Speaker", "Weather" and "Other" are prepared, and "Summer" as "Date", "Evening" as "Time", and "Hanahiro" as "Place" are shown in each condition column as shown in the figure. "Namba" is input from the keyboard 62 as the "speaker". CPU5
“0” executes the above-described search processing based on the input search condition. On the other hand, various operation instruction columns are prepared at the bottom of the screen, and the designation can be performed by, for example, indicating the position with a tablet or a mouse.

第27図は、メモリカード26のメモリマップの一例を示
すもので、検索用情報エリア、画像データエリア、音声
オン/オフ及び音声データエリアとからなる。また、こ
の検索用情報エリアには上記各エリアに対するスタート
アドレス(Vsta、Asta)、エンドアドレス(Vend、Aen
d)も書き込まれている。各エリアへの記録はCPU50の指
示により画像データ、音声データ、検索用情報の順に行
われる。
FIG. 27 shows an example of a memory map of the memory card 26, which includes a search information area, an image data area, an audio on / off, and an audio data area. The search information area includes a start address (Vsta, Asta) and an end address (Vend, Aen) for each of the above areas.
d) is also written. Recording in each area is performed in the order of image data, audio data, and search information in accordance with an instruction from the CPU 50.

次に、前述した各検索を推論機能(ファジィ検索)を
利用して行う場合について、第28図〜第31図により説明
する。
Next, a case where each of the above-described searches is performed using an inference function (fuzzy search) will be described with reference to FIGS. 28 to 31.

かかる推論により検索はメンバーシップ関数に基づい
て行われる。このメンバーシップ関数は各検索条件に対
応する形で適合度記憶手段に予め記憶されている。そし
て、検索条件が入力されると、該入力された検索条件に
該当するメンバーシップ関数が選択され、この選択され
たメンバーシップ関数に基づいて適合度の高い順に検索
が行われる。
With such inference, the search is performed based on the membership function. This membership function is stored in advance in the matching degree storage means in a form corresponding to each search condition. When a search condition is input, a membership function corresponding to the input search condition is selected, and a search is performed in descending order of relevance based on the selected membership function.

さて、第28図は、長さ(大きさ)検索、例えば「50c
m」程度のものを再生したい場合のメンバーシップ関数
を示したものである。「50±50cm」は適合度“1"とし、
「25cm」、「75cm」は適合度“0.5"としている。従っ
て、「50cm」という検索条件を入力した場合には、この
メンバーシップ関数に基づいて適合度“1"のものから順
に“0.9"、“0.8"、…のように優先順位が付され、先ず
「50±50cm」のものが抽出され、再生される。次に、
「44cm」、「56cm」のもの、続いて「40cm」、「60cm」
近辺のもの、更に「35cm」、「65cm」近辺のものといっ
たように適合度の高いものから順に抽出され、再生され
ることになる。また、「100cm」という検索条件を入力
した場合には、「100±50cm」を適合度“1"とし、例え
ば「75cm」を適合度“0.5"として、前記同様適合度の高
いものから順次抽出され、再生されることになる。
By the way, FIG. 28 shows a length (size) search, for example, "50c
It shows the membership function when you want to play back something like "m". "50 ± 50cm" is the degree of conformity "1",
“25cm” and “75cm” have a conformity of “0.5”. Therefore, when a search condition of “50 cm” is input, priorities are assigned based on this membership function, such as “0.9”, “0.8”,. Those of "50 ± 50cm" are extracted and reproduced. next,
"44cm", "56cm", followed by "40cm", "60cm"
Those that are closer to each other, such as those near “35 cm” and “65 cm”, are extracted and reproduced in order from the one with the highest matching degree. When a search condition of “100 cm” is input, “100 ± 50 cm” is set as the matching degree “1”, and “75 cm” is set as the matching degree “0.5”. Will be played.

第29図は、場所検索、例えば「近畿地方」で撮影した
ものを再生したい場合のメンバーシップ関数を示したも
のである。従って、「近畿地方」と入力した場合には、
このメンバーシップ関数に基づいて、先ず適合度“1"の
「大阪」と「京都」で撮影が行われたものが抽出され、
再生される。次に、「兵庫」、「奈良」で撮影されたも
の、更に「和歌山」、「滋賀」、続いて「三重」、「徳
島」、そして「岡山」、「福井」といったように適合度
の高いものから順に抽出され、再生されることになる。
FIG. 29 shows a membership function when a search for a place, for example, a picture taken in the "Kinki region" is to be reproduced. Therefore, if you enter "Kinki region",
Based on this membership function, the ones that were shot at “Osaka” and “Kyoto” with a fitness level of “1” are first extracted,
Will be played. Next, those shot in "Hyogo" and "Nara", as well as "Wakayama" and "Shiga", followed by "Mie", "Tokushima", "Okayama" and "Fukui" It is extracted and reproduced in order from the object.

第30図は、季節検索、例えば「春」、「夏」、
「秋」、「冬」の各季節に撮影されたものを再生しない
場合の各メンバーシップ関数を示したものである。例え
ば、「春」に撮影したものを再生したい場合、先ず適合
度“1"の「4月」と「5月」に撮影されたものが抽出さ
れ、再生される。次に、「6月」に撮影されたものが抽
出され、再生されることになる。また、「夏」に撮影し
たものを再生したい場合、適合度“1"の「7月」、「8
月」及び「9月」に撮影されたものが抽出され、再生さ
れる。次に、「6月」に撮影されたものが抽出され、再
生されることになる。「秋」に撮影したものを再生した
い場合、適合度“1"の「10月」と「11月」に撮影された
ものが抽出され、再生される。次に、「9月」に撮影さ
れたものが抽出され、再生されることになる。「冬」に
撮影したものを再生したい場合、適合度“1"の「12
月」、「1月」及び「2月」に撮影されたものが抽出さ
れ、再生される。次に、「3月」に撮影されたものが抽
出され、再生されることになる。
FIG. 30 shows a seasonal search such as "spring", "summer",
It shows each membership function in the case of not reproducing what was photographed in each season of "autumn" and "winter". For example, when it is desired to play back images shot in "spring", first, images shot in "April" and "May" with a matching degree of "1" are extracted and played. Next, the image taken in "June" is extracted and reproduced. If the user wants to play back images taken in “summer”, “July” and “8
Those photographed in “Month” and “September” are extracted and reproduced. Next, the image taken in "June" is extracted and reproduced. If the user wants to play back what was shot in "Autumn", those shot in "October" and "November" with a matching degree of "1" are extracted and played. Next, the image taken in "September" is extracted and reproduced. If you want to play back what was shot in "Winter", select "12"
Those photographed in "Month", "January" and "February" are extracted and reproduced. Next, the image taken in “March” is extracted and reproduced.

なお、季節検索は上記のように月単位に限らず、日付
単位で行うようにしてもよい。例えば「9月中旬」に対
して、「夏」の場合の適合度を“0.5"、「秋」の場合の
適合度を“0.5"といったように優先順位を付けてもよ
い。また、温度、湿度等の他の検索条件も加味してより
広い観点からの検索を行うようにしてもよい。例えば、
検索条件が「夏+暑い」であるときは、前記「夏」を満
足するものと、気温30℃以上のものとの論理積をとる。
また同様に、検索条件が「冬+暑い」であるときは、前
記「冬」を満足するものと、気温25℃以上のものとの論
理積をとる。
It should be noted that the seasonal search is not limited to the month unit as described above, but may be performed on a date unit. For example, priorities may be assigned to “mid-September” such as “0.5” in the case of “summer” and “0.5” in the case of “autumn”. Further, a search from a wider viewpoint may be performed in consideration of other search conditions such as temperature and humidity. For example,
When the search condition is “summer + hot”, the logical product of the item satisfying the above “summer” and the item satisfying the temperature of 30 ° C. or more is calculated.
Similarly, when the search condition is “winter + hot”, a logical product of a product satisfying the “winter” and a product having a temperature of 25 ° C. or higher is obtained.

第31図は、日時検索の内、「朝」、「昼」、「夕
方」、「夜」といった各時間帯で撮影されたものを再生
したい場合のメンバーシップ関数を示すものである。
FIG. 31 shows a membership function in a case where it is desired to reproduce a picture taken in each time zone such as “morning”, “day”, “evening”, and “night” in the date and time search.

「朝」と入力した場合は、先ず適合度“1"の「6時」
〜「9時」の間に撮影されたものが抽出され、再生され
る。続いて、「5時」、「10時」、「4時」といった順
で撮影されたものが抽出され、再生される。「昼」と入
力した場合は、先ず適合度“1"の「12時」〜「14時」の
間に撮影されたものが抽出され、再生される。続いて、
「11時」、「15時」に撮影されたものが抽出され、再生
される。「夕方」と入力した場合は、先ず適合度“1"の
「17時」、「18時」に撮影されたものが抽出され、再生
される。続いて、「16時」に撮影されたものが抽出さ
れ、再生される。「夜」と入力した場合は、先ず適合度
“1"の「20時」〜「3時」の間に撮影されたものが抽出
され、再生される。続いて、「19時」、「4時」に撮影
されたものが抽出され、再生される。なお、前記季節検
索の場合同様、温度、湿度等他の検索条件を加味してよ
り広い観点からの検索を行うようにしてもよい。
If "morning" is entered, first "6 o'clock" with a fitness of "1"
To 9 o'clock are extracted and reproduced. Subsequently, those shot in the order of "5 o'clock", "10 o'clock", "4 o'clock" are extracted and reproduced. When "noon" is input, first, images captured between "12:00" and "14:00" of the fitness level "1" are extracted and reproduced. continue,
Those shot at "11:00" and "15:00" are extracted and reproduced. When "evening" is input, first, images captured at "17:00" and "18:00" with the fitness level "1" are extracted and reproduced. Subsequently, the one photographed at "16:00" is extracted and reproduced. When "night" is input, first, images captured between "20:00" and "3 o'clock" with a matching degree of "1" are extracted and reproduced. Subsequently, those shot at "19:00" and "4 o'clock" are extracted and reproduced. As in the case of the seasonal search, the search may be performed from a broader viewpoint in consideration of other search conditions such as temperature and humidity.

なお、上記各検索例に加えて、気圧センサ19及びGPS
受信機23により高度情報から山登り時に撮影した画像を
検索する事も出来る。更に、この気圧情報、高度情報に
焦点距離F、撮影距離Dを加味すると航空写真としての
撮影情報も自動的に入力可能である。
In addition to the above search examples, the barometric pressure sensor 19 and the GPS
The receiver 23 can also search for images taken during mountain climbing from altitude information. Furthermore, when the focal length F and the photographing distance D are added to the atmospheric pressure information and the altitude information, photographing information as an aerial photograph can be automatically input.

また、検索時の他の判断方法として以下のものが考え
られる。すなわち、 (1)男女の音質の相違を音声認識技術を用いて男女判
別を行う。
Further, the following can be considered as another determination method at the time of search. That is, (1) gender discrimination is performed on the difference in sound quality between men and women using voice recognition technology.

(2)WBセンサ14の撮影画像に対する色温度とパターン
認識とから人物判別を行う。
(2) A person is identified from the color temperature and the pattern recognition of the captured image by the WB sensor 14.

(3)像倍率とパターン認識とから大人、子供の判別を
行う。
(3) An adult or child is determined from the image magnification and the pattern recognition.

(4)パターン認識により眼鏡の有無判別を行う。(4) The presence or absence of glasses is determined by pattern recognition.

(5)画像内の人物を予め覚えさせておき、他の画像内
の人物をパターン認識と学習機能とを用いて判別する。
(5) A person in an image is remembered in advance, and a person in another image is determined using a pattern recognition and a learning function.

なお、本実施例においては、記録媒体としてデジタル
メモリで説明したが、フロッピー等のアナログメモリで
もよい。また、カメラと再生機とを別体としているが、
一体型であってもよい。更に、各センサから得られるデ
ータを操作及び表示部25にあるいは別個に設けられる表
示部に表示するようにしてもよい。
In the present embodiment, a digital memory has been described as a recording medium, but an analog memory such as a floppy disk may be used. Also, the camera and the player are separate, but
It may be an integral type. Further, data obtained from each sensor may be displayed on the operation and display unit 25 or on a separately provided display unit.

また、本実施例では電子スチルカメラを用いて説明し
たが、銀塩カメラに各センサを設け、周知の日付写し込
み技術を利用して上記各センサの撮影情報を撮影画面内
適所に写し込むようにしてもよい。この場合、再生機は
光学式読取部、フィルム駆動部、メモリ及び本実施例に
係る検索処理部等を有して成り、フィルム容器を該光学
式読取部にセットし、順次あるいは指示されたコマの撮
影画像や写し込まれた撮影情報をCCD等により読み取っ
て電気信号として抽出し、メモリに記録するようにすれ
ばよい。そして、この取り込まれた撮影画像及び撮影情
報により前述同様の検索処理が実行されることになる。
Further, in the present embodiment, the electronic still camera has been described, but each sensor is provided in the silver halide camera, and the photographing information of each sensor is imprinted in a proper position in the photographing screen using a well-known date imprinting technique. Is also good. In this case, the playback device includes an optical reading unit, a film driving unit, a memory, a search processing unit according to the present embodiment, and the like. A film container is set in the optical reading unit, and frames are sequentially or instructed. It is sufficient to read out the photographed image and the photographed photographed information by a CCD or the like, extract the electric signal, and record the electric signal in the memory. Then, a retrieval process similar to that described above is executed based on the captured image and the captured information.

〔発明の効果〕〔The invention's effect〕

以上説明したように、本発明に係る撮影画像記録再生
システムによれば、撮影画像と焦点距離情報、被写体距
離情報とを記録媒体に対応付けて記録するカメラと、上
記記録媒体に記録された撮影画像を再生する再生機とか
ら成り、上記再生機に該再生機の画面サイズを入力する
画面サイズ入力手段と、入力された画面サイズと上記再
生される画像の焦点距離情報及び被写体距離情報とから
再生画像の表示倍率を求める算出手段と、該求めた表示
倍率データを表示すべく出力するデータ出力手段とを備
えて再生画像と表示倍率データとを共に表示するように
したので、再生機の画面サイズの如何に拘らず表示倍率
を確認すれば再生画像から実際の被写体の大きさを容易
に認識することができる。
As described above, according to the photographed image recording / reproducing system according to the present invention, a camera that records a photographed image, focal length information, and subject distance information in association with a recording medium, and a camera that records the photographed image recorded on the recording medium A screen size input means for inputting the screen size of the playback apparatus to the playback apparatus; and a screen size input means for inputting the screen size and the focal length information and the subject distance information of the image to be played back. A display means for calculating the display magnification of the reproduced image and a data output means for outputting the obtained display magnification data to display the reproduced image and the display magnification data together, so that the screen of the reproducing apparatus is displayed. By checking the display magnification regardless of the size, the actual size of the subject can be easily recognized from the reproduced image.

更に、請求項2記載の発明によれば、再生機に求めた
表示倍率データと予め設定された表示倍率との比率を求
める演算手段と、上記予め設定された表示倍率を表示倍
率データとして表示すべく出力するデータ出力手段と、
上記求めた比率に応じて再生すべき画像の拡大、縮小処
理を行う画像処理手段とを備えて、再生画像と予め設定
された表示倍率のデータとを共に表示するようにしたの
で、再生機の画面サイズの如何に拘らず再生画像を同一
の大きさで再生出来、実際の被写体の大きさの認識が容
易となる。また、再生画像と共に表示される表示倍率が
所定の一定値であるので、再生機毎に表示倍率をその都
度確認する手間が省ける。
Further, according to the second aspect of the present invention, the calculating means for calculating the ratio between the display magnification data obtained by the reproducing apparatus and the preset display magnification, and displaying the preset display magnification as display magnification data. Data output means for outputting the data
Image processing means for enlarging and reducing the image to be reproduced in accordance with the obtained ratio, so that the reproduced image and the data of the preset display magnification are displayed together. The reproduced image can be reproduced in the same size regardless of the screen size, and the actual size of the subject can be easily recognized. In addition, since the display magnification displayed together with the reproduced image is a predetermined constant value, it is not necessary to check the display magnification for each reproducing apparatus each time.

また、請求項3記載の発明によれば、撮影時における
焦点距離情報、被写体距離情報と撮影画像とを対応付け
て記録媒体に記録する手段と、上記記録媒体に記録され
た撮影画像を再生する手段とから成り、上記再生手段
は、該再生手段の画面サイズと上記再生される画像の焦
点距離情報及び被写体距離情報とから再生画像の表示倍
率を決定するようにしたので、再生手段の画面サイズに
拘らず表示倍率を得ることができることとなる。
According to the third aspect of the present invention, means for recording the focal length information and subject distance information at the time of photographing in association with the photographed image on a recording medium, and reproducing the photographed image recorded on the recording medium The reproducing means determines the display magnification of the reproduced image from the screen size of the reproducing means and the focal length information and the subject distance information of the reproduced image. Thus, the display magnification can be obtained regardless of the above.

更に、請求項4記載の発明によれば、決定された表示
倍率データを再生画像と共に表示するようにしたので、
再生画像の実際の大きくを容易に認識することができ
る。
Furthermore, according to the fourth aspect of the present invention, the determined display magnification data is displayed together with the reproduced image.
The actual size of the reproduced image can be easily recognized.

【図面の簡単な説明】[Brief description of the drawings]

第1図はスチルカメラのブロック図、第2図は場所コー
ドの送受信装置を説明するもので、同図(A)は場所コ
ードを送信する送信機のブロック図、同図(B)は上記
場所コードを受信するカメラ本体に設けられる受信機の
ブロック図、第3図はGPS受信機の詳細なブロック図、
第4図はカメラの動作を説明するフローチャート、第5
図は検索機能を備えた撮影画像の再生機の一例を示すブ
ロック図、第6図はメモリカードの画像をファイリング
装置に登録する手順を示すフローチャート、第7図及び
第8図はメモリカードの音声をファイリング装置に登録
する手順を示すフローチャート、第9図〜第21図は各種
の検索手順を示すフローチャート、第22図は再生,プリ
ント等の実行処理を示すフローチャート、第23図は目盛
サイズの求め方を説明するための結像状態にある原理
図、第24図は目盛サイズの表示例を示すもので、同図
(A)は像倍率をそのまま表示する場合の図、同図
(B)は単位スケールが10cmに相当することを示した場
合の図、第25図は目次の表示例を示す図、第26図は検索
の際の検索条件を入力する画面の一例を示す図、第27図
はメモリカードのメモリマップの一例を示す図、第28図
〜第31図は各検索を推論機能(ファジィ検索)を利用し
て行わす場合の各メンバーシップ関数を示す図である。 1……レンズ、2……撮像素子、5……WB補正回路、6
……γ補正回路、7……マトリクス回路、8……エンコ
ーダ、9……メモリカードI/F、10……マイク、13……
メモリ、14……WBセンサ、15……AFセンサ、16……AFCP
U、17……温度センサ、18……湿度センサ、19……気圧
センサ、20……CPU、21……受信変調部、22……復調
部、23……GPS受信機、24……計時部、25……操作及び
表示部、26……メモリカード、201……ROM、202……DPS
K変調部、203……FM変調部、206,210……タイミング発
生回路、208……FM復調部、209……DPSK復調部、50……
CPU、51……メモリカードI/F、52……特殊再生処理部、
53……画像フレームメモリ、54……混合部、57……TVモ
ニタ、58……スーパーインポーズ用メモリ、59……読出
クロック発生回路、60……キャラクタジェネレータ、61
……ファイリング装置、62……キーボード、63……位置
指定部材、64……音声入力部、65……話者データE2PRO
M、66……音声データメモリ、69……スピーカ、70……
話者認識部、SC……単位スケール。
FIG. 1 is a block diagram of a still camera, FIG. 2 is a diagram for explaining a place code transmitting / receiving device, FIG. 1A is a block diagram of a transmitter for transmitting a place code, and FIG. A block diagram of a receiver provided in the camera body for receiving the code, FIG. 3 is a detailed block diagram of the GPS receiver,
FIG. 4 is a flowchart for explaining the operation of the camera, and FIG.
FIG. 6 is a block diagram showing an example of a photographed image player having a search function, FIG. 6 is a flowchart showing a procedure for registering an image on a memory card to a filing device, and FIGS. 9 to 21 are flowcharts showing various search procedures, FIG. 22 is a flowchart showing execution processing such as reproduction and printing, and FIG. 23 is a scale size calculation. 24A and 24B show a display example of the scale size, FIG. 24A shows a case where the image magnification is displayed as it is, and FIG. FIG. 25 shows a case where the unit scale is equivalent to 10 cm, FIG. 25 shows a display example of the table of contents, FIG. 26 shows an example of a screen for inputting search conditions at the time of search, FIG. 27 Is the memory map of the memory card Shows an example, FIG. 28-FIG. 31 is a diagram showing the membership functions if you performed utilizing an inference function (fuzzy search) for each search. 1 ... Lens, 2 ... Imaging element, 5 ... WB correction circuit, 6
… Γ correction circuit, 7… Matrix circuit, 8… Encoder, 9… Memory card I / F, 10… Microphone, 13…
Memory, 14 WB sensor, 15 AF sensor, 16 AFCP
U, 17: Temperature sensor, 18: Humidity sensor, 19: Barometric pressure sensor, 20: CPU, 21: Reception modulation unit, 22: Demodulation unit, 23: GPS receiver, 24: Clock unit , 25 ... Operation and display unit, 26 ... Memory card, 201 ... ROM, 202 ... DPS
K modulation section, 203 FM modulation section, 206, 210 timing generation circuit, 208 FM demodulation section, 209 DPSK demodulation section, 50
CPU, 51 Memory card I / F, 52 Special playback processing unit
53: Image frame memory, 54: Mixing unit, 57: TV monitor, 58: Superimpose memory, 59: Read clock generation circuit, 60: Character generator, 61
... Filing device, 62 ... Keyboard, 63 ... Position specifying member, 64 ... Voice input unit, 65 ... Speaker data E 2 PRO
M, 66 …… Sound data memory, 69 …… Speaker, 70 ……
Speaker recognition unit, SC: Unit scale.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 鳴戸 弘和 大阪府大阪市中央区安土町2丁目3番13 号 大阪国際ビル ミノルタカメラ株式 会社内 (72)発明者 田中 良弘 大阪府大阪市中央区安土町2丁目3番13 号 大阪国際ビル ミノルタカメラ株式 会社内 (72)発明者 田中 義人 大阪府大阪市中央区安土町2丁目3番13 号 大阪国際ビル ミノルタカメラ株式 会社内 (72)発明者 難波 克行 大阪府大阪市中央区安土町2丁目3番13 号 大阪国際ビル ミノルタカメラ株式 会社内 (72)発明者 新谷 大 大阪府大阪市中央区安土町2丁目3番13 号 大阪国際ビル ミノルタカメラ株式 会社内 (56)参考文献 特開 平1−268363(JP,A) 特開 平1−309472(JP,A) 特開 昭58−73949(JP,A) 実開 昭63−187485(JP,U) (58)調査した分野(Int.Cl.7,DB名) H04N 5/225 - 5/278 H04N 5/76 - 5/937 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Hirokazu Naruto 2-3-13 Azuchicho, Chuo-ku, Osaka-shi, Osaka-shi Osaka International Building Minolta Camera Co., Ltd. (72) Inventor Yoshihiro Tanaka Azuchi, Chuo-ku, Osaka-shi, Osaka Osaka International Building Minolta Camera Co., Ltd., 2-313 Machi (72) Inventor Yoshito Tanaka 2-3-1 Azuchicho, Chuo-ku, Osaka-shi, Osaka Osaka International Building Minolta Camera Co., Ltd. (72) Inventor Namba Katsuyuki Osaka International Building Minolta Camera Co., Ltd. 2-3-113 Azuchicho, Chuo-ku, Osaka-shi Osaka University International Minorta Camera Co., Ltd. (72) Inventor Dai Shintani 2-3-13 Azuchicho, Chuo-ku, Osaka-shi, Osaka In-company (56) References JP-A-1-268363 (JP, A) JP-A-1-309472 (JP, A) Open Akira 58-73949 (JP, A) JitsuHiraku Akira 63-187485 (JP, U) (58 ) investigated the field (Int.Cl. 7, DB name) H04N 5/225 - 5/278 H04N 5/76 - 5/937

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】撮影時における焦点距離情報、被写体距離
情報と撮影画像とを対応付けて記録する記録媒体を有す
るカメラと、上記記録媒体に記録された撮影画像を再生
する再生機とから成り、上記再生機は、該再生機の画面
サイズを入力する画面サイズ入力手段と、該画面サイズ
入力手段から入力された画面サイズと上記再生される画
像の焦点距離情報及び被写体距離情報とから再生画像の
表示倍率を求める算出手段と、該求めた表示倍率データ
を表示すべく出力するデータ出力手段とを備え、この出
力データを前記再生画像と共に表示することを特徴とす
る撮影画像記録再生システム。
1. A camera having a recording medium for recording focal length information, subject distance information and a photographed image in association with a photographed image, and a reproducing device for reproducing the photographed image recorded on the recording medium, The playback device includes a screen size input unit for inputting a screen size of the playback device, and a playback image based on the screen size input from the screen size input unit, the focal length information of the image to be played back, and the subject distance information. A photographed image recording / reproducing system, comprising: calculating means for calculating a display magnification; and data output means for outputting the obtained display magnification data for display, and displaying the output data together with the reproduced image.
【請求項2】撮影時における焦点距離情報、被写体距離
情報と撮影画像とを対応付けて記録する記録媒体を有す
るカメラと、上記記録媒体に記録された撮影画像を再生
する再生機とから成り、上記再生機は、該再生機の画面
サイズを入力する画面サイズ入力手段と、該画面サイズ
入力手段から入力された画面サイズと上記再生される画
像の焦点距離情報及び被写体距離情報とから再生画像の
表示倍率を求める算出手段と、該求めた表示倍率データ
と予め設定された表示倍率との比率を求める演算手段
と、上記予め設定された表示倍率を表示倍率データとし
て表示すべく出力するデータ出力手段と、上記求めた比
率に応じて再生すべき画像の拡大、縮小処理を行う画像
処理手段とを備え、上記出力データを前記再生画像と共
に表示することを特徴とする撮影画像記録再生システ
ム。
2. A camera having a recording medium for recording focal length information, subject distance information and a photographed image in association with each other at the time of photographing, and a reproducing device for reproducing the photographed image recorded on the recording medium, The playback device includes a screen size input unit for inputting a screen size of the playback device, and a playback image based on the screen size input from the screen size input unit, the focal length information of the image to be played back, and the subject distance information. Calculation means for calculating the display magnification, calculation means for calculating the ratio between the obtained display magnification data and a preset display magnification, and data output means for outputting the preset display magnification as display magnification data And image processing means for performing enlargement and reduction processing of an image to be reproduced according to the obtained ratio, and displaying the output data together with the reproduced image. Photographed image recording and reproducing system to be.
【請求項3】撮影時における焦点距離情報、被写体距離
情報と撮影画像とを対応付けて記録媒体に記録する手段
と、上記記録媒体に記録された撮影画像を再生する手段
とから成り、上記再生手段は、該再生手段の画面サイズ
と上記再生される画像の焦点距離情報及び被写体距離情
報とから再生画像の表示倍率を決定することを特徴とす
る撮影画像記録再生システム。
3. A reproducing apparatus comprising: means for recording focal length information, subject distance information and a photographed image at the time of photographing on a recording medium in association with each other, and means for reproducing the photographed image recorded on the recording medium. Means for determining a display magnification of a reproduced image from the screen size of the reproducing means and the focal length information and the subject distance information of the reproduced image.
【請求項4】決定された表示倍率データを前記再生画像
と共に表示することを特徴とする請求項3記載の撮影画
像記録再生システム。
4. The photographed image recording / reproducing system according to claim 3, wherein the determined display magnification data is displayed together with the reproduced image.
JP02184757A 1990-05-30 1990-07-11 Image recording and playback system Expired - Lifetime JP3092142B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP02184757A JP3092142B2 (en) 1990-07-11 1990-07-11 Image recording and playback system
US08/029,991 US5335072A (en) 1990-05-30 1993-03-12 Photographic system capable of storing information on photographed image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02184757A JP3092142B2 (en) 1990-07-11 1990-07-11 Image recording and playback system

Publications (2)

Publication Number Publication Date
JPH0470727A JPH0470727A (en) 1992-03-05
JP3092142B2 true JP3092142B2 (en) 2000-09-25

Family

ID=16158810

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02184757A Expired - Lifetime JP3092142B2 (en) 1990-05-30 1990-07-11 Image recording and playback system

Country Status (1)

Country Link
JP (1) JP3092142B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3528232B2 (en) * 1994-04-15 2004-05-17 セイコーエプソン株式会社 Recording / reproducing method of information recording / reproducing device
JPH08101677A (en) * 1994-10-03 1996-04-16 Nec Corp Video size correcting device
JPH08129375A (en) * 1994-10-31 1996-05-21 Nec Corp Video size corrector
JP3844259B2 (en) * 1995-07-19 2006-11-08 富士写真フイルム株式会社 Image reproduction device
DE602004032488D1 (en) 2003-02-18 2011-06-16 Canon Kk Photographing device with means for receiving radio information and control method therefor

Also Published As

Publication number Publication date
JPH0470727A (en) 1992-03-05

Similar Documents

Publication Publication Date Title
US5335072A (en) Photographic system capable of storing information on photographed image data
US7518640B2 (en) Method, apparatus, and recording medium for generating album
US7170632B1 (en) Image reproducing method and apparatus, image processing method and apparatus, and photographing support system
US8527261B2 (en) Portable electronic apparatus capable of multilingual display
US9438806B2 (en) Photographing apparatus and photographing method for displaying combined avatar and map information related to a subject
JP2943263B2 (en) Image search system
JPH05252432A (en) Camera system
JP4955909B2 (en) Camera device and imaging condition setting method thereof
JPH0937203A (en) Image pickup device and image reproducing device
JP2007164269A (en) Retrieval device, retrieval/reproducing device, and image reproducing device
JPH05207408A (en) Electronic still camera
JPH0471070A (en) Camera system
JP2007325292A (en) Photographing apparatus and program
JP4003588B2 (en) Imaging apparatus and program
JP3092142B2 (en) Image recording and playback system
JP3162108B2 (en) Still video camera system capable of recording and reproducing shooting positions, etc.
JP2943265B2 (en) Camera that can record location information
JP2001092835A (en) Device and system for recording and reproducing picture
JPH0470726A (en) Camera capable of recording humidity information
JP2943264B2 (en) Camera system that can record location information
JPH0470724A (en) Camera capable of recording position information
JPH0471068A (en) Photographed image recording/reproducing system
JP4304200B2 (en) Mobile device with camera and image display program for mobile device with camera
JPH0471069A (en) Camera system
JPH0470225A (en) Position information transmitter

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080728

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080728

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090728

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090728

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100728

Year of fee payment: 10

EXPY Cancellation because of completion of term