JP2003296745A - Image processor, photographing device, image processing system and program - Google Patents
Image processor, photographing device, image processing system and programInfo
- Publication number
- JP2003296745A JP2003296745A JP2002097459A JP2002097459A JP2003296745A JP 2003296745 A JP2003296745 A JP 2003296745A JP 2002097459 A JP2002097459 A JP 2002097459A JP 2002097459 A JP2002097459 A JP 2002097459A JP 2003296745 A JP2003296745 A JP 2003296745A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- data
- displayed
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
- 238000012545 processing Methods 0.000 title claims description 150
- 238000004364 calculation method Methods 0.000 claims abstract description 85
- 238000000034 method Methods 0.000 claims abstract description 74
- 238000004891 communication Methods 0.000 claims description 42
- 230000008602 contraction Effects 0.000 claims description 30
- 238000001514 detection method Methods 0.000 claims description 12
- 238000005259 measurement Methods 0.000 claims description 7
- 239000000284 extract Substances 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 40
- 230000015654 memory Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 20
- 238000003825 pressing Methods 0.000 description 20
- 241000238631 Hexapoda Species 0.000 description 16
- 230000006870 function Effects 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 11
- 230000004044 response Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 239000013256 coordination polymer Substances 0.000 description 5
- 230000001960 triggered effect Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 2
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 101100316860 Autographa californica nuclear polyhedrosis virus DA18 gene Proteins 0.000 description 1
- 102100031102 C-C motif chemokine 4 Human genes 0.000 description 1
- 102100033029 Carbonic anhydrase-related protein 11 Human genes 0.000 description 1
- 101100321670 Fagopyrum esculentum FA18 gene Proteins 0.000 description 1
- 101000777471 Homo sapiens C-C motif chemokine 4 Proteins 0.000 description 1
- 101000867841 Homo sapiens Carbonic anhydrase-related protein 11 Proteins 0.000 description 1
- 101100280298 Homo sapiens FAM162A gene Proteins 0.000 description 1
- 101001075218 Homo sapiens Gastrokine-1 Proteins 0.000 description 1
- 101100402621 Homo sapiens MSANTD4 gene Proteins 0.000 description 1
- 101000777301 Homo sapiens Uteroglobin Proteins 0.000 description 1
- 102100031642 Myb/SANT-like DNA-binding domain-containing protein 4 Human genes 0.000 description 1
- 101100219325 Phaseolus vulgaris BA13 gene Proteins 0.000 description 1
- 102100023788 Protein FAM162A Human genes 0.000 description 1
- 102100031083 Uteroglobin Human genes 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000012508 change request Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012840 feeding operation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Instructional Devices (AREA)
- Image Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、画像処理装置、撮
影装置、画像処理システム、及びプログラムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device, a photographing device, an image processing system, and a program.
【0002】[0002]
【従来の技術】近年、電子機器の普及に伴い、教育現場
においてもデジタルカメラが使用される様になってき
た。その理由は、デジタルカメラによって取り込まれた
画像データは、電子計算機上で容易に編集したり或いは
加工することができ、授業の資料として使用するのに適
しているからである。具体的には、教師は、電子計算機
を用いて例えば各種の生物を表す画像中にマーキングを
付したり、或いは線を描画する等してこれを生徒に提示
する事により、その生物の特徴を分り易く生徒全員に見
せることができる。2. Description of the Related Art In recent years, with the spread of electronic devices, digital cameras have come to be used in educational settings. The reason is that the image data captured by the digital camera can be easily edited or processed on an electronic computer and is suitable for use as teaching materials. Specifically, the teacher uses an electronic computer to put markings in images representing various living things, or draw lines to present this to students, thereby showing the characteristics of the living things. It is easy to understand and can be shown to all students.
【0003】[0003]
【発明が解決しようとする課題】ところで、特に教育の
現場においては、画像に表示されている生物その他のオ
ブジェクトのサイズを生徒に把握させたい場合がある。
しかしながら、従来画像中のオブジェクトのサイズを把
握させるには、教師は当該オブジェクトのサイズを別途
調べ、調べたサイズを電子計算機を用いて当該オブジェ
クトに付すといった煩雑なデータ加工作業を要してい
た。By the way, especially in the field of education, it is sometimes desired to let the student know the size of living things and other objects displayed in the image.
However, conventionally, in order to grasp the size of the object in the image, the teacher needs a complicated data processing work of separately examining the size of the object and attaching the examined size to the object using an electronic computer.
【0004】本発明は、上記の事情に鑑みて成されたも
のであり、画像中のオブジェクトのサイズを容易に理解
する技術を提供する事を目的としている。The present invention has been made in view of the above circumstances, and an object thereof is to provide a technique for easily understanding the size of an object in an image.
【0005】[0005]
【課題を解決するための手段】上記目的を達成するた
め、請求項1記載の発明の画像処理装置は、例えば図1
〜図5に示す様に、画像データを取得する画像データ取
得手段(例えば、CPU101;S501)と、前記画
像データ取得手段によって取得された前記画像データを
表示部(例えば、表示部105等)に表示させる第1の
表示制御手段(CPU101;S502)と、この第1
の表示制御手段の制御によって表示された画像中の2点
(4a、4b)間の距離を指定し、当該2点間の距離を
基準寸法として入力する基準寸法入力手段(例えば、タ
ブレット103及び入力部102等;S503)と、前
記第1の表示制御手段の制御によって表示された画像中
において任意の始点(A)と終点(B)とを指定する指
定手段(例えば、タブレット103等;S505)と、
前記基準寸法入力手段によって入力された基準寸法に基
づいて、前記指定手段によって指定された前記始点から
前記終点までの距離を算出し、このこの算出結果を前記
表示部に表示させる第2の表示制御手段(例えば、CP
U101等;S507、S508)と、を備えることを
特徴とする。In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention is provided with, for example, FIG.
As shown in FIG. 5, an image data acquisition unit (for example, CPU 101; S501) that acquires image data, and the image data acquired by the image data acquisition unit on a display unit (for example, display unit 105). The first display control means (CPU 101; S502) to be displayed and the first display control means
The reference dimension input means (for example, the tablet 103 and the input device) that specifies the distance between two points (4a, 4b) in the image displayed by the control of the display control means and inputs the distance between the two points as the reference dimension. Section 102 and the like; S503) and designation means (for example, tablet 103 and the like; S505) for designating an arbitrary start point (A) and end point (B) in the image displayed under the control of the first display control means. When,
Second display control for calculating the distance from the start point designated by the designation means to the end point based on the reference dimension input by the reference dimension input means, and displaying the calculation result on the display section. Means (eg CP
U101 etc .; S507, S508).
【0006】請求項1記載の発明によれば、画像データ
取得手段によって画像データが取得され、表示手段によ
って、画像データ取得手段によって取得された画像デー
タが表示され、算出手段によって、基準寸法入力手段に
よって入力された基準寸法に基づいて、指定手段によっ
て指定された始点から終点までの距離が算出され、第1
の表示制御手段によって、算出手段の算出結果が表示手
段に表示されるので、操作者は、基準寸法入力手段を用
いて、表示手段によって表示される画像中の2点間の距
離を指定し、当該2点間の距離を基準寸法として入力す
ると共に、指定手段を用いて、表示手段によって表示さ
れる画像中において任意の始点と終点とを指定するだけ
で、当該始点と終点との距離を容易に知る事ができる。
即ち、どのような倍率で表示された画像であっても、実
際の寸法、距離を知ることができる。According to the first aspect of the invention, the image data is acquired by the image data acquisition means, the image data acquired by the image data acquisition means is displayed by the display means, and the reference dimension input means is calculated by the calculation means. The distance from the start point to the end point designated by the designating means is calculated based on the reference dimension input by
Since the display control means displays the calculation result of the calculation means on the display means, the operator uses the reference dimension input means to specify the distance between two points in the image displayed by the display means, The distance between the start point and the end point can be easily set by inputting the distance between the two points as a reference dimension and using the specifying means to specify an arbitrary start point and end point in the image displayed by the display means. You can get to know.
That is, it is possible to know the actual size and distance of an image displayed at any magnification.
【0007】請求項2記載の発明は、請求項1記載の画
像処理装置(例えば、電卓100等)において、前記画
像データ取得手段によって取得された複数種の画像デー
タ中に共通して含まれるオブジェクトを指定するオブジ
ェクト指定手段(例えば、タブレット103等;S70
3、S704)と、前記オブジェクト指定手段によって
指定された前記各オブジェクトが同一サイズで表示され
るよう前記複数種の画像データの各々をスケール変換し
て前記表示手段に表示させる変換表示制御手段(例え
ば、CPU101等;S708、S709)と、を備え
ることを特徴とする。According to a second aspect of the present invention, in the image processing apparatus according to the first aspect (for example, a calculator 100 or the like), an object commonly included in a plurality of types of image data obtained by the image data obtaining means. Object designating means for designating (eg, tablet 103 or the like; S70
3, S704), and conversion display control means for converting each of the plurality of types of image data by scale conversion so that the respective objects designated by the object designating means are displayed in the same size (for example, the display means). , CPU 101, etc .; S708, S709).
【0008】請求項2記載の発明によれば、操作者がオ
ブジェクト指定手段を用いて、画像データ取得手段によ
って取得された複数種の画像データ中に共通して含まれ
るオブジェクトを指定すると、変換表示制御手段によっ
て、オブジェクト指定手段によって指定された各オブジ
ェクトが同一サイズで表示されるよう複数種の画像デー
タの各々がスケール変換されて表示手段に表示されるの
で、別々に取り込んだ複数の画像のサイズを比較する事
が容易になる。即ち、共通のオブジェクトのサイズに基
づき、各々の画像のサイズを相対的に知ることができ、
複数の画像についてそれぞれの画像オブジェクトのサイ
ズを理解することができる。According to the second aspect of the present invention, when the operator uses the object designating means to designate an object commonly included in the plurality of types of image data acquired by the image data acquiring means, the conversion display is performed. By the control means, each of the plurality of types of image data is scale-converted and displayed on the display means so that each object designated by the object designating means is displayed in the same size. Therefore, the sizes of the plurality of images captured separately are displayed. Makes it easier to compare. That is, the size of each image can be relatively known based on the size of the common object,
It is possible to understand the size of each image object for a plurality of images.
【0009】請求項3記載の発明は、請求項1又は2記
載の画像処理装置(例えば、電卓100等)において、
前記表示手段によって表示される画像中のオブジェクト
までの奥行方向の距離を表す奥行距離データを取得する
奥行距離データ取得手段(例えば、CPU101;S9
07、S2104、S2304)と、前記奥行距離デー
タ取得手段によって取得された前記奥行距離データに基
づいて前記画像の表示範囲の実面積を算出する実面積算
出手段(例えば、CPU101;S910、S210
5、S2305)と、を備えることを特徴とする。According to a third aspect of the invention, in the image processing apparatus according to the first or second aspect (for example, a calculator 100 or the like),
Depth distance data acquisition means (for example, CPU 101; S9) that acquires depth distance data indicating the distance in the depth direction to the object in the image displayed by the display means.
07, S2104, S2304) and the actual area of the display range of the image based on the depth distance data acquired by the depth distance data acquisition means (for example, CPU 101; S910, S210).
5, S2305).
【0010】請求項3記載の発明によれば、奥行距離デ
ータ取得手段によって、表示手段によって表示される画
像中のオブジェクトまでの奥行方向の距離を表す奥行距
離データが取得され、実面積算出手段によって、奥行距
離データに基づいて画像の表示範囲の実面積が算出され
るので、当該画像中に含まれるオブジェクトの実際の大
きさを把握できるようになる。従って、オブジェクトに
ついての適切なサイズ情報を得ることができる。According to the third aspect of the present invention, the depth distance data acquiring means acquires the depth distance data representing the distance in the depth direction to the object in the image displayed by the display means, and the real area calculating means. Since the actual area of the display range of the image is calculated based on the depth distance data, the actual size of the object included in the image can be grasped. Therefore, it is possible to obtain appropriate size information about the object.
【0011】請求項4記載の発明は、請求項3記載の画
像処理装置(例えば、電卓100等)において、前記実
面積算出手段によって算出された前記実面積に基づい
て、当該オブジェクトの画像データの表示サイズを算出
する表示サイズ算出手段(例えば、CPU101等;S
1109)と、前記表示サイズ算出手段によって算出さ
れた前記表示サイズで以って当該オブジェクトの画像デ
ータを前記表示手段に表示させる第3の表示制御手段
(例えば、CPU101等;S1110)と、を備える
ことを特徴とする。According to a fourth aspect of the invention, in the image processing apparatus according to the third aspect (for example, the calculator 100 or the like), the image data of the object is calculated based on the real area calculated by the real area calculating means. Display size calculation means for calculating the display size (for example, CPU 101 or the like; S
1109) and third display control means (for example, CPU 101 or the like; S1110) that causes the display means to display the image data of the object with the display size calculated by the display size calculation means. It is characterized by
【0012】請求項4記載の発明によれば、表示サイズ
算出手段によって、実面積算出手段によって算出された
実面積に基づいて、当該オブジェクトの画像データの表
示サイズが算出され、第3の表示制御手段によって、表
示サイズ算出手段によって算出された表示サイズで以っ
て当該オブジェクトの画像データが表示手段に表示され
るので、当該画像を最適なサイズで表示することができ
る。従って、よりオブジェクトについての適切な情報を
得ることができる。According to the fourth aspect of the present invention, the display size calculation means calculates the display size of the image data of the object based on the real area calculated by the real area calculation means, and the third display control is performed. Since the image data of the object is displayed on the display unit by the display size calculated by the display size calculation unit, the image can be displayed in the optimum size. Therefore, more appropriate information about the object can be obtained.
【0013】請求項5記載の発明は、請求項1〜4の何
れかに記載の画像処理装置(例えば、電卓100等)に
おいて、前記表示手段によって表示される画像中のオブ
ジェクトを検出するオブジェクト検出手段(例えば、C
PU101等;S1304)と、前記オブジェクト検出
手段によって検出された前記オブジェクトの複数の特徴
点をマーキングして当該画像データと共に前記表示手段
に表示させる第4の表示制御手段(例えば、CPU10
1等;S1305)と、を備えることを特徴とする。According to a fifth aspect of the present invention, in the image processing apparatus according to any of the first to fourth aspects (for example, a calculator 100 or the like), object detection is performed for detecting an object in an image displayed by the display means. Means (eg, C
PU101 etc .; S1304), and a fourth display control means (for example, CPU10) that marks a plurality of characteristic points of the object detected by the object detection means and causes the display means to display them together with the image data.
1 etc .; S1305).
【0014】請求項5記載の発明によれば、オブジェク
ト検出手段によって、表示手段によって表示される画像
中のオブジェクトが検出され、第4の表示制御手段によ
って、オブジェクト検出手段によって検出されたオブジ
ェクトの複数の特徴点がマーキングされて当該画像デー
タと共に表示手段に表示されるので、操作者は所望の2
つの特徴点を指定手段を用いて指定することにより、各
オブジェクトの特徴的な点間の距離を容易に知ることが
できる。従って、より画像オブジェクトのサイズを理解
しやすくなる。According to the fifth aspect of the present invention, the object detection means detects the object in the image displayed by the display means, and the fourth display control means detects a plurality of objects detected by the object detection means. Since the feature points are marked and displayed on the display means together with the image data, the operator can select the desired 2
By designating one feature point using the designating means, the distance between the feature points of each object can be easily known. Therefore, it becomes easier to understand the size of the image object.
【0015】請求項6記載の発明は、請求項1〜5の何
れかに記載の画像処理装置(例えば、電卓100等)に
おいて、前記基準寸法入力手段によって入力された前記
基準寸法に基づく目盛りを前記画像データと共に前記表
示手段に表示させる第5の表示制御手段(例えば、CP
U101等;S1507)を備えることを特徴とする。According to a sixth aspect of the present invention, in the image processing apparatus according to any one of the first to fifth aspects (for example, the calculator 100 or the like), a scale based on the reference dimension input by the reference dimension input means is used. Fifth display control means (for example, CP) to be displayed on the display means together with the image data.
U101 or the like; S1507).
【0016】請求項6記載の発明によれば、第5の表示
制御手段によって、基準寸法入力手段によって入力され
た基準寸法に基づく目盛りが画像データと共に表示手段
に表示されるので、当該画像データ中に含まれる全ての
オブジェクトのサイズを知る事ができる。従って、画像
オブジェクトに対し寸法区間を指定することなく、表示
される目盛りにより、画像オブジェクトの任意の箇所の
寸法、サイズを知ることができる。According to the sixth aspect of the present invention, the scale based on the reference dimension input by the reference dimension input means is displayed on the display means together with the image data by the fifth display control means. You can find out the size of all objects contained in. Therefore, it is possible to know the size and size of an arbitrary part of the image object from the displayed scale without specifying the size section for the image object.
【0017】請求項7記載の発明は、請求項3〜6の何
れかに記載の画像処理装置(例えば、電卓100等)に
おいて、前記奥行距離データ取得手段によって取得され
た前記奥行距離データに基づいて前記画像上に奥行き空
間を表す表示を行う第6の表示制御手段(例えば、CP
U101等;S1710)を備えることを特徴とする。The invention according to claim 7 is based on the depth distance data acquired by the depth distance data acquiring means in the image processing apparatus according to any one of claims 3 to 6 (for example, a calculator 100 or the like). And a sixth display control means (for example, CP) for displaying a depth space on the image.
U101 etc .; S1710).
【0018】請求項7記載の発明によれば、第6の表示
制御手段によって、奥行距離データ取得手段によって取
得された奥行距離データに基づいて画像上に奥行き空間
が表示されるので、画像の奥行を把握する事ができる。
従って、個々の画像オブジェクトを奥行き空間表示によ
り立体的に捉えることができるので、その立体視により
平面的にはわかりにくかった画像オブジェクトのサイズ
が相対的に理解しやすくなる。According to the invention of claim 7, since the sixth display control means displays the depth space on the image based on the depth distance data acquired by the depth distance data acquisition means, the depth of the image is displayed. Can be grasped.
Therefore, since the individual image objects can be stereoscopically captured by the depth space display, the size of the image object, which is difficult to understand in a plane due to the stereoscopic view, is relatively easy to understand.
【0019】請求項8記載の発明は、請求項3〜7の何
れかに記載の画像処理装置(例えば、電卓100等)に
おいて、複数の前記画像データの各々についての前記実
面積算出手段の算出結果に基づいて、当該各画像データ
の表示サイズの比が当該各画像の実面積の比と一致する
様に、これらの画像データをスケール変換して前記表示
手段に一覧表示させる第7の表示制御手段(例えば、C
PU101等;S1908)を備えることを特徴とす
る。According to an eighth aspect of the present invention, in the image processing apparatus according to any one of the third to seventh aspects (for example, the calculator 100, etc.), the calculation of the real area calculation means for each of the plurality of image data is performed. Based on the result, a seventh display control for scaling the image data so that the ratio of the display size of each image data matches the ratio of the real area of each image and displaying the list on the display means. Means (eg, C
The PU 101 or the like; S1908) is provided.
【0020】請求項8記載の発明によれば、第7の表示
制御手段によって、各画像データの表示サイズの比が当
該各画像の実面積の比と一致する様に、これらの画像デ
ータがスケール変換されて前記表示手段に一覧表示され
るので、複数の画像の大きさを、オブジェクトの実サイ
ズの比率に応じて一覧表示して比較できる。従って、複
数の画像を個々の画像として観察していた場合には理解
しにくかった画像オブジェクトの実際のサイズ関係につ
いて、理解しやすくなる。According to the eighth aspect of the invention, the seventh display control means scales these image data so that the ratio of the display size of each image data matches the ratio of the real area of each image. Since the converted images are displayed as a list on the display unit, the sizes of the plurality of images can be displayed as a list and compared according to the ratio of the actual size of the object. Therefore, it becomes easy to understand the actual size relationship of the image object, which is difficult to understand when a plurality of images are observed as individual images.
【0021】請求項9記載の発明は、請求項3〜8の何
れかに記載の画像処理装置(例えば、電卓100等)に
おいて、前記表示手段に表示される画像上の閉区間を指
定する閉区間指定手段(例えば、タブレット103等;
S2107)と、前記閉区間指定手段によって指定され
た前記閉区間の面積を、前記実面積算出手段によって取
得された当該画像の実面積に基づいて算出する閉区間面
積算出手段(例えば、CPU101等;S2109)
と、前記閉区間面積算出手段の算出結果を前記表示手段
に表示させる第8の表示制御手段(例えば、CPU10
1等;S2110)と、を備えることを特徴とする。According to a ninth aspect of the present invention, in the image processing apparatus according to any of the third to eighth aspects (for example, a calculator 100 or the like), a closed section for designating a closed section on the image displayed on the display means is specified. Section designating means (for example, tablet 103;
S2107) and the area of the closed section designated by the closed section designation means based on the actual area of the image acquired by the actual area calculation means (for example, CPU 101 or the like; S2109)
And an eighth display control means (for example, CPU 10) for displaying the calculation result of the closed section area calculation means on the display means.
1 etc .; S2110).
【0022】請求項9記載の発明によれば、閉区間面積
算出手段によって、閉区間指定手段によって指定された
閉区間の面積が、実面積算出手段によって取得された当
該画像の実面積に基づいて算出され、第8の表示制御手
段によって、閉区間面積算出手段の算出結果が表示手段
に表示されるので、画像中に含まれるオブジェクトの任
意の一部分の実面積を知ることができる。従って、閉区
間として指定すれば、画像オブジェクトや実面積を知り
たい部分の大きさ、形状によらず、実面積が算出され、
知ることができる。According to the invention of claim 9, the area of the closed section designated by the closed section designating unit by the closed section area calculating unit is based on the real area of the image obtained by the real area calculating unit. The calculated result of the closed section area calculation means is displayed on the display means by the eighth display control means, so that the actual area of an arbitrary part of the object included in the image can be known. Therefore, if you specify it as a closed section, the actual area is calculated regardless of the size and shape of the image object or the part whose actual area you want to know.
I can know.
【0023】請求項10記載の発明は、請求項1〜9の
何れかに記載の画像処理装置(例えば、電卓100等)
において、画像中の縦方向に延びる第1軸と、当該画像
中の横方向に延びる第2軸と、当該画像中の奥行き方向
に延びる第3軸と、で構成され、これら第1軸、第2
軸、第3軸の長さの比が、それぞれ当該画像全体の縦方
向、横方向、奥行き方向の長さの比に一致する座標系
(例えば、シンボルたる直方体2401)を、当該画像
データと共に前記表示手段に表示させる第9の表示制御
手段(例えば、CPU101等;S2506)と、前記
第9の表示制御手段によって表示された前記座標系の各
軸の長さを前記画像上において伸縮させる伸縮手段(例
えば、タブレット103等;S2507、S2508)
と、前記伸縮手段によって前記第1軸が伸縮された場合
には、当該伸縮に応じて当該画像の縦方向の表示範囲を
伸縮させ、前記伸縮手段によって前記第2軸が伸縮され
た場合には、当該伸縮に応じて当該画像の横方向の表示
範囲を伸縮させ、前記伸縮手段によって前記第3軸が伸
縮された場合には、当該伸縮に応じて当該画像の奥行き
方向の表示範囲を伸縮させる第10の表示制御手段(例
えば、CPU101等;S2509)と、を備えること
を特徴とする。The invention according to claim 10 is the image processing apparatus according to any one of claims 1 to 9 (for example, a calculator 100 or the like).
In the image, a first axis extending in the vertical direction in the image, a second axis extending in the horizontal direction in the image, and a third axis extending in the depth direction in the image. Two
A coordinate system (for example, a rectangular parallelepiped 2401 that is a symbol) in which the length ratios of the axes and the third axes match the length ratios of the entire image in the vertical direction, the horizontal direction, and the depth direction, together with the image data, Ninth display control means (for example, CPU 101 or the like; S2506) displayed on the display means, and expansion / contraction means for expanding / contracting the length of each axis of the coordinate system displayed by the ninth display control means on the image. (For example, the tablet 103 or the like; S2507, S2508)
And when the first axis is expanded and contracted by the expansion and contraction means, the vertical display range of the image is expanded and contracted according to the expansion and contraction, and when the second axis is expanded and contracted by the expansion and contraction means. , The horizontal display range of the image is expanded / contracted according to the expansion / contraction, and when the expansion / contraction means expands / contracts the third axis, the display range in the depth direction of the image is expanded / contracted according to the expansion / contraction. And a tenth display control means (for example, CPU 101 or the like; S2509).
【0024】請求項10記載の発明によれば、第9の表
示制御手段によって、表示手段に表示される画像の縦方
向に延びる第1軸と、当該画像の横方向に延びる第2軸
と、当該画像の奥行き方向に延びる第3軸とを含み、こ
れら第1軸、第2軸、第3軸の長さの比が、それぞれ当
該画像全体の縦方向、横方向、奥行き方向の長さの比に
一致する座標系が、当該画像データと共に前記表示手段
に表示され、第10の表示制御手段によって、伸縮手段
によって第1軸が伸縮された場合には、当該伸縮に伴っ
て当該画像の縦方向の表示範囲が伸縮され、伸縮手段に
よって第2軸が伸縮された場合には、当該伸縮に伴って
当該画像の横方向の表示範囲が伸縮され、伸縮手段によ
って第3軸が伸縮された場合には、当該伸縮に伴って当
該画像の奥行き方向の表示範囲が伸縮されるので、画像
の縦、横、奥行の各方向の縮尺を容易に変更することが
でき、そのように画像が表示される立体空間を変化させ
ることで、画像の立体的状態が理解しやすくなる。さら
に、立体空間の変化とともに個々の画像オブジェクトの
サイズが変更され表示されるので、個々の画像オブジェ
クトの相対的なサイズを理解しやすくなる。従って、よ
りオブジェクトについての適切な情報を得ることができ
る。According to the tenth aspect of the invention, by the ninth display control means, a first axis extending in the vertical direction of the image displayed on the display means, and a second axis extending in the horizontal direction of the image, A third axis extending in the depth direction of the image, and the ratio of the lengths of the first axis, the second axis, and the third axis is the length of the entire image in the vertical direction, the horizontal direction, and the depth direction. A coordinate system that matches the ratio is displayed on the display unit together with the image data, and when the tenth display control unit expands and contracts the first axis by the expansion and contraction unit, the longitudinal direction of the image is expanded and contracted. When the display range in the direction is expanded / contracted and the second axis is expanded / contracted by the expansion / contraction means, the horizontal display range of the image is expanded / contracted by the expansion / contraction, and the third axis is expanded / contracted by the expansion / contraction means. Is the depth direction of the image due to the expansion and contraction. Since the display range of is expanded and contracted, it is possible to easily change the scale of the image in the vertical, horizontal, and depth directions, and by changing the three-dimensional space in which the image is displayed, the stereoscopic image of the image can be changed. The condition is easier to understand. Furthermore, since the size of each image object is changed and displayed as the three-dimensional space changes, it becomes easier to understand the relative size of each image object. Therefore, more appropriate information about the object can be obtained.
【0025】請求項11記載の発明は、請求項5〜10
の何れかに記載の画像処理装置(例えば、電卓100
等)において、前記オブジェクト検出手段によって検出
された各オブジェクトの輪郭を抽出する輪郭抽出手段
(例えば、CPU101等;S2703、S2704、
S2705)と、前記輪郭抽出手段によって抽出された
各オブジェクトの輪郭を、前記実面積算出手段の算出結
果に基づいて、当該各オブジェクトの実寸比と一致する
よう前記表示手段に重ねて表示させる第11の表示制御
手段(例えば、CPU101等;S2708)と、を備
えることを特徴とする。The invention described in claim 11 is the invention according to claims 5 to 10.
The image processing device according to any one of (1)
Etc.), the contour extraction means for extracting the contour of each object detected by the object detection means (for example, CPU 101 or the like; S2703, S2704,
S2705), and the contour of each object extracted by the contour extracting means is displayed on the display means so as to match the actual size ratio of each object based on the calculation result of the actual area calculating means. Display control means (for example, CPU 101 or the like; S2708).
【0026】請求項11記載の発明によれば、輪郭抽出
手段によって、オブジェクト検出手段によって検出され
た各オブジェクトの輪郭が抽出され、第11の表示制御
手段によって、輪郭抽出手段によって抽出された各オブ
ジェクトの輪郭が、実面積算出手段の算出結果に基づい
て、当該各オブジェクトの実寸比と一致するよう表示手
段に重ねて表示されるので、各画像中に含まれるオブジ
ェクトの実際のサイズに対応した相対比を容易に知るこ
とができる。特に、輪郭部分での比較を行うことによ
り、重なり位置が明確になるので比較を行いやすい。According to the eleventh aspect of the present invention, the contour extracting means extracts the contour of each object detected by the object detecting means, and the eleventh display control means extracts each object by the contour extracting means. Based on the calculation result of the actual area calculation means, the outline is displayed so as to be overlapped with the display means so as to match the actual size ratio of each object. The ratio can be easily known. In particular, when the comparison is performed in the contour portion, the overlapping position becomes clear, so that the comparison can be easily performed.
【0027】請求項12記載の発明は、請求項1〜11
の何れかに記載の画像処理装置(例えば、電卓100
等)において、前記表示手段に表示される画像に含まれ
る各色彩の含有比を算出する色彩比算出手段(例えば、
CPU101等;S2902、S2903、S290
4)と、前記色彩比算出手段によって算出された前記含
有比を、前記各色彩別に前記表示手段に表示させる第1
2の表示制御手段(例えば、CPU101等;S290
5)と、を備えることを特徴とする。The invention according to claim 12 is the invention according to claims 1 to 11.
The image processing device according to any one of (1)
Etc.), a color ratio calculation unit (for example, a color ratio calculation unit that calculates the content ratio of each color included in the image displayed on the display unit).
CPU 101 and the like; S2902, S2903, S290
4) and displaying the content ratio calculated by the color ratio calculating means on the display means for each color.
2 display control means (for example, CPU 101 or the like; S290)
5) and are provided.
【0028】請求項12記載の発明によれば、色彩比算
出手段によって、表示手段に表示される画像に含まれる
各色彩の含有比が算出され、第12の表示制御手段によ
って、色彩比算出手段の算出結果が、各色彩別に表示手
段に表示されるので、画像に含まれる各色彩の含有比を
定量的に把握できる様になる。従って、色彩が異なる閉
区間として画像オブジェクトやオブジェクト部分を表示
することにより、個々の閉区間の構成比率を求めること
ができ、より画像についての理解を深めることができ
る。According to the twelfth aspect of the invention, the color ratio calculating means calculates the content ratio of each color included in the image displayed on the display means, and the twelfth display control means calculates the color ratio calculating means. Since the calculation result of is displayed on the display means for each color, the content ratio of each color included in the image can be grasped quantitatively. Therefore, by displaying an image object or an object part as a closed section having different colors, the composition ratio of each closed section can be obtained, and the image can be better understood.
【0029】請求項13記載の発明は、地図を表す地図
データを取得する地図データ取得手段(例えば、I/O
ポート110等;S3101)と、前記地図データが表
す地図の図法に関する図法データを取得する図法データ
取得手段(例えば、I/Oポート110等;S310
1)と、前記地図データが表す地図の縮尺を示す縮尺デ
ータを取得する縮尺データ取得手段(例えば、I/Oポ
ート110等;S3101)と、前記地図データ取得手
段によって取得された前記地図データを表示する表示手
段(例えば、表示部105等;S3101)と、前記表
示手段によって表示される地図中の2地点を指定する第
1の地点指定手段(例えば、タブレット103等;S3
102、S3103)と、前記地点指定手段によって指
定された前記2地点間の実距離を、前記図法データ取得
手段によって取得された前記図法データ及び前記縮尺デ
ータ取得手段によって取得された前記縮尺データに基づ
いて算出する実距離算出手段(例えば、CPU101
等;S3105)と、前記実距離算出手段の算出結果を
前記表示手段に表示させる第1の表示制御手段(例え
ば、CPU101等;S3106)と、を備えることを
特徴とする。According to a thirteenth aspect of the present invention, map data acquisition means (for example, I / O) for acquiring map data representing a map.
Port 110 etc .; S3101) and a projection data acquisition means for acquiring projection data relating to the projection of the map represented by the map data (for example, I / O port 110 etc .; S310).
1), a scale data acquisition unit (for example, I / O port 110 or the like; S3101) that acquires scale data indicating the scale of the map represented by the map data, and the map data acquired by the map data acquisition unit. Display means for display (for example, display unit 105 or the like; S3101) and first point designation means for designating two points on the map displayed by the display means (for example, tablet 103 or the like; S3)
102, S3103) and the actual distance between the two points designated by the point designation means based on the projection data acquired by the projection data acquisition means and the scale data acquired by the scale data acquisition means. Actual distance calculating means (for example, CPU 101)
Etc .; S3105) and first display control means (for example, CPU 101 etc .; S3106) for displaying the calculation result of the actual distance calculation means on the display means.
【0030】請求項13記載の発明によれば、地図デー
タ取得手段によって、地図を表す地図データが取得さ
れ、図法データ取得手段によって、地図データが表す地
図の図法に関する図法データが取得され、縮尺データ取
得手段によって、地図データが表す地図の縮尺を示す縮
尺データが取得され、表示手段によって、地図データ取
得手段によって取得された地図データが表示され、実距
離算出手段によって、地点指定手段によって指定された
2地点間の実距離が、図法データ取得手段によって取得
された図法データ及び縮尺データ取得手段によって取得
された縮尺データに基づいて算出され、第1の表示制御
手段によって、実距離算出手段の算出結果が表示手段に
表示されるので、操作者は、第1の地点指定手段を用い
て、表示手段によって表示される地図中の2地点を指定
するだけで、当該2点間の実距離を知ることができる。
従って、地図の図法や縮尺によらず、地図中の2点間の
実距離を求めることができる。According to the thirteenth aspect of the present invention, the map data acquisition means acquires the map data representing the map, and the projection data acquisition means acquires the projection data related to the map projection represented by the map data, and the scale data. The scale data indicating the scale of the map represented by the map data is acquired by the acquisition means, the map data acquired by the map data acquisition means is displayed by the display means, and the actual distance calculation means specifies the point specification means. The actual distance between the two points is calculated based on the projection data acquired by the projection data acquisition means and the scale data acquired by the scale data acquisition means, and the calculation result of the actual distance calculation means by the first display control means. Is displayed on the display means, the operator uses the first point designating means to display on the display means. Only specifies the two points in the map to be displayed, it is possible to know the actual distance between the two points.
Therefore, the actual distance between two points on the map can be obtained regardless of the map projection and scale.
【0031】請求項14記載の発明は、請求項13記載
の画像処理装置(例えば、電卓100等)において、前
記表示手段によって表示される前記地図上において任意
の領域を指定する領域指定手段(例えば、タブレット1
03等;S3303)と、前記表示手段によって表示さ
れる前記地図上において任意の地点を指定する第2の地
点指定手段(例えば、タブレット103等;S330
4)と、前記領域指定手段によって指定された地図上の
前記領域に対応する実領域と同一の形状及び面積を有す
る実領域を表す領域を、前記第2の地点指定手段によっ
て指定された地点を中心として当該地図上に表示させる
第2の表示制御手段(例えば、CPU101等;S33
08)と、を備えることを特徴とする。According to a fourteenth aspect of the present invention, in the image processing apparatus according to the thirteenth aspect (for example, the calculator 100 or the like), area specifying means (for example, an area specifying means for specifying an arbitrary area on the map displayed by the display means) , Tablet 1
03 etc .; S3303) and second point designating means (eg tablet 103 etc .; S330) for designating an arbitrary point on the map displayed by the display means.
4) and an area representing a real area having the same shape and area as the real area corresponding to the area on the map designated by the area designating means, the spot designated by the second spot designating means. Second display control means (for example, CPU 101 or the like; S33) to be displayed as the center on the map.
08) and are included.
【0032】請求項14記載の発明によれば、第2の表
示制御手段によって、領域指定手段によって指定された
地図上の領域に対応する実領域と同一の形状及び面積を
有する実領域を表す領域が、第2の地点指定手段によっ
て指定された地点を中心として当該地図上に表示され
る。よって、操作者は領域指定手段を用いて、表示手段
によって表示される地図上において任意の領域を指定
し、第2の地点指定手段を用いて、表示手段によって表
示される地図上において任意の地点を指定するだけで、
地図の図法や縮尺による実寸との歪みが考慮された表示
が行われるので、当該地図の歪みなどを容易に把握する
ことができる。According to the fourteenth aspect of the present invention, a region representing a real region having the same shape and area as the real region corresponding to the region on the map designated by the region designation unit by the second display control unit. Is displayed on the map centering on the point designated by the second point designating means. Therefore, the operator uses the area designating means to designate an arbitrary area on the map displayed by the display means, and uses the second location designating means to specify an arbitrary location on the map displayed by the display means. Just specify
Since the display is performed in consideration of the distortion of the map drawing from the actual size due to the projection method and scale, it is possible to easily grasp the distortion of the map.
【0033】請求項15記載の発明は、請求項13又は
14記載の画像処理装置(例えば、電卓100等)にお
いて、前記地図データ取得手段によって取得された前記
地図データに基づいて、当該地図の図法を判別する図法
判別手段(例えば、CPU101等;S3503)、を
備え、前記図法データ取得手段は、前記図法判別手段の
判別結果を前記図法データとして取得すること、を特徴
とする。According to a fifteenth aspect of the present invention, in the image processing apparatus according to the thirteenth or fourteenth aspects (for example, a calculator 100 or the like), the map drawing method of the map is based on the map data acquired by the map data acquisition means. And a drawing method determining means (for example, CPU 101; S3503) for determining whether or not the drawing method data acquiring means acquires the determination result of the drawing method determining means as the drawing method data.
【0034】請求項15記載の発明によれば、図法判別
手段によって、地図データ取得手段によって取得された
地図データに基づいて、当該地図の図法が判別され、図
法データ取得手段によって、図法判別手段の判別結果が
図法データとして取得されるので、操作者は当該地図の
図法を知る事ができる。従って、地図の図法を判別する
ための知識(図法毎の補正方法等)がなく、図法の特徴
を知らない場合でも、当該地図の図法を知ることができ
る。According to the fifteenth aspect of the present invention, the projection determining means determines the projection of the map based on the map data acquired by the map data acquiring means, and the projection data acquiring means determines the projection determining means of the projection determining means. Since the determination result is acquired as the projection data, the operator can know the projection of the map. Therefore, even if there is no knowledge (a correction method or the like for each drawing method) for determining the drawing method of the map and the feature of the drawing method is not known, the drawing method of the map can be known.
【0035】請求項16記載の発明は、請求項13〜1
5の何れかに記載の画像処理装置(例えば、電卓100
等)において、前記表示手段によって表示される前記地
図上の任意の地点を指定する第3の地点指定手段(例え
ば、タブレット103等;S3702)と、前記第3の
地点指定手段によって指定された地点に関する地理情報
を入力する地理情報入力手段(例えば、入力部102
等;S3704)と、前記第3の地点指定手段によって
指定された前記地点と、前記地理情報入力手段によって
入力された当該地点に関する地理情報とを対応付けて記
憶する記憶手段(例えば、記憶媒体109a;S370
5)と、前記表示手段によって表示される前記地図上の
任意の地点が指定された場合、当該地点に対応する前記
地理情報を、前記記憶手段から取得して前記表示手段上
に表示させる第3の表示制御手段(例えば、CPU10
1等;S3715)と、を備えることを特徴とする。The invention according to claim 16 is the thirteenth to first aspects.
5. The image processing device according to any one of 5 (for example, calculator 100
Etc.), a third spot designating unit (for example, tablet 103 or the like; S3702) for designating an arbitrary spot on the map displayed by the display unit, and a spot designated by the third spot designating unit. Geographic information input means for inputting geographic information regarding the (eg, input unit 102
Etc .; S3704), a storage unit (for example, the storage medium 109a) that stores the spot designated by the third spot designation unit and the geographical information about the spot input by the geographical information input unit in association with each other. S370
5) and when an arbitrary point on the map displayed by the display means is specified, the geographical information corresponding to the point is acquired from the storage means and displayed on the display means. Display control means (for example, CPU 10
1 etc .; S3715).
【0036】請求項16記載の発明によれば、記憶手段
によって、第3の地点指定手段によって指定された地点
と、地理情報入力手段によって入力された当該地点に関
する地理情報とが対応付けられた状態で記憶され、第3
の表示制御手段によって、指定された地点に対応する地
理情報が、記憶手段から取得されて表示手段上に表示さ
れるので、操作者は、第3の地点指定手段を用いて、表
示手段によって表示される地図上の任意の地点を指定
し、地理情報入力手段を用いて、当該地点に関する地理
情報を入力しておけば、以後その地点を指定するだけで
当該地点の情報を知ることができる。従って、操作者が
必要とする情報が入力された地図としての、カスタマイ
ズな地図を作製することができる。According to the sixteenth aspect of the invention, the storage means associates the spot designated by the third spot designating means with the geographical information relating to the spot input by the geographical information inputting means. Stored in the third
The display control means acquires the geographical information corresponding to the designated point from the storage means and displays it on the display means. Therefore, the operator uses the third point designation means to display the geographical information on the display means. By designating an arbitrary point on the map and using the geographical information input means to input the geographical information on the point, the information on the point can be known only by designating the point thereafter. Therefore, it is possible to create a customized map as a map in which the information required by the operator is input.
【0037】請求項17記載の発明は、被写体を撮像す
る事により当該被写体の画像データを生成する撮影装置
(例えば、デジタルカメラ200等)において、この撮
影装置から前記被写体までの距離を計測し、当該計測結
果を表す奥行距離データを生成する奥行距離データ生成
手段(例えば、CPU212等;S903、S1103
等)と、前記被写体の画像データと、前記奥行距離デー
タ生成手段によって生成された当該被写体までの距離を
表す前記奥行距離データと、を対応付けて記憶する記憶
手段(例えば、RAM210等;S905、S1105
等)と、を備えることを特徴とする。According to a seventeenth aspect of the present invention, in a photographing device (for example, a digital camera 200 or the like) which generates image data of the subject by photographing the subject, the distance from the photographing device to the subject is measured, Depth distance data generation means (for example, CPU 212 or the like; S903, S1103) that generates depth distance data representing the measurement result.
Etc.) and the image data of the subject, and the depth distance data representing the distance to the subject generated by the depth distance data generating means are stored in association with each other (for example, RAM 210 or the like; S905, S1105
Etc.), and are provided.
【0038】請求項17記載の発明によれば、奥行距離
データ生成手段によって、この撮影装置から被写体まで
の距離が計測され、当該計測結果を表す奥行距離データ
が生成され、記憶手段によって、被写体の画像データ
と、奥行距離データ生成手段によって生成された当該被
写体までの距離を表す前記奥行距離データと、が対応付
けられて記憶されるので、各々の画像データが表す画像
の実際の大きさや当該画像中に含まれるオブジェクトの
サイズなどを、当該画像データに対応する奥行距離デー
タに基づいて把握できるようになる。従って、オブジェ
クトについての適切なサイズ情報を得ることができる。According to the seventeenth aspect of the present invention, the distance from the photographing device to the object is measured by the depth distance data generating means, the depth distance data representing the measurement result is generated, and the memory means stores the object. Since the image data and the depth distance data representing the distance to the subject generated by the depth distance data generating means are stored in association with each other, the actual size of the image represented by each image data and the image concerned. It becomes possible to grasp the size of the object contained therein based on the depth distance data corresponding to the image data. Therefore, it is possible to obtain appropriate size information about the object.
【0039】請求項18記載の発明は、請求項17記載
の撮影装置(例えば、デジタルカメラ200等)と、請
求項3〜12の何れかに記載の画像処理装置(例えば、
電卓100等)と、前記撮影装置と前記画像処理装置と
の間のデータ通信を媒介する通信手段(例えば、通信ケ
ーブルC等)と、を含んで構成される画像処理システム
(例えば、画像処理システム1等)であって、前記画像
データ取得手段(例えば、I/Oポート110等)は、
前記撮影手段の前記記憶手段に記憶されている前記画像
データを、前記通信手段を介して取得し、前記距離デー
タ取得手段(例えば、I/Oポート110等)は、前記
撮影手段の前記記憶手段に記憶されている前記画像デー
タに対応付けられている前記奥行長さデータを、前記通
信手段を介して取得すること、を特徴とする。The invention described in Item 18 is the image pickup apparatus according to Item 17 (for example, a digital camera 200 or the like) and the image processing apparatus according to any one of Items 3 to 12 (eg, the image processing apparatus).
An image processing system (for example, an image processing system) configured to include a calculator 100 or the like) and a communication unit (for example, a communication cable C or the like) that mediates data communication between the image capturing apparatus and the image processing apparatus. 1)), and the image data acquisition means (for example, I / O port 110 etc.)
The image data stored in the storage unit of the image capturing unit is acquired via the communication unit, and the distance data acquisition unit (for example, I / O port 110) is the storage unit of the image capturing unit. The depth length data associated with the image data stored in is acquired via the communication means.
【0040】請求項18記載の発明によれば、画像デー
タ取得手段によって、撮影手段の記憶手段に記憶されて
いる画像データが、通信手段を介して取得され、距離デ
ータ取得手段によって、撮影手段の記憶手段に記憶され
ている画像データに対応付けられている奥行長さデータ
が、通信手段を介して取得されるので、各々の画像デー
タが表す画像の実際の大きさや当該画像中に含まれるオ
ブジェクトのサイズなどを、当該画像データに対応する
奥行距離データに基づいて把握できるようになる。According to the eighteenth aspect of the present invention, the image data acquisition means acquires the image data stored in the storage means of the imaging means via the communication means, and the distance data acquisition means acquires the image data of the imaging means. Since the depth length data associated with the image data stored in the storage means is acquired via the communication means, the actual size of the image represented by each image data and the objects included in the image. It is possible to grasp the size and the like based on the depth distance data corresponding to the image data.
【0041】請求項19記載の発明は、コンピュータ
に、画像データを取得する機能と、取得した前記画像デ
ータを表示手段に表示させる機能と、表示させた画像中
における指定された2点間の距離を基準寸法として取得
する機能と、表示させた画像中における指定された始点
から終点までの距離を、取得した基準寸法に基づいて算
出する機能と、を実現させる為のプログラムである。According to a nineteenth aspect of the present invention, a computer has a function of acquiring image data, a function of displaying the acquired image data on a display means, and a distance between two designated points in the displayed image. It is a program for realizing a function of acquiring as a reference dimension and a function of calculating a distance from a specified start point to an end point in a displayed image based on the acquired reference dimension.
【0042】請求項19記載のプログラムを実行するコ
ンピュータによれば、画像データが取得され、取得され
た前記画像データが表示手段に表示され、表示された画
像中における指定された2点間の距離が基準寸法として
取得され、表示された画像中における指定された始点か
ら終点までの距離が、取得された基準寸法に基づいて算
出されるので、操作者は、表示手段によって表示される
画像中の2点を指定すると共に、当該2点間の距離を基
準寸法として入力し、表示手段によって表示される画像
中において任意の始点と終点とを指定するだけで、当該
始点と終点との距離を容易に知る事ができる。According to the computer executing the program of claim 19, image data is acquired, the acquired image data is displayed on the display means, and the distance between two designated points in the displayed image is displayed. Is obtained as the reference dimension, and the distance from the specified start point to the end point in the displayed image is calculated based on the obtained reference dimension. The distance between the start point and the end point can be easily set by designating two points, inputting the distance between the two points as a reference dimension, and designating an arbitrary start point and end point in the image displayed by the display means. You can get to know.
【0043】請求項20記載の発明は、コンピュータ
に、地図を表す地図データを取得する機能と、前記地図
データが表す地図の図法に関する図法データを取得する
機能と、前記地図データが表す地図の縮尺を示す縮尺デ
ータを取得する機能と、取得した前記地図データを表示
手段に表示させる機能と、前記表示手段によって表示さ
れた地図上における指定された2地点間の実距離を、取
得した前記図法データ及び前記縮尺データに基づいて算
出する機能と、その算出結果を前記表示手段に表示させ
る機能と、を実現させる為のプログラムである。According to a twentieth aspect of the present invention, a computer has a function of acquiring map data representing a map, a function of acquiring projection data concerning a map projection represented by the map data, and a scale of the map represented by the map data. And a function of displaying the acquired map data on a display unit, and an actual distance between two designated points on the map displayed by the display unit. And a program for realizing the function of calculating based on the scale data and the function of displaying the calculation result on the display means.
【0044】請求項20記載のプログラムを実行するコ
ンピュータよれば、地図を表す地図データが取得され、
前記地図データが表す地図の図法に関する図法データが
取得され、前記地図データが表す地図の縮尺を示す縮尺
データが取得され、取得した前記地図データが表示手段
に表示され、前記表示手段によって表示された地図上に
おける指定された2地点間の実距離が、取得された前記
図法データ及び前記縮尺データに基づいて算出され、そ
の算出結果が前記表示手段に表示させるので、操作者
は、表示手段によって表示される地図中の2地点を指定
するだけで、当該2点間の実距離を知ることができる。According to the computer which executes the program according to claim 20, map data representing a map is acquired,
The projection data relating to the projection of the map represented by the map data is acquired, the scale data indicating the scale of the map represented by the map data is acquired, the acquired map data is displayed on the display means, and displayed by the display means. The actual distance between the two designated points on the map is calculated based on the acquired projection data and scale data, and the calculation result is displayed on the display means, so that the operator can display it by the display means. The actual distance between the two points can be known only by designating two points on the map.
【0045】[0045]
【発明の実施の形態】以下、図1〜図37を参照して本
発明が適用された画像処理システムについて説明する。
この画像処理システム1は、図1に示す様に、画像処理
装置としての電子卓上計算機(電卓)100と、撮影装
置としてのデジタルカメラ200と、これら電卓100
及びデジタルカメラ200間のデータ通信を媒介する通
信ケーブルCと、から構成されている。ここで、通信ケ
ーブルCは、例えばUSB(Universal Serial Bus)そ
の他の有線がこれに相当するが、Bluetooth(登録商
標)その他の無線通信技術を用いて電卓100とデジタ
ルカメラ200の間のデータ通信を行う様にしてもよ
い。その場合は、通信ケーブルCが不要となる。BEST MODE FOR CARRYING OUT THE INVENTION An image processing system to which the present invention is applied will be described below with reference to FIGS.
As shown in FIG. 1, the image processing system 1 includes an electronic desk calculator (calculator) 100 as an image processing apparatus, a digital camera 200 as a photographing apparatus, and the calculator 100.
And a communication cable C that mediates data communication between the digital cameras 200. Here, the communication cable C corresponds to, for example, a USB (Universal Serial Bus) or other wire, but uses Bluetooth (registered trademark) or other wireless communication technology to perform data communication between the calculator 100 and the digital camera 200. You may choose to do it. In that case, the communication cable C becomes unnecessary.
【0046】先ず、電卓100の構成について説明す
る。電卓100は、図2に示す様に、CPU101、入
力部102、タブレット103、位置検出回路104、
表示部105、表示駆動回路106、RAM107、R
OM108、記憶媒体読書部109、及びI/Oポート
110を備えている。First, the structure of the calculator 100 will be described. As shown in FIG. 2, the calculator 100 includes a CPU 101, an input unit 102, a tablet 103, a position detection circuit 104,
Display unit 105, display drive circuit 106, RAM 107, R
An OM 108, a storage medium reading unit 109, and an I / O port 110 are provided.
【0047】CPU101は、入力部102から入力さ
れる入力データや、タブレット103から入力される位
置データに応じて、ROM108から制御プログラムを
読み出してRAM107に一時格納し、その制御プログ
ラムに基づく各種処理を実行して電卓100の各部を制
御する。この様にして電卓100としての機能が実現さ
れる。The CPU 101 reads a control program from the ROM 108 and temporarily stores it in the RAM 107 according to the input data input from the input unit 102 and the position data input from the tablet 103, and performs various processes based on the control program. It executes and controls each part of the calculator 100. In this way, the function of the calculator 100 is realized.
【0048】詳細には、CPUは101、制御プログラ
ムに基づいて後述する各種処理を実行し、その処理結果
をRAM107に格納すると共に表示駆動回路106を
介して表示部105に表示させる。また、CPU101
は、入力部102又はタブレット103を介して入力さ
れる指示に基づいて、処理結果を記憶媒体109aに保
存させる。More specifically, the CPU 101 executes various processes to be described later based on the control program, stores the processing results in the RAM 107, and causes the display unit 105 to display the results via the display drive circuit 106. Also, the CPU 101
Stores the processing result in the storage medium 109a based on an instruction input through the input unit 102 or the tablet 103.
【0049】また、CPUは101、画像データ受信処
理を実行する。画像データ受信処理においてCPU10
1は、デジタルカメラ200に記憶されている画像デー
タをI/Oポート110を介して受信し、RAM107
に格納する。また、CPU101は、ROM108に記
憶されている図法判別プログラムを実行することによ
り、I/Oポート110を介して取得した地図データの
図法を判別し、判別結果を表示部105に表示させる。Further, the CPU 101 executes an image data receiving process. CPU 10 in image data reception processing
1 receives the image data stored in the digital camera 200 via the I / O port 110, and the RAM 107
To store. Further, the CPU 101 executes the drawing method determination program stored in the ROM 108 to determine the drawing method of the map data acquired via the I / O port 110, and displays the determination result on the display unit 105.
【0050】入力部102は、図示はしないが、後述す
る演算キー、画像送りキー、実行キー、定規表示キー、
3D空間表示キー、確定キー、面積算出キー、実面積表
示キー、シンボル表示キー、色比解析キー、実距離算出
キー、図法表示キー、メモリ確保キー等を含んで構成さ
れている。ここで、これら複数のキーの機能は、同一の
キーが担うこととしてもよい。Although not shown, the input section 102 includes a calculation key, an image feed key, an execution key, a ruler display key, which will be described later.
It is configured to include a 3D space display key, an enter key, an area calculation key, an actual area display key, a symbol display key, a color ratio analysis key, an actual distance calculation key, a projection method display key, a memory reservation key, and the like. Here, the functions of the plurality of keys may be performed by the same key.
【0051】また、入力部102は、図示はしないが、
データ入力キー、カーソルキー、モードキー、実行キ
ー、及びEXITキー等を備えている。データ入力キー
は、英数字や演算記号などを入力する為のキーである。
カーソルキーは、表示部に表示されたデータの選択や、
送り操作、移動操作を指示する為のキーでである。モー
ドキーは、電卓の動作モードを設定するもので、例えば
四則演算を行う数値演算モード、プログラミング言語を
入力し実行するプログラム入力モード、所望のテキスト
データを入力し記憶させるエディタモード、表示部にベ
クトルを描画させるベクトル描画モード、各種パラメー
タの変化を示す物理量変化グラフを描画するグラフ描画
モード、及び物体の運動軌跡の経時変化などをシミュレ
ーション表示する運動描画モード等を選択設定する為の
キーである。実行キーは、選択されたデータの確定や、
モードキーにて選択設定された各種モードの実行を指示
する為のキーである。EXITキーは、実行中の各種モ
ードを中止させ、元の動作モードに移行させる為のキー
である。Although not shown, the input section 102 is not shown.
A data input key, a cursor key, a mode key, an execution key, an EXIT key and the like are provided. The data input key is a key for inputting alphanumeric characters and operation symbols.
Use the cursor keys to select the data displayed on the display,
It is a key for instructing a feeding operation and a moving operation. The mode key is used to set the operation mode of the calculator. For example, a numerical operation mode for performing four arithmetic operations, a program input mode for inputting and executing a programming language, an editor mode for inputting and storing desired text data, and a vector on the display section. Is a key for selectively setting a vector drawing mode for drawing, a graph drawing mode for drawing a physical quantity change graph showing changes in various parameters, and a motion drawing mode for simulating and displaying changes over time of the motion trajectory of an object. The execution key is to confirm the selected data,
This is a key for instructing execution of various modes selected and set by the mode key. The EXIT key is a key for stopping various modes in execution and shifting to the original operation mode.
【0052】タブレット103は、表示部105と一体
的に構成されており、表示部105に表示されている画
像などを入力ペンにて直接指示することで入力操作を実
現するものである。詳細には、タブレット103は、基
準寸法入力手段を構成するものであり、操作者は、この
タブレット103を用いて、表示部105に表示される
画像中の2点間の距離を指定し、当該2点間の距離を基
準寸法として入力することができる。また、このタブレ
ット103は、指定手段を構成するものであり、操作者
は、このタブレット103を用いて表示部105に表示
される画像中において任意の始点と終点とを指定するこ
とができる。The tablet 103 is formed integrally with the display unit 105, and realizes an input operation by directly pointing an image displayed on the display unit 105 with an input pen. Specifically, the tablet 103 constitutes a reference dimension input unit, and the operator uses the tablet 103 to specify the distance between two points in the image displayed on the display unit 105, and The distance between two points can be entered as the reference dimension. Further, the tablet 103 constitutes a designation means, and the operator can designate an arbitrary start point and end point in the image displayed on the display unit 105 by using the tablet 103.
【0053】位置検出回路104は、表示部105の表
示画面上において入力ペンによって指示された箇所の位
置座標を電磁誘導方式、磁気歪式、電圧式等の座標読み
取り原理で検出し検出結果をCPU101に出力する。The position detection circuit 104 detects the position coordinates of a portion designated by the input pen on the display screen of the display unit 105 by a coordinate reading principle such as an electromagnetic induction system, a magnetostriction system, and a voltage system, and the detection result is detected by the CPU 101. Output to.
【0054】表示部105は、液晶表示装置(LCD)
により構成され、表示駆動回路106から入力される駆
動信号に基づく各種表示を行う。表示駆動回路106
は、CPU101から入力される表示データに基づいて
駆動信号を生成し、その駆動信号を表示部105に出力
することで表示部105の表示制御を行う。The display unit 105 is a liquid crystal display device (LCD).
And performs various displays based on the drive signal input from the display drive circuit 106. Display drive circuit 106
Controls the display of the display unit 105 by generating a drive signal based on the display data input from the CPU 101 and outputting the drive signal to the display unit 105.
【0055】RAM107には、CPU101により実
行される各種処理において、ROM108から読み出さ
れる各種処理プログラム、入力若しくは出力データ、及
びパラメータ等の一時的な格納領域となるワークデータ
メモリ107aが備えられる。また、表示部105に表
示すべきデータがビットマップのパターンデータとして
展開されて記憶される表示データメモリ107b、画像
オブジェクトとの焦点距離(奥行距離)に対応付けられ
た画像中の寸法を算出するためのスケールが記憶される
スケールデータメモリ107c、画像内のオブジェクト
の特徴点が記憶される特徴点データメモリ107d、画
像内で指定された閉区間が記憶される閉区間データメモ
リ107e、画像内の色比が記憶される色比データメモ
リ107f、表示中の地図に関するデータが記憶される
地図データメモリ107g等の各種データメモリが備え
られる。The RAM 107 is provided with a work data memory 107a which serves as a temporary storage area for various processing programs read from the ROM 108, input or output data, parameters and the like in various processing executed by the CPU 101. Further, the display data memory 107b in which the data to be displayed on the display unit 105 is developed and stored as bitmap pattern data, and the dimension in the image associated with the focal length (depth distance) with the image object is calculated. Scale data memory 107c for storing a scale for storing, feature point data memory 107d for storing the feature points of objects in the image, closed interval data memory 107e for storing the closed interval specified in the image, and Various data memories such as a color ratio data memory 107f for storing a color ratio and a map data memory 107g for storing data regarding a map being displayed are provided.
【0056】ROM108は、CPU101によって実
行される制御プログラムを記憶する不揮発性のメモリで
ある。また、ROM108には、基準寸法(距離)に基
づいた寸法(距離)算出プログラム、基準寸法(距離)
に基づいたスケール(定規)表示プログラム、基準オブ
ジェクトに基づいた表示画像サイズ変更プログラム、閉
区間の面積を算出する面積算出プログラム、地図中の地
点に該地点情報を入出力する地図情報入出力プログラ
ム、地図の図法を判別する為の図法判別プログラム等、
各種の動作、処理を司るサブプログラムが格納されてい
る。The ROM 108 is a non-volatile memory that stores a control program executed by the CPU 101. The ROM 108 also stores a dimension (distance) calculation program based on the reference dimension (distance) and a reference dimension (distance).
A scale (ruler) display program based on, a display image size changing program based on a reference object, an area calculation program that calculates the area of a closed section, a map information input / output program that inputs and outputs the point information to a point in the map, Projection determination program for determining the map projection, etc.
Subprograms that control various operations and processes are stored.
【0057】記憶媒体読書部109は、メモリカード等
の記憶媒体109aを挿脱自在に受け入れると共に、該
記憶媒体109aに記録されている情報を読み取ってC
PU101へ出力し、一方、CPU101から指定され
た情報を記憶媒体109aに書き込む。なお、この記憶
媒体109aに制御プログラムを格納することとしても
よい。The storage medium reading unit 109 accepts a storage medium 109a such as a memory card in an insertable / detachable manner, reads the information recorded in the storage medium 109a, and reads the information.
The information is output to the PU 101, while the information specified by the CPU 101 is written to the storage medium 109a. The control program may be stored in this storage medium 109a.
【0058】I/Oポート110は、デジタルカメラ2
00から送信されるシリアル信号に変換された画像デー
タを通信ケーブルCを介して受信する一方、CPU10
1によって出力されるシリアル信号を図示せぬ電子計算
機等に送信する。The I / O port 110 is used by the digital camera 2
While receiving the image data converted into the serial signal transmitted from 00 through the communication cable C, the CPU 10
The serial signal output by 1 is transmitted to an electronic computer or the like (not shown).
【0059】次に、デジタルカメラ200の構成につい
て説明する。デジタルカメラ200は、図3に示す様
に、CCD(Charge Coupled Device)201、バッフ
ァ202、A/D変換器203、駆動回路204、タイ
ミングジェネレータ205、ダイナミックRAM(DR
AM)206、圧縮・伸長回路207、フラッシュメモ
リ208、ROM209、RAM210、キー入力部2
11、CPU212、シグナルジェネレータ213、V
RAM214、D/A変換器215、バッファ216、
LCD217、I/Oポート218、超音波送波回路2
19、超音波受波回路220、超音波振動子221を備
えている。Next, the structure of the digital camera 200 will be described. As shown in FIG. 3, the digital camera 200 includes a CCD (Charge Coupled Device) 201, a buffer 202, an A / D converter 203, a drive circuit 204, a timing generator 205, a dynamic RAM (DR).
AM) 206, compression / expansion circuit 207, flash memory 208, ROM 209, RAM 210, key input unit 2
11, CPU 212, signal generator 213, V
RAM 214, D / A converter 215, buffer 216,
LCD 217, I / O port 218, ultrasonic wave transmission circuit 2
19, an ultrasonic wave receiving circuit 220, and an ultrasonic vibrator 221.
【0060】CCD201は、図示せぬ撮像レンズによ
って結像された被写体の映像信号を受光し、受光面上に
配された各々の転送電極に受光量に比例した電荷を蓄積
し、駆動回路204により供給される駆動信号に応じ
て、当該各転送電極に蓄えられた蓄積電荷をアナログ電
気信号として1電極づつ順次、バッファ21を介してA
/D変換器203に出力する。The CCD 201 receives a video signal of a subject formed by an image pickup lens (not shown), accumulates electric charges proportional to the amount of received light on each transfer electrode arranged on the light receiving surface, and causes the drive circuit 204 to drive the charge. In accordance with the supplied drive signal, the accumulated charge accumulated in each transfer electrode is sequentially converted into an analog electric signal, one electrode at a time, via the buffer 21.
Output to the / D converter 203.
【0061】A/D変換器203は、CCD201から
出力されるアナログ電気信号をデジタル信号に変換し、
得られるデジタル画像データを、DRAM206に供給
する。The A / D converter 203 converts the analog electric signal output from the CCD 201 into a digital signal,
The obtained digital image data is supplied to the DRAM 206.
【0062】駆動回路204は、タイミングジェネレー
タ205から供給されるタイミング信号に基づいてCC
D201の露光及び読み出しタイミングを駆動制御す
る。The drive circuit 204 operates on the basis of the timing signal supplied from the timing generator 205.
The exposure and read timing of D201 are drive-controlled.
【0063】タイミングジェネレータ205は、駆動回
路204を制御するタイミング信号を発生する。The timing generator 205 generates a timing signal for controlling the drive circuit 204.
【0064】DRAM206は、取り込んだ画像データ
を一時的に記憶する半導体メモリである。The DRAM 206 is a semiconductor memory for temporarily storing the captured image data.
【0065】圧縮・伸長回路207は、DRAM206
に記憶された画像データを符号化により圧縮処理すると
共に、フラッシュメモリに記憶されている圧縮された画
像データを復号化して伸長処理する。The compression / expansion circuit 207 is a DRAM 206.
The compressed image data stored in the flash memory is decoded and the compressed image data stored in the flash memory is expanded.
【0066】フラッシュメモリ208は、DRAM20
6に記憶される画像データが圧縮・伸長回路207によ
って圧縮されて得られる画像データを記憶するものであ
り、例えば96枚の画像データを記憶可能である。The flash memory 208 is the DRAM 20.
The image data stored in 6 is stored in the image data obtained by being compressed by the compression / expansion circuit 207. For example, 96 pieces of image data can be stored.
【0067】ROM209は、デジタルカメラ200内
で利用されるプログラムやデータ等を記憶する。RAM
210は、CPU212によって実行される各種処理に
おけるワークメモリである。The ROM 209 stores programs and data used in the digital camera 200. RAM
210 is a work memory for various processes executed by the CPU 212.
【0068】キー入力部211は、図示はしないが
「+」キー、「−」キー、「DEL」キー、「DSP」
キー、「ZOOM」キー等を含み、デジタルカメラ20
0における各種処理の選択に際して操作者が指示する為
のキー群である。Although not shown, the key input section 211 includes a "+" key, a "-" key, a "DEL" key, and a "DSP".
Including a key, a "ZOOM" key, etc., the digital camera 20
It is a key group for the operator to instruct the selection of various processes in 0.
【0069】CPU212は、ROM209に記憶され
ている各種制御プログラムに基づいて、RAM210の
ワーク領域を使用しつつ、キー入力部211の各キーの
操作に対応した処理を実行して、デジタルカメラ200
の制御を司る。The CPU 212 uses the work area of the RAM 210 based on various control programs stored in the ROM 209 and executes processing corresponding to the operation of each key of the key input unit 211 to execute the digital camera 200.
Control the.
【0070】また、CPU212は、レジスタのほかに
プリセットカウンタなどを備え、超音波送波回路219
及び超音波受波回路220を制御すると共に、超音波振
動子221から発射された超音波パルスが図示せぬ被写
体に当たって再び超音波振動子221に到達するまでの
時間を演算し、当該演算結果を距離に換算する。すなわ
ち、CPU212は、距離算出手段の役目を果たす。The CPU 212 is provided with a preset counter and the like in addition to the register, and the ultrasonic wave transmission circuit 219.
Also, while controlling the ultrasonic wave receiving circuit 220, the time until the ultrasonic wave pulse emitted from the ultrasonic wave oscillator 221 hits an unillustrated subject and reaches the ultrasonic wave oscillator 221 again is calculated, and the calculated result is calculated. Convert to distance. That is, the CPU 212 functions as a distance calculating unit.
【0071】シグナルジェネレータ213は、デジタル
画像データに同期信号を付加してデジタルビデオ信号を
生成する。The signal generator 213 adds a synchronizing signal to the digital image data to generate a digital video signal.
【0072】VRAM214は、シグナルジェネレータ
213で生成されたデジタルビデオ信号を記憶するメモ
リである。The VRAM 214 is a memory for storing the digital video signal generated by the signal generator 213.
【0073】D/A変換器215は、シグナルジェネレ
ータ213から出力されたデジタルビデオ信号をアナロ
グビデオ信号に変換する。The D / A converter 215 converts the digital video signal output from the signal generator 213 into an analog video signal.
【0074】LCD(Liquid Crystal Display)217
は、バッファ216を介して入力されるアナログビデオ
信号に基づいて液晶を駆動して映像を表示する。LCD (Liquid Crystal Display) 217
Displays a video by driving the liquid crystal based on the analog video signal input via the buffer 216.
【0075】I/Oポート218は、CPU212によ
ってシリアル信号に変換された画像データ等を通信ケー
ブルCを介して電卓100に送信すると共に、電卓10
0、FDD装置、パソコンその他の外部機器から出力さ
れた信号を通信ケーブルCを介して受信してCPU21
2に出力する。The I / O port 218 transmits the image data converted into a serial signal by the CPU 212 to the calculator 100 via the communication cable C, and at the same time, the calculator 10
0, an FDD device, a personal computer or other external device receives a signal output via the communication cable C, and the CPU 21
Output to 2.
【0076】超音波送波回路219は、CPU212の
制御のもと、超音波振動子221に超音波を発振させ、
当該超音波を図示せぬ被写体に向けて発射させる機能を
果たす。The ultrasonic wave transmission circuit 219 causes the ultrasonic vibrator 221 to oscillate ultrasonic waves under the control of the CPU 212.
The ultrasonic wave is emitted to a subject (not shown).
【0077】超音波受波回路220は、超音波振動子2
21から発射された超音波が、図示せぬ被写体に当た
り、反射された反射波を受波して増幅し、CPU212
に出力する。The ultrasonic wave receiving circuit 220 is composed of the ultrasonic transducer 2
The ultrasonic waves emitted from 21 hit a subject (not shown), receive and amplify the reflected waves reflected by the CPU 212.
Output to.
【0078】以下、画像処理システム1の動作について
説明する。この画像処理システム1では、以下に説明す
る第1の動作態様から第17の動作態様までの17種類
の動作が行われる。The operation of the image processing system 1 will be described below. In this image processing system 1, 17 types of operations from a first operation mode to a seventeenth operation mode described below are performed.
【0079】〔第1の動作態様〕以下、画像処理システ
ム1の第1の動作態様について、図4,5を用いて説明
する。図4は、第1の動作態様を説明する為のフローチ
ャートを示す。前提として、デジタルカメラ200にお
いて被写体が撮像され、フラッシュメモリ208には、
図5(a)に示す様な画像の画像データが記憶されてい
るものとする。先ず、電卓100のCPU101は、通
信ケーブルCを介してデジタルカメラ200から画像デ
ータを取得する(ステップS501)。[First Operation Mode] The first operation mode of the image processing system 1 will be described below with reference to FIGS. FIG. 4 shows a flowchart for explaining the first operation mode. As a premise, a subject is captured by the digital camera 200, and the flash memory 208 stores
Image data of an image as shown in FIG. 5A is stored. First, the CPU 101 of the calculator 100 acquires image data from the digital camera 200 via the communication cable C (step S501).
【0080】次いで、CPU101は、取得した画像デ
ータに基づく画像を表示部105に表示させる(ステッ
プS502)。これにより、表示部105には、図5
(a)に示すような画像が表示される。図5(a)にお
いて、符号401は被写体(オブジェクト)たる人物を
示し、符号402は被写体(オブジェクト)たる木を示
す。ここで、操作者は、タブレット103を用いて、表
示部105に表示される画像中の2点間(点4aと点4
bの間)の距離を指定すると共に、入力部102を用い
て当該2点間の距離を基準寸法として入力する。具体的
には、操作者は、人物401の身長(1.7メートル)
を基準寸法として入力する。Next, the CPU 101 displays an image based on the acquired image data on the display unit 105 (step S502). As a result, the display unit 105 is displayed in FIG.
An image as shown in (a) is displayed. In FIG. 5A, reference numeral 401 indicates a person who is a subject (object), and reference numeral 402 indicates a tree which is a subject (object). Here, the operator uses the tablet 103 to detect a gap between two points (point 4 a and point 4) in the image displayed on the display unit 105.
The distance between b) is specified, and the distance between the two points is input as a reference dimension using the input unit 102. Specifically, the operator is the height of the person 401 (1.7 meters).
Enter as the reference dimension.
【0081】次いで、CPU101は、操作者によって
指定された画像上の2点をRAM107に記憶する(ス
テップS503)。Next, the CPU 101 stores the two points on the image designated by the operator in the RAM 107 (step S503).
【0082】次いで、CPU101は、操作者によって
入力された基準寸法をRAM107に記憶する(ステッ
プS504)。ここで、操作者は、タブレット103を
用いて、表示部105に表示される画像中において任意
の始点と終点とを指定する。次いで、CPU101は、
操作者によって指定された始点と終点すなわち、長さを
求める2点を記憶する(ステップS505)。Next, the CPU 101 stores the reference size input by the operator in the RAM 107 (step S504). Here, the operator uses the tablet 103 to specify arbitrary start points and end points in the image displayed on the display unit 105. Next, the CPU 101
The start point and the end point designated by the operator, that is, the two points for which the length is obtained are stored (step S505).
【0083】具体的には、図5(a)の表示例では、始
点及び終点として、それぞれ木402の一端Aと他端B
が指定されている。ここで、操作者は、入力部102の
演算キーを押下する(ステップS506)。Specifically, in the display example of FIG. 5A, one end A and the other end B of the tree 402 are respectively set as the start point and the end point.
Is specified. Here, the operator presses the operation key of the input unit 102 (step S506).
【0084】次いで、CPU101は、演算キーの押下
信号を契機として、RAM107に格納した基準寸法に
基づいて、始点から終点までの距離を算出し(ステップ
S507)、算出結果を表示部105に表示させる(ス
テップS508)。これにより、表示部105には、人
401の身長を基準寸法とした場合における木402の
高さが表示される。ここで、操作者は、他の始点と終点
間の処理を知りたい場合は、入力部102の再実行キー
を押下する。Next, the CPU 101 calculates the distance from the start point to the end point based on the reference dimension stored in the RAM 107, triggered by the operation key depression signal (step S507), and displays the calculation result on the display unit 105. (Step S508). As a result, the height of the tree 402 when the height of the person 401 is used as the reference dimension is displayed on the display unit 105. Here, if the operator wants to know the process between the other start point and the other end point, he or she presses the re-execution key of the input unit 102.
【0085】次いで、CPU101は、再実行キーが押
下されたか否かを判定する(ステップS509)。ここ
で、CPU101は、再実行キーが押下されたと判定し
た場合は(ステップS509;YES)、再びステップ
S505に戻る。ステップS505に戻った場合、操作
者は、前回とは異なる始点と終点とを指定できる。図5
(a)の表示例では、人401と木402の間隔が指定
されている。この場合も同様に、人401の身長を基準
寸法とした場合における当該間隔の相対距離がCPU1
01によって算出され、算出結果が図5(b)示す様に
表示部105に表示される。一方、CPU101は、再
実行キーが押下されなかったと判定した場合は(ステッ
プS509;NO)、当該処理を終了する。Next, the CPU 101 determines whether or not the re-execution key has been pressed (step S509). Here, when the CPU 101 determines that the re-execution key has been pressed (step S509; YES), the CPU 101 returns to step S505 again. When returning to step S505, the operator can specify a start point and an end point different from the last time. Figure 5
In the display example of (a), the interval between the person 401 and the tree 402 is designated. In this case as well, when the height of the person 401 is used as the reference dimension, the relative distance of the interval is the CPU 1
01, and the calculation result is displayed on the display unit 105 as shown in FIG. On the other hand, when the CPU 101 determines that the re-execution key has not been pressed (step S509; NO), the process ends.
【0086】以上説明した様に、画像処理システム1の
第1の動作態様によれば、操作者がタブレット103を
用いて、表示部105に表示される画像中の2点間の距
離を指定すると共に、入力部102を用いて当該2点間
の距離を基準寸法として入力し、次いで、タブレット1
03を用いて、表示部105に表示される画像中におい
て任意の始点と終点とを指定するならば、CPU101
が、基準寸法に対する始点から終点までの相対的な距離
(長さ)を算出し、算出結果を表示部105させるの
で、当該始点と終点との距離を容易に知る事ができる。As described above, according to the first operation mode of the image processing system 1, the operator uses the tablet 103 to specify the distance between two points in the image displayed on the display unit 105. At the same time, the distance between the two points is input as a reference dimension using the input unit 102, and then the tablet 1
If the start point and the end point are arbitrarily specified in the image displayed on the display unit 105 using 03, the CPU 101
However, since the relative distance (length) from the start point to the end point with respect to the reference dimension is calculated and the calculation result is displayed on the display unit 105, the distance between the start point and the end point can be easily known.
【0087】〔第2の動作態様〕以下、画像処理システ
ム1の第2の動作態様について、図6,7を用いて説明
する。図6は、第2の動作態様を説明する為のフローチ
ャートを示す。先ず、CPU101は、通信ケーブルC
を介してデジタルカメラ200から複数の画像データを
取得する(ステップS701)。ここで、これら複数の
画像データには、同じオブジェクトが共通して含まれて
いるものとする。[Second Mode of Operation] The second mode of operation of the image processing system 1 will be described below with reference to FIGS. FIG. 6 shows a flowchart for explaining the second operation mode. First, the CPU 101 uses the communication cable C
A plurality of image data is acquired from the digital camera 200 via the (step S701). Here, it is assumed that the plurality of image data items include the same object in common.
【0088】次いで、CPU101は、取得した複数の
画像データに基づく画像を表示部105に一覧表示させ
る(ステップS702)。これにより、表示部105に
は、図7(a)に示す様に、例えば二つの画像が表示さ
れる。なお、図7(a)において、これら二つの画像に
は、夫々同一のオブジェクトである木601,602が
異なるスケールで表示されている。ここで、操作者は、
タブレット103を用いて、複数種の画像データ中に共
通して含まれるオブジェクトのうち、基準とするオブジ
ェクトを指定する。具体的には、例えば、操作者は、オ
ブジェクトたる木601,602のうち、基準とする木
602を指定する。Next, the CPU 101 causes the display unit 105 to display a list of images based on the acquired plurality of image data (step S702). As a result, for example, two images are displayed on the display unit 105 as shown in FIG. Note that, in FIG. 7A, trees 601 and 602 that are the same object are displayed in different scales in these two images. Here, the operator
Using the tablet 103, a reference object is designated from among objects commonly included in a plurality of types of image data. Specifically, for example, the operator designates the reference tree 602 of the object trees 601 and 602.
【0089】すると、CPU101は、指定された基準
となるオブジェクトを認識する(ステップS703)。
次いで操作者は、例えば、表示部105に表示されてい
る複数の画像のうち、指定した基準となるオブジェクト
(木602)と同一のオブジェクト(木601)を、タ
ブレット103を用いて指定する。Then, the CPU 101 recognizes the designated reference object (step S703).
Next, the operator uses the tablet 103 to specify, for example, the same object (tree 601) as the specified reference object (tree 602) among the plurality of images displayed on the display unit 105.
【0090】すると、CPU101は、当該指定された
オブジェクト(木601)を認識する(ステップS70
4)。ここで、操作者は、他の画像を表示部105に表
示させたい場合、すなわち表示画像を変更させたい場合
は、入力部102の画像送りキーを押下する。Then, the CPU 101 recognizes the designated object (tree 601) (step S70).
4). Here, if the operator wants to display another image on the display unit 105, that is, if he wants to change the displayed image, he presses the image feed key of the input unit 102.
【0091】次いで、CPU101は、画像送りキーの
押下による表示画像変更指示があったか否かを判定する
(ステップS705)。ここで、CPU101は、表示
画像の変更指示があったと判定した場合は(ステップS
705;YES)、当該画像送りキーの押下信号に伴っ
て、異なる画像を表示部105に表示させると共に(ス
テップS706)、再びステップS704に戻る。一
方、CPU101は、表示画像の変更指示が無かったと
判定した場合は(ステップS705;NO)、ステップ
S707に進む。ここで、操作者は、入力部102の実
行キーを押下する。Next, the CPU 101 determines whether or not there is an instruction to change the display image by pressing the image feed key (step S705). Here, when the CPU 101 determines that there is a display image change instruction (step S
705; YES), a different image is displayed on the display unit 105 in accordance with the pressing signal of the image feed key (step S706), and the process returns to step S704 again. On the other hand, when the CPU 101 determines that there is no instruction to change the display image (step S705; NO), the process proceeds to step S707. Here, the operator presses the execution key of the input unit 102.
【0092】すると、CPU101は、実行キーの押下
を検知し(ステップS707)、オブジェクトの指定さ
れた各画像の当該各オブジェクトのサイズが、基準とな
るオブジェクトのサイズに揃うようにこれらの画像をス
ケール変更する処理を実行する(ステップS708)。
すなわち、CPU101は、指定された各オブジェクト
が同一サイズで表示されるよう複数種の画像データの各
々をスケール変更して表示部105に表示させる。Then, the CPU 101 detects the pressing of the execution key (step S707), and scales these images so that the size of each of the designated images of the object is aligned with the size of the reference object. The changing process is executed (step S708).
That is, the CPU 101 changes the scale of each of the plurality of types of image data so that the specified objects are displayed in the same size, and causes the display unit 105 to display them.
【0093】次いで、CPU101は、スケール変更し
た画像を表示部105に一覧表示させる(ステップS7
09)。これにより、表示部105には、図7(b)に
示す様に、オブジェクトである木601が、ステップS
703において指定されたオブジェクトである木602
のサイズに揃えられて表示される。ここで、操作者は、
タブレット103を用いて、表示部105に一覧表示さ
れている各画像のうち、所望の画像を指定する。Next, the CPU 101 displays a list of the scale-changed images on the display unit 105 (step S7).
09). As a result, the tree 601 as the object is displayed on the display unit 105 as shown in FIG.
Tree 602 that is the object specified in 703
Are displayed in the same size as. Here, the operator
Using the tablet 103, a desired image is designated from among the images displayed in the list on the display unit 105.
【0094】すると、CPU101は、タブレット10
3による画像の選択を検出した場合には(ステップS7
10)、当該選択された画像を表示部105の表示枠い
っぱいに拡大して表示させる(ステップS711)。こ
こで、操作者は、再び画像の一覧を見たい場合には、入
力部102のバックキーを押下する。Then, the CPU 101 causes the tablet 10
When the selection of the image by 3 is detected (step S7
10) Then, the selected image is enlarged and displayed in the display frame of the display unit 105 (step S711). Here, when the operator wants to see the list of images again, the operator presses the back key of the input unit 102.
【0095】次いで、CPU101は、バックキーの押
下があったか否かを判定する(ステップS712)。こ
こで、CPU101は、バックキーの押下を検知した場
合には(ステップS712;YES)、表示部105に
画像の一覧を表示させるべく、再びステップS710に
戻る。一方、CPU101は、バックキーの押下を検知
しなかった場合には(ステップS712;NO)、当該
処理を終了する。Next, the CPU 101 determines whether or not the back key has been pressed (step S712). Here, when the CPU 101 detects that the back key is pressed (step S712; YES), the CPU 101 returns to step S710 again to display the list of images on the display unit 105. On the other hand, when the CPU 101 does not detect the pressing of the back key (step S712; NO), it ends the process.
【0096】以上説明した様に、画像処理システム1の
第2の動作態様によれば、操作者がタブレット103を
用いて、複数種の画像データ中に共通して含まれるオブ
ジェクトを指定すると、CPU101によって、当該各
指定されたオブジェクトが同一サイズで表示されるよう
複数種の画像データの各々がスケール変更されて表示手
段に表示されるので、別々に取り込んだ複数の画像のサ
イズを比較する事が容易になる。As described above, according to the second operation mode of the image processing system 1, when the operator uses the tablet 103 to designate an object commonly included in a plurality of types of image data, the CPU 101 By doing so, each of the plurality of types of image data is scaled and displayed on the display means so that each of the designated objects is displayed in the same size. Therefore, it is possible to compare the sizes of a plurality of images captured separately. It will be easier.
【0097】〔第3の動作態様〕以下、画像処理システ
ム1の第3の動作態様について、図8,9を用いて説明
する。図8は第3の動作態様を説明する為のフローチャ
ートである。先ず、デジタルカメラ200のCPU21
2はキー入力部211からの入力信号に基づいて超音波
送波回路219を駆動し、オブジェクトたる被写体に超
音波を送波させる(ステップS901)。[Third Mode of Operation] The third mode of operation of the image processing system 1 will be described below with reference to FIGS. FIG. 8 is a flow chart for explaining the third operation mode. First, the CPU 21 of the digital camera 200
Reference numeral 2 drives the ultrasonic wave transmission circuit 219 based on the input signal from the key input unit 211 to transmit ultrasonic waves to the subject as an object (step S901).
【0098】次いで、CPU212は、超音波受波回路
220を介して被写体からの反射波を受波する(ステッ
プS902)。具体的には、CPU212は、例えば図
9(a)に示す様に、被写体(オブジェクト)である昆
虫801に超音波を送波し、当該昆虫801からの反射
波を受波する。Next, the CPU 212 receives the reflected wave from the subject through the ultrasonic wave receiving circuit 220 (step S902). Specifically, the CPU 212 transmits an ultrasonic wave to an insect 801 which is a subject (object) and receives a reflected wave from the insect 801 as shown in FIG. 9A, for example.
【0099】次いで、CPU212は、ステップS90
1における超音波の送波からステップS902における
超音波の受波までに要した当該超音波の伝播遅延時間に
基づいて、当該被写体(オブジェクト)までの奥行距離
を表す奥行距離データを生成する(ステップS90
3)。Next, the CPU 212 causes the step S90.
Depth distance data representing the depth distance to the subject (object) is generated based on the propagation delay time of the ultrasonic wave required from the transmission of the ultrasonic wave in 1 to the reception of the ultrasonic wave in step S902 (step S90
3).
【0100】次いで、CPU212は、当該被写体を含
む画像を撮像することにより画像データを生成する(ス
テップS904)。次いで、CPU212は、ステップ
S903において生成した奥行距離データと、ステップ
S904において生成した画像データと、を対応付けて
RAM210に格納する(ステップS905)。Next, the CPU 212 captures an image including the subject to generate image data (step S904). Next, the CPU 212 stores the depth distance data generated in step S903 and the image data generated in step S904 in the RAM 210 in association with each other (step S905).
【0101】次いで、CPU212は、電卓100から
の要求に応じて、RAM210に格納されている画像デ
ータと奥行距離データとを当該電卓100に送信する
(ステップS906)。Next, the CPU 212 transmits the image data and the depth distance data stored in the RAM 210 to the calculator 100 in response to the request from the calculator 100 (step S906).
【0102】次いで、電卓のCPU101は、通信ケー
ブルCを介してデジタルカメラ200から画像データと
奥行距離データとを取得する(ステップS907)。次
いで、CPU101は、取得した画像データと奥行距離
データとを対応付けてRAM108に記憶する。Next, the CPU 101 of the calculator acquires the image data and the depth distance data from the digital camera 200 via the communication cable C (step S907). Next, the CPU 101 stores the acquired image data and the depth distance data in the RAM 108 in association with each other.
【0103】次いで、CPU101は、取得した画像デ
ータをRAM108から取出して表示部105に表示さ
せる(ステップS908)。ここで、操作者はタブレッ
ト103を用いて、当該画像中の任意の2点(点8a、
8b)を指定する。Next, the CPU 101 takes out the acquired image data from the RAM 108 and displays it on the display unit 105 (step S908). Here, the operator uses the tablet 103 to set arbitrary two points (point 8a, point 8a,
8b) is specified.
【0104】すると、CPU101は、タブレット10
3によって2点が指定された事を認識すると(ステップ
S909)、当該画像データに対応付けられている奥行
距離データをRAM108から取得し、取得した奥行距
離データに基づいて当該2点間の実際の距離(長さ)を
算出する(ステップS910)。Then, the CPU 101 causes the tablet 10
When it is recognized that two points have been designated by 3 (step S909), the depth distance data associated with the image data is acquired from the RAM 108, and the actual depth distance data between the two points is acquired based on the acquired depth distance data. The distance (length) is calculated (step S910).
【0105】次いで、CPU101は、算出した距離を
表示部105に表示させ(ステップS911)、当該処
理を終了する。これにより、表示部105には、図9
(b)に示す様に2点間の実際の長さが表示される。図
9(b)では、2点として、オブジェクトたる昆虫80
1の頭部と腹部とがタブレット103によって指定され
た事を想定している。Next, the CPU 101 displays the calculated distance on the display unit 105 (step S911), and ends the processing. As a result, the display unit 105 is displayed in FIG.
As shown in (b), the actual length between the two points is displayed. In FIG. 9B, the insect 80, which is an object, is set as two points.
It is assumed that the head and the abdomen of No. 1 are designated by the tablet 103.
【0106】以上説明した様に画像処理システム1の第
3の動作態様によれば、CPU101が、デジタルカメ
ラ200によって生成された奥行距離データに基づい
て、タブレット103によって指定された2点間の実距
離を算出するので、予め基準寸法を指定する必要無し
に、画像中に含まれるオブジェクト等の実際の大きさを
容易に知ることができる。As described above, according to the third operation mode of the image processing system 1, the CPU 101 determines the actual distance between two points designated by the tablet 103 based on the depth distance data generated by the digital camera 200. Since the distance is calculated, the actual size of the object or the like included in the image can be easily known without the need to specify the reference dimension in advance.
【0107】〔第4の動作態様〕以下、画像処理システ
ム1の第4の動作態様について、図10,11を用いて
説明する。図10は第4の動作態様を説明する為のフロ
ーチャートである。先ず、デジタルカメラ200のCP
U212はキー入力部211からの入力信号に基づいて
超音波送波回路219を駆動し、オブジェクトたる被写
体に超音波を送波させる(ステップS1101)。[Fourth Operation Mode] The fourth operation mode of the image processing system 1 will be described below with reference to FIGS. FIG. 10 is a flowchart for explaining the fourth operation mode. First, the CP of the digital camera 200
U212 drives the ultrasonic wave transmission circuit 219 based on the input signal from the key input unit 211, and transmits the ultrasonic wave to the subject as an object (step S1101).
【0108】次いで、CPU212は、超音波受波回路
220を介して被写体からの反射波を受波する(ステッ
プS1102)。具体的には、CPU212は、例えば
図11(a)に示す様に、被写体(オブジェクト)であ
る昆虫1001に超音波を送波し、当該昆虫1001か
らの反射波を受波する。Next, the CPU 212 receives the reflected wave from the subject through the ultrasonic wave receiving circuit 220 (step S1102). Specifically, the CPU 212 transmits an ultrasonic wave to the insect 1001 which is a subject (object) and receives a reflected wave from the insect 1001 as shown in FIG. 11A, for example.
【0109】次いで、CPU212は、ステップS11
01における超音波の送波からステップS1102にお
ける超音波の受波までに要した当該超音波の伝播遅延時
間に基づいて、当該被写体(オブジェクト)までの奥行
距離を表す奥行距離データを生成する(ステップS11
03)。Then, the CPU 212 determines in step S11.
Depth distance data representing the depth distance to the subject (object) is generated based on the propagation delay time of the ultrasonic wave required from the transmission of the ultrasonic wave in 01 to the reception of the ultrasonic wave in step S1102 (step S11
03).
【0110】次いで、CPU212は、当該被写体を含
む画像を撮像することにより画像データを生成する(ス
テップS1104)。次いで、CPU212は、ステッ
プS1103において生成した奥行距離データと、ステ
ップS904において生成した画像データと、を対応付
けてRAM210に格納する(ステップS1105)。Next, the CPU 212 generates image data by picking up an image including the subject (step S1104). Next, the CPU 212 stores the depth distance data generated in step S1103 and the image data generated in step S904 in the RAM 210 in association with each other (step S1105).
【0111】次いで、CPU212は、電卓100から
の要求に応じて、RAM210に格納されている画像デ
ータと奥行距離データとを当該電卓100に送信する
(ステップS1106)。Next, the CPU 212 transmits the image data and the depth distance data stored in the RAM 210 to the calculator 100 in response to the request from the calculator 100 (step S1106).
【0112】次いで、電卓のCPU101は、通信ケー
ブルCを介してデジタルカメラ200から画像データと
奥行距離データとを取得する(ステップS1107)。
次いで、CPU101は、取得した画像データと奥行距
離データとを対応付けてRAM108に記憶する。Next, the CPU 101 of the calculator acquires image data and depth distance data from the digital camera 200 via the communication cable C (step S1107).
Next, the CPU 101 stores the acquired image data and the depth distance data in the RAM 108 in association with each other.
【0113】次いで、CPU101は、RAM108か
ら当該各データを取出して、奥行距離データに基づい
て、画像データを表す画像の実寸を算出する(ステップ
S1108)。Next, the CPU 101 takes out the respective data from the RAM 108 and calculates the actual size of the image representing the image data based on the depth distance data (step S1108).
【0114】次いで、CPU101は、画像データの実
寸に基づいて、当該画像のViewWindow値を算
出する(ステップS1109)。ここで、ViewWi
ndow値とは、画像の表示範囲をあらわすパラメータ
である。なお、図11(b)に示す様に、CPU101
が算出したViewWindow値を表示部105に表
示させる様にしてもよい。図11(b)では、View
Window値として、画像の横方向の最小値を表すX
min、画像の横方向の最大値を表すXmax、画像の
表示スケールを表すscale、画素のサイズを表すd
ot、画像の縦方向の最小値を表すYmin、画像の縦
方向の最大値を表すYmax等各種のパラメータが自動
的に設定されている。Next, the CPU 101 calculates the ViewWindow value of the image based on the actual size of the image data (step S1109). Here, ViewWi
The nvalue value is a parameter that represents the display range of the image. In addition, as shown in FIG.
The ViewWindow value calculated by may be displayed on the display unit 105. In FIG. 11B, View
X that represents the minimum value in the horizontal direction of the image as the Window value
min, Xmax indicating the maximum value in the horizontal direction of the image, scale indicating the display scale of the image, d indicating the size of the pixel
Various parameters such as ot, Ymin representing the minimum value in the vertical direction of the image, and Ymax representing the maximum value in the vertical direction of the image are automatically set.
【0115】次いで、CPU101は、これら算出した
ViewWindow値でもって画像データを表示部1
05に表示させ(ステップS1110)、当該処理を終
了する。これにより、表示部105には、例えば図11
(c)に示すような画像が表示される。尚、図11
(c)において、符号1001はオブジェクトたる昆虫
を示す。Next, the CPU 101 displays the image data with the calculated ViewWindow value.
It is displayed on 05 (step S1110), and the said process is complete | finished. As a result, the display unit 105 displays, for example, in FIG.
An image as shown in (c) is displayed. Incidentally, FIG.
In (c), reference numeral 1001 indicates an insect that is an object.
【0116】以上説明した様に、画像処理システム1の
第4の動作態様によれば、CPU101によって、奥行
距離データに基づいて画像の実面積が算出され、算出さ
れた実面積に基づいて当該画像のViewWindow
値が算出され、算出されたViewWindow値でも
って画像データが表示されるので、当該画像を最適なサ
イズで見ることができる。As described above, according to the fourth operation mode of the image processing system 1, the CPU 101 calculates the actual area of the image based on the depth distance data, and the image is calculated based on the calculated actual area. ViewWindow
Since the value is calculated and the image data is displayed with the calculated ViewWindow value, the image can be viewed in an optimum size.
【0117】〔第5の動作態様〕以下、画像処理システ
ム1の第5の動作態様について、図12,13を用いて
説明する。図12は、第5の動作態様を説明する為のフ
ローチャートを示す。前提として、デジタルカメラ20
0のフラッシュメモリ208には、図13(a)に示す
様な画像の画像データが記憶されているものとする。先
ず、電卓100のCPU101は、通信ケーブルCを介
してデジタルカメラ200から画像データを取得する
(ステップS1301)。[Fifth Operation Mode] Hereinafter, the fifth operation mode of the image processing system 1 will be described with reference to FIGS. FIG. 12 shows a flowchart for explaining the fifth operation mode. As a premise, the digital camera 20
Image data of an image as shown in FIG. 13A is stored in the flash memory 208 of No. 0. First, the CPU 101 of the calculator 100 acquires image data from the digital camera 200 via the communication cable C (step S1301).
【0118】次いで、CPU101は、取得した画像デ
ータに基づく画像を表示部105に表示させる(ステッ
プS1302)。これにより、表示部105には、図1
3(a)に示すような画像が表示される。図13(a)
において、符号1201はオブジェクトである人物を示
し、符号1202はオブジェクトである木を示す。ここ
で、操作者は、タブレット103を用いて、表示部10
5に表示される画像中の2点間(点12aと点12bの
間)の距離を指定すると共に、入力部102を用いて当
該2点間の距離を基準寸法として入力する。具体的に
は、操作者は、人物1201の身長(1.7メートル)
を基準寸法として入力する。Next, the CPU 101 causes the display section 105 to display an image based on the acquired image data (step S1302). As a result, the display unit 105 is displayed in FIG.
An image as shown in 3 (a) is displayed. FIG. 13 (a)
In the above, reference numeral 1201 indicates a person who is an object, and reference numeral 1202 indicates a tree which is an object. Here, the operator uses the tablet 103 to display the display unit 10
The distance between two points (between the points 12a and 12b) in the image displayed in 5 is designated, and the distance between the two points is input as a reference dimension using the input unit 102. Specifically, the operator is the height of the person 1201 (1.7 meters).
Enter as the reference dimension.
【0119】次いで、CPU101は、操作者によって
指定された画像上の2点を認識すると共に、操作者によ
って入力された基準寸法をRAM107に記憶する。こ
こで、操作者は、入力部102のオブジェクトポインタ
表示キーを押下する。Next, the CPU 101 recognizes two points on the image designated by the operator and stores the reference dimensions input by the operator in the RAM 107. Here, the operator presses the object pointer display key of the input unit 102.
【0120】すると、CPU101は、オブジェクトポ
インタ表示キーの押下を検知し(ステップS130
3)、これを契機として、表示部105に表示されてい
る画像内に含まれるオブジェクトを検出すると共に(ス
テップS1304)、検出した各オブジェクトの複数の
特徴点にポインタを付す事により、これをマーキングし
て当該画像データと共に表示部105に表示させる(ス
テップS1305)。なお、ここに云う特徴点とは、オ
ブジェクトの特徴を表す代表的な点であり、具体的には
例えば、オブジェクトの始まる点、終わる点、その他当
該オブジェクトの輪郭線上の点、又は当該オブジェクト
の重心点等である。これにより、表示部105には、例
えば、図13(b)に示す様な画像が表示される。図1
3において、符号1201a,1201b・・・、12
02a,1202b・・・がマーキングされて表示され
た特徴点である。ここで、操作者は、タブレット103
を用いて、任意の2つの特徴点を指定すると共に、入力
部102の実行キーを押下する。Then, the CPU 101 detects the depression of the object pointer display key (step S130).
3) With this as an opportunity, an object included in the image displayed on the display unit 105 is detected (step S1304), and a plurality of characteristic points of each detected object are marked with pointers to mark the object. Then, it is displayed on the display unit 105 together with the image data (step S1305). Note that the feature points mentioned here are representative points that represent the features of the object, and specifically, for example, the starting point, the ending point of the object, other points on the contour line of the object, or the center of gravity of the object. Points etc. As a result, for example, an image as shown in FIG. 13B is displayed on the display unit 105. Figure 1
3, reference numerals 1201a, 1201b, ..., 12
02a, 1202b ... Are marked feature points and displayed. Here, the operator uses the tablet 103
Using, specify two arbitrary feature points and press the execution key of the input unit 102.
【0121】すると、CPU101は、実行キーの押下
信号を契機として、タブレット103により指定された
2つの特徴点を認識する(ステップS1306)。Then, the CPU 101 recognizes the two feature points designated by the tablet 103 in response to the execution key depression signal (step S1306).
【0122】次いで、CPU101は、基準寸法に基づ
いて、指定された一方の特徴点から指定された他方の特
徴点までの距離を算出する(ステップS1307)。Next, the CPU 101 calculates the distance from one designated feature point to the other designated feature point based on the reference dimension (step S1307).
【0123】次いで、CPU101は、算出した特徴点
間の距離を表示部105に表示させる(ステップS13
08)。これにより、表示部105に表示される画像
は、図13(c)に示す画像へと遷移する。図13
(c)では、操作者によって特徴点1202bと特徴点
1202eとが指定され、当該各特徴点間の距離がCP
U101によって算出され表示された事を想定してい
る。ここで、操作者は、他の始点と終点間の処理を知り
たい場合は、入力部102の再実行キーを押下する。Next, the CPU 101 displays the calculated distance between the feature points on the display unit 105 (step S13).
08). As a result, the image displayed on the display unit 105 transitions to the image shown in FIG. FIG.
In (c), the operator specifies the characteristic points 1202b and 1202e, and the distance between the characteristic points is CP.
It is assumed that it is calculated and displayed by U101. Here, if the operator wants to know the process between the other start point and the other end point, he or she presses the re-execution key of the input unit 102.
【0124】次いで、CPU101は、再実行キーが押
下されたか否かを判定する(ステップS1309)。C
PU101は、再実行キーが押下されたと判定した場合
は(ステップS1309;YES)、表示部105に表
示されている距離を消去し(ステップS1310)、次
いで、再びステップS1306に戻る。一方、CPU1
01は、再実行キーが押下されなかったと判定した場合
は(ステップS1309;NO)、表示部105に表示
されている特徴点を示すポインタを消去し(ステップS
1311)、次いで当該処理を終了する。Next, the CPU 101 determines whether or not the re-execution key has been pressed (step S1309). C
When the PU 101 determines that the re-execution key has been pressed (step S1309; YES), the PU 101 erases the distance displayed on the display unit 105 (step S1310), and then returns to step S1306 again. On the other hand, CPU1
When 01 determines that the re-execution key has not been pressed (step S1309; NO), the pointer indicating the feature point displayed on the display unit 105 is erased (step S1309).
1311), and then the process ends.
【0125】以上説明した様に、画像処理システム1の
第5の動作態様によれば、CPU101によって、画像
中のオブジェクトが検出されると共に、検出されたオブ
ジェクトの複数の特徴点がマーキングされて当該画像デ
ータと共に表示部105に表示されるので、操作者は所
望の2つの特徴点をタブレット103を用いて指定する
ならば、各オブジェクトの特徴的な点間の距離を容易に
知ることができる。As described above, according to the fifth operation mode of the image processing system 1, the CPU 101 detects an object in the image and marks a plurality of characteristic points of the detected object, Since it is displayed on the display unit 105 together with the image data, the operator can easily know the distance between the characteristic points of each object by designating two desired characteristic points using the tablet 103.
【0126】〔第6の動作態様〕次に、画像処理システ
ム1の第6の動作態様について、図14,15を用いて
説明する。図14は、第6の動作態様を説明する為のフ
ローチャートである。先ず、デジタルカメラ200のC
PU212は、キー入力部211の操作を契機として、
図15(a)に示す様に、被写体たる昆虫1401を撮
像する事により当該被写体の画像データを生成する(ス
テップS1501)。[Sixth Operation Mode] Next, a sixth operation mode of the image processing system 1 will be described with reference to FIGS. FIG. 14 is a flowchart for explaining the sixth operation mode. First, C of the digital camera 200
The PU 212, triggered by the operation of the key input unit 211,
As shown in FIG. 15A, image data of the subject 1401 is generated by capturing an image of the subject insect 1401 (step S1501).
【0127】次いで、CPU212は、超音波送波回路
219及び超音波受波回路220の駆動に基づいて、こ
のデジタルカメラ200から被写体までの距離を計測
し、当該計測結果を表す奥行距離データを生成する(ス
テップS1502)。Next, the CPU 212 measures the distance from the digital camera 200 to the subject based on the driving of the ultrasonic wave transmitting circuit 219 and the ultrasonic wave receiving circuit 220, and generates the depth distance data representing the measurement result. Yes (step S1502).
【0128】次いで、CPU212は、電卓100から
の要求に応じて、画像データ及び奥行距離データを、通
信ケーブルCを介して電卓100に送信する(ステップ
S1503)。Next, the CPU 212 transmits the image data and the depth distance data to the calculator 100 via the communication cable C in response to the request from the calculator 100 (step S1503).
【0129】次いで、電卓100のCPU101は、通
信ケーブルCを介してデジタルカメラ200から画像デ
ータ及び奥行距離データを取得する(ステップS150
4)。そして、CPU101は、取得したこれらのデー
タのうち、画像データを表示部105に表示させる。こ
れにより、表示部105には、例えば、図15(b)に
示す様な画像が表示される。Next, the CPU 101 of the calculator 100 acquires the image data and the depth distance data from the digital camera 200 via the communication cable C (step S150).
4). Then, the CPU 101 causes the display unit 105 to display the image data among the acquired data. As a result, for example, an image as shown in FIG. 15B is displayed on the display unit 105.
【0130】次いで、CPU101は、奥行距離データ
に基づいて画像の実寸を算出する(ステップS150
5)。ここで、操作者は、入力部102の定規表示キー
を押下する。Next, the CPU 101 calculates the actual size of the image based on the depth distance data (step S150).
5). Here, the operator presses the ruler display key of the input unit 102.
【0131】すると、CPU101は、定規表示キーの
押下を検知し(ステップS1506)、算出した実寸を
表す定規を表示部105に表示させる(ステップS15
07)。これにより、表示部105には、図15(c)
に示す様に、実寸に対応する目盛りとしての定規Rが表
示される。なお、定規Rに代えてグリッドを表示させる
こととしてもよい。Then, the CPU 101 detects the pressing of the ruler display key (step S1506) and causes the display unit 105 to display the ruler representing the calculated actual size (step S15).
07). As a result, the display unit 105 is displayed in FIG.
As shown in, a ruler R as a scale corresponding to the actual size is displayed. Instead of the ruler R, a grid may be displayed.
【0132】以上説明した様に、画像処理システム1の
第6の動作態様によれば、CPU101による制御によ
って、表示部105に、画像データと共に実寸に対応し
た定規が表示されるので、当該画像データ中に含まれる
オブジェクトの実寸法を容易に知る事ができる。As described above, according to the sixth operation mode of the image processing system 1, the control by the CPU 101 causes the display unit 105 to display the image data and the ruler corresponding to the actual size. You can easily know the actual dimensions of the objects contained in it.
【0133】〔第7の動作態様〕以下、画像処理システ
ム1の第7の動作態様について、図16,17を用いて
説明する。図16は、第7の動作態様を説明する為のフ
ローチャートである。先ず、デジタルカメラ200のC
PU212は、キー入力部211からの操作信号に基づ
いて、第1のオブジェクト及び第2のオブジェクトを含
む画像を撮像する事により、画像データを生成する(ス
テップS1701)。生成した画像データはフラッシュ
メモリ208に格納される。[Seventh Operation Mode] Hereinafter, the seventh operation mode of the image processing system 1 will be described with reference to FIGS. FIG. 16 is a flowchart for explaining the seventh operation mode. First, C of the digital camera 200
The PU 212 captures an image including the first object and the second object based on the operation signal from the key input unit 211 to generate image data (step S1701). The generated image data is stored in the flash memory 208.
【0134】次いで、CPU212は、キー入力部21
1からの入力信号に基づいて、超音波送波回路219を
駆動する事により第1のオブジェクトまでの距離を測定
する(ステップS1702)。これにより、CPU21
2は、デジタルカメラ200から第1のオブジェクトま
での距離を表す第1の奥行距離データを生成し、生成し
た第1の奥行距離データと、当該第1のオブジェクトと
を対応付けてRAM210に格納する。Next, the CPU 212 causes the key input unit 21
Based on the input signal from 1, the ultrasonic wave transmission circuit 219 is driven to measure the distance to the first object (step S1702). As a result, the CPU 21
2 generates the first depth distance data representing the distance from the digital camera 200 to the first object, and stores the generated first depth distance data and the first object in the RAM 210 in association with each other. .
【0135】次いで、CPU212は、キー入力部21
1からの入力信号に基づいて、超音波送波回路219を
駆動する事により第2のオブジェクトまでの距離を測定
する(ステップS1703)。これにより、CPU21
2は、デジタルカメラ200から第2のオブジェクトま
での距離を表す第2の奥行距離データを生成し、生成し
た第2の奥行距離データと、当該第2のオブジェクトと
を対応付けてRAM210に格納する。Next, the CPU 212 causes the key input unit 21
Based on the input signal from 1, the ultrasonic wave transmission circuit 219 is driven to measure the distance to the second object (step S1703). As a result, the CPU 21
2 generates second depth distance data representing the distance from the digital camera 200 to the second object, and stores the generated second depth distance data and the second object in the RAM 210 in association with each other. .
【0136】次いで、CPU212は、電卓100から
の要求に応じて、ステップS1701で生成した画像デ
ータと、第1のオブジェクトに対応付けられている第1
の奥行距離データと、第2のオブジェクトに対応付けら
れている第2の奥行距離データと、を電卓100に送信
する(ステップS1704)。Next, the CPU 212, in response to a request from the calculator 100, associates the image data generated in step S1701 with the first object with the first object.
And the second depth distance data associated with the second object are transmitted to the calculator 100 (step S1704).
【0137】次いで、電卓100のCPU101は、デ
ジタルカメラ200から送信された画像データ、第1の
奥行距離データ、及び第2の奥行距離データを、通信ケ
ーブルCを介して取得する(ステップS1705)。Next, the CPU 101 of the calculator 100 acquires the image data, the first depth distance data, and the second depth distance data transmitted from the digital camera 200 via the communication cable C (step S1705).
【0138】次いで、CPU101は、取得した画像デ
ータ、第1の奥行距離データ、及び第2の奥行距離デー
タを対応付けてRAM107に格納する(ステップS1
706)。ここで、操作者は、入力部102の画像表示
キーを押下する。Next, the CPU 101 stores the acquired image data, the first depth distance data, and the second depth distance data in the RAM 107 in association with each other (step S1).
706). Here, the operator presses the image display key of the input unit 102.
【0139】すると、CPU101は、画像表示キーの
押下信号を検知し(ステップS1707)、RAM10
7に格納されている画像データに基づく画像を表示部1
05に表示させる(ステップS1708)。これによ
り、表示部105には、図17(a)に示す様な画像が
表示される。図17(a)において、符号1601が第
1のオブジェクトである人物であり、符号1602が第
2のオブジェクトである木である。人物1601は画像
の手前側に位置しており、木1602は画像の奥側に位
置している。ここで、操作者は、入力部102の3D空
間表示キーを押下する。Then, the CPU 101 detects the depression signal of the image display key (step S1707), and the RAM 10
An image based on the image data stored in 7 is displayed on the display unit 1.
No. 05 is displayed (step S1708). As a result, the image as shown in FIG. 17A is displayed on the display unit 105. In FIG. 17A, reference numeral 1601 is a person who is the first object, and reference numeral 1602 is a tree which is the second object. The person 1601 is located on the near side of the image, and the tree 1602 is located on the far side of the image. Here, the operator presses the 3D space display key of the input unit 102.
【0140】すると、CPU101は、3D空間表示キ
ーの押下信号を検知し(ステップS1709)、これを
契機として、第1のオブジェクトに対応付けられている
第1の奥行距離データと、第2のオブジェクトに対応付
けられている第2奥行距離データと、に基づいて、表示
部205の画像上に奥行空間としての3D補助空間を表
示させる(ステップS1710)。これにより、表示部
105に表示される画像は、図17(a)に示す画像か
ら図17(b)に示す画像へと遷移する。図17(b)
において、符号1603が3D補助空間を表す座標系で
ある。ここで、操作者はタブレット103を用いて任意
のオブジェクトを指定する。Then, the CPU 101 detects the pressing signal of the 3D space display key (step S1709), and with this detection as a trigger, the first depth distance data and the second object associated with the first object. The 3D auxiliary space as the depth space is displayed on the image of the display unit 205 based on the second depth distance data associated with (step S1710). As a result, the image displayed on the display unit 105 transits from the image shown in FIG. 17A to the image shown in FIG. 17B. FIG. 17 (b)
In the above, reference numeral 1603 is a coordinate system representing a 3D auxiliary space. Here, the operator uses the tablet 103 to specify an arbitrary object.
【0141】すると、CPU101は、オブジェクトの
指定を検知し(ステップS1711)、当該指定された
オブジェクトのサイズを、第1の奥行距離データ及び第
2の奥行距離データに基づいて算出する(ステップS1
712)。つまり、平面的に観察した場合ではそれぞれ
のオブジェクトのサイズ相関がわかりにくいが、奥行距
離データにより、それぞれのオブジェクトの立体的位置
関係が明らかになり、それぞれの高さや幅が明確にな
る。Then, the CPU 101 detects the designation of the object (step S1711), and calculates the size of the designated object based on the first depth distance data and the second depth distance data (step S1).
712). In other words, it is difficult to understand the size correlation of each object when viewed in a plane, but the depth distance data reveals the three-dimensional positional relationship of each object, and the height and width of each object become clear.
【0142】次いで、CPU101は、算出したサイズ
を表示部205に表示させる(ステップS1713)。
ここで、操作者は、他のオブジェクトのサイズを知りた
い場合は、タブレット103を用いて当該他のオブジェ
クトを指定する。Next, the CPU 101 displays the calculated size on the display unit 205 (step S1713).
Here, when the operator wants to know the size of another object, the operator uses the tablet 103 to specify the other object.
【0143】すると、CPU101は、他のオブジェク
トが指定されたか否かを判定する(ステップS171
4)。CPU101は、他のオブジェクトが指定された
と判定した場合は(ステップS1714;YES)、表
示部105に表示されている距離の算出結果を消去し
(ステップS1715)、次いで、再びステップS17
12に戻る。一方、CPU101は、他のオブジェクト
が指定されなかったと判定した場合は(ステップS17
14;NO)、当該処理を終了する。Then, the CPU 101 determines whether or not another object is designated (step S171).
4). When the CPU 101 determines that another object is designated (step S1714; YES), it deletes the distance calculation result displayed on the display unit 105 (step S1715), and then again at step S17.
Return to 12. On the other hand, when the CPU 101 determines that another object is not designated (step S17)
14; NO), and the process ends.
【0144】以上説明した様に、画像処理システム1の
第7の動作態様によれば、CPU101によって、デジ
タルカメラ200から取得した奥行距離データに基づい
て画像上に奥行空間(3D補助空間)が表示されるの
で、画像の奥行を把握する事ができる。As described above, according to the seventh operation mode of the image processing system 1, the CPU 101 displays the depth space (3D auxiliary space) on the image based on the depth distance data acquired from the digital camera 200. Therefore, the depth of the image can be grasped.
【0145】〔第8の動作態様〕以下、画像処理システ
ム1の第8の動作態様について、図18,19を用いて
説明する。図18は、第8の動作態様を説明する為のフ
ローチャートである。先ず、電卓100のCPU101
はデジタルカメラ200から取得した複数種の画像デー
タの各々を、個別に表示部105に表示させる。これに
より、表示部105には、例えば、図19(a)及び図
19(b)に示す様な画像が個別に表示される。ここ
で、操作者は、タブレット103を用いて当該各画像中
の少なくとも1の任意のオブジェクトを指定すると共
に、入力部102を用いて当該指定したオブジェクトの
各方向の長さ(実寸)を入力する。[Eighth Operation Mode] The eighth operation mode of the image processing system 1 will be described below with reference to FIGS. FIG. 18 is a flowchart for explaining the eighth operation mode. First, the CPU 101 of the calculator 100
Causes the display unit 105 to individually display each of the plurality of types of image data acquired from the digital camera 200. As a result, for example, the images as shown in FIGS. 19A and 19B are individually displayed on the display unit 105. Here, the operator uses the tablet 103 to specify at least one arbitrary object in each image, and uses the input unit 102 to input the length (actual size) of the specified object in each direction. .
【0146】次いで、CPU101は、操作者によって
画像データ別に入力されたオブジェクトの実寸に基づい
て、各々の画像データについて当該画像全体の実際の大
きさを算出する。即ち、CPU101は、各々の画像デ
ータについて、表示部105のフレーム内に表示されて
いる画像の実面積を算出する(ステップS1901)。Next, the CPU 101 calculates the actual size of the entire image for each image data based on the actual size of the object input by the operator for each image data. That is, the CPU 101 calculates the actual area of the image displayed in the frame of the display unit 105 for each image data (step S1901).
【0147】次いで、CPU101は、画像データと、
その画像データについて算出した実面積とを対応付けて
RAM107に記憶する(ステップS1902)。ここ
で、操作者は、入力部102の実行キーを押下する。Next, the CPU 101 stores the image data and
The real area calculated for the image data is associated and stored in the RAM 107 (step S1902). Here, the operator presses the execution key of the input unit 102.
【0148】すると、CPU101は、実行キーの押下
信号を検知し(ステップS1903)、これを契機とし
て、デジタルカメラ200から取得した全ての画像デー
タに基づく画像を表示部105上に一覧表示させる(ス
テップS1904)。ここで、操作者は、タブレット1
03を用いて、表示部105に表示されている複数の画
像のうち、所望の画像を複数指定する(ステップS19
05)。Then, the CPU 101 detects an execution key depression signal (step S1903), and in response to this, displays a list of images based on all the image data acquired from the digital camera 200 on the display unit 105 (step S1903). S1904). Here, the operator is the tablet 1
Using 03, a plurality of desired images are designated among the plurality of images displayed on the display unit 105 (step S19).
05).
【0149】次いで、CPU101は、タブレット10
3によって指定された画像をマーキングして表示させ
る。ここで、操作者は所望の画像を全て選択した場合
は、入力部102の確定キーを押下する。Next, the CPU 101 causes the tablet 10
The image designated by 3 is marked and displayed. Here, when the operator selects all desired images, the operator presses the enter key of the input unit 102.
【0150】次いで、CPU101は、確定キーの押下
があったか否かを判定する(ステップS1906)。こ
こで、CPU101は、確定キーの押下信号が無い場合
は(ステップS1906;NO)、再びステップS19
05に戻る。一方、CPU101は、確定キーの押下信
号を検知した場合には(ステップS1906;YE
S)、ステップS1905において認識した画像データ
と、当該各画像データの実面積と、をRAM107から
取得する(ステップS1907)。Next, the CPU 101 determines whether or not the enter key has been pressed (step S1906). Here, when there is no confirmation key pressing signal (step S1906; NO), the CPU 101 returns to step S19.
Return to 05. On the other hand, when the CPU 101 detects a press signal of the enter key (step S1906; YE).
S), the image data recognized in step S1905 and the actual area of each image data are acquired from the RAM 107 (step S1907).
【0151】次いで、CPU101は、RAM107か
ら取得した画像データと、当該各画像データの実面積と
に基づいて、当該各画像データの表示サイズの比が当該
各画像の実面積の比と一致する様に、これらの画像デー
タをスケール変更して表示部105の画面に一覧表示さ
せ(ステップS1908)、当該処理を終了する。Next, the CPU 101 determines that the ratio of the display size of each image data matches the ratio of the actual area of each image based on the image data acquired from the RAM 107 and the actual area of each image data. Then, these image data are scale-changed and displayed as a list on the screen of the display unit 105 (step S1908), and the process ends.
【0152】これにより、表示部105には、例えば、
図19(c)に示す様な画像が一覧表示される。図19
(c)では、画像1801と、画像1802とが指定さ
れたことが想定されている。ここで、画像1801は図
19(a)に示す画像に対応しており、画像1802は
図19(b)に示す画像に対応している。これらの画像
を個別に表示する場合は、図19(a)に示す画像中に
含まれる木1801aの方が、図19(b)に示す画像
中に含まれる木1802aよりも大きく見えるが、当該
各画像を一覧表示させた場合は、図19(c)に示す様
に、実際は木1802aの方が大きいということが分か
るように、各オブジェクトの実寸に対応した相対的なサ
イズの比を知ることができる。As a result, the display unit 105 displays, for example,
A list of images as shown in FIG. 19C is displayed. FIG. 19
In (c), it is assumed that the image 1801 and the image 1802 are designated. Here, the image 1801 corresponds to the image shown in FIG. 19A, and the image 1802 corresponds to the image shown in FIG. 19B. When these images are displayed individually, the tree 1801a included in the image shown in FIG. 19A looks larger than the tree 1802a included in the image shown in FIG. 19B. When each image is displayed in a list, as shown in FIG. 19C, the relative size ratio corresponding to the actual size of each object is known so that the tree 1802a is actually larger. You can
【0153】以上説明した様に、画像処理システム1の
第8の動作態様によれば、CPU101によって、各画
像データの表示サイズの比が当該各画像の実面積の比と
一致する様に、これらの画像データがスケール変更され
て表示部105に一覧表示されるので、複数の画像の大
きさを、オブジェクトの実寸法の比率に応じて一覧表示
して比較できる。As described above, according to the eighth operation mode of the image processing system 1, the CPU 101 controls the CPU 101 so that the display size ratio of each image data matches the actual area ratio of each image. Since the image data of (1) are scaled and displayed on the display unit 105 as a list, the sizes of the plurality of images can be displayed as a list according to the ratio of the actual dimensions of the objects and compared.
【0154】〔第9の動作態様〕以下、画像処理システ
ム1の第9の動作態様について、図20,21を用いて
説明する。図20は、第9の動作態様を説明する為のフ
ローチャートである。先ず、デジタルカメラ200のC
PU212は、キー入力部211の操作信号を契機とし
て、被写体を撮像する事により当該被写体の画像データ
を生成する(ステップS2101)。[Ninth Mode of Operation] The ninth mode of operation of the image processing system 1 will be described below with reference to FIGS. FIG. 20 is a flow chart for explaining the ninth operation mode. First, C of the digital camera 200
The PU 212 captures an image of a subject, triggered by an operation signal from the key input unit 211, to generate image data of the subject (step S2101).
【0155】次いで、CPU212は、超音波送波回路
219及び超音波受波回路220を駆動させる事に基づ
いて、このデジタルカメラ200から被写体までの距離
を計測し、当該計測結果を表す奥行距離データを生成す
る(ステップS2102)。Next, the CPU 212 measures the distance from the digital camera 200 to the subject based on driving the ultrasonic wave transmitting circuit 219 and the ultrasonic wave receiving circuit 220, and the depth distance data representing the measurement result. Is generated (step S2102).
【0156】次いで、CPU212は、電卓100から
の要求に応じて、生成した画像データ及び奥行距離デー
タを、通信ケーブルCを介して電卓100に送信する
(ステップS2103)。Next, the CPU 212 transmits the generated image data and depth distance data to the calculator 100 via the communication cable C in response to a request from the calculator 100 (step S2103).
【0157】次いで、電卓100のCPU101は、通
信ケーブルCを介してデジタルカメラ200から画像デ
ータ及び奥行距離データを取得する(ステップS210
4)。Next, the CPU 101 of the calculator 100 acquires image data and depth distance data from the digital camera 200 via the communication cable C (step S210).
4).
【0158】次いで、CPU101は、当該画像データ
に対応する奥行距離データに基づいて画像の表示範囲の
実面積を算出する(ステップS2105)。Next, the CPU 101 calculates the actual area of the display range of the image based on the depth distance data corresponding to the image data (step S2105).
【0159】次いで、CPU101は、取り込んだデー
タのうち、画像データに基づく画像を表示部105に表
示させる(ステップS2106)。これにより、表示部
105には、例えば、図21(a)に示す様な画像が表
示される。図21(a)には、オブジェクトとして昆虫
が表示されている。ここで、操作者は、タブレット10
3を用いて、画像中の任意の閉区間を指定する。このと
きの表示部105の表示態様を図21(b)に示す。図
21(b)では、操作者によってオブジェクトたる昆虫
の右の羽を表す閉区間2001が指定された事を想定し
ている。図示の様に、CPU101は、操作者によって
指定された閉区間2001をマーキングして表示部10
5にさせる。Next, the CPU 101 causes the display unit 105 to display an image based on the image data among the fetched data (step S2106). As a result, for example, an image as shown in FIG. 21A is displayed on the display unit 105. Insects are displayed as objects in FIG. Here, the operator uses the tablet 10
3 is used to specify an arbitrary closed section in the image. The display mode of the display unit 105 at this time is shown in FIG. In FIG. 21B, it is assumed that the operator has designated a closed section 2001 that represents the right wing of an insect, which is an object. As shown in the figure, the CPU 101 marks the closed section 2001 designated by the operator and displays it on the display unit 10.
Set to 5.
【0160】このとき、CPU101は、タブレット1
03によって指定された閉区間を認識する(ステップS
2107)。ここで、操作者は、入力部102の面積算
出キーを押下する。At this time, the CPU 101 determines that the tablet 1
The closed section specified by 03 is recognized (step S
2107). Here, the operator presses the area calculation key of the input unit 102.
【0161】すると、CPU101は、面積算出キーの
押下信号を検知し(ステップS2108)、これ契機と
して、ステップS2105において算出した当該画像全
体の実面積に基づいて、これに対する当該指定閉区間の
相対的な面積を算出する(ステップS2109)。ここ
で、算出される閉区間の面積は、当該閉区間の実面積で
ある。Then, the CPU 101 detects the pressing signal of the area calculation key (step S2108), and, triggered by this, based on the actual area of the entire image calculated in step S2105, relative to the designated closed section. The area is calculated (step S2109). Here, the calculated area of the closed section is the actual area of the closed section.
【0162】次いで、CPU101は、算出した指定閉
区間の実面積を表示部105に表示させる(ステップS
2110)。これにより、表示部105上には、図21
(c)に示す様に、当該指定閉区間2001の実面積
(117[mm2])が表示される。ここで、操作者
は、他の閉区間の面積を知りたい場合は、タブレット1
03を用いて当該他の閉区間を指定する。Next, the CPU 101 displays the calculated real area of the designated closed section on the display unit 105 (step S
2110). As a result, FIG.
As shown in (c), the actual area (117 [mm 2 ]) of the designated closed section 2001 is displayed. Here, when the operator wants to know the area of another closed section, the tablet 1
03 is used to specify the other closed section.
【0163】次いで、CPU101は、タブレット10
3によって他の閉区間が指定されたか否かを判定する
(ステップS2111)。CPU101は、他の閉区間
が指定されたと判定した場合は(ステップS2111;
YES)、現在表示部105に表示されている閉区間の
実面積と、当該閉区間を表すマーキングを消去し(ステ
ップS2112)、次いで、再びステップS2107に
戻る。一方、CPU101は、他の閉区間が指定されな
いと判定した場合は(ステップS2111;NO)、当
該処理を終了する。Next, the CPU 101 causes the tablet 10
It is determined whether another closed section is designated by 3 (step S2111). When the CPU 101 determines that another closed section is designated (step S2111;
(YES), the actual area of the closed section currently displayed on the display unit 105 and the marking representing the closed section are erased (step S2112), and then the process returns to step S2107. On the other hand, when the CPU 101 determines that another closed section is not designated (step S2111; NO), the processing ends.
【0164】以上説明した様に、画像処理システム1の
第9の動作態様によれば、CPU101によって、操作
者がタブレット103を用いて指定した閉区間の面積
が、当該画像の実面積に基づいて算出されると共に、当
該算出結果が表示部105に表示されるので、画像中に
含まれるオブジェクトの任意の一部分の実面積を知るこ
とができる。As described above, according to the ninth operation mode of the image processing system 1, the area of the closed section designated by the operator using the tablet 103 by the CPU 101 is based on the actual area of the image. Since the calculation result is displayed on the display unit 105 while being calculated, the actual area of an arbitrary part of the object included in the image can be known.
【0165】〔第10の動作態様〕以下、画像処理シス
テム1の第10の動作態様について、図22,23を用
いて説明する。図22は、第10の動作態様を説明する
為のフローチャートである。先ず、デジタルカメラ20
0のCPU212は、キー入力部211の操作信号に基
づいて、被写体を撮像する事により当該被写体の画像デ
ータを生成する(ステップS2301)。[Tenth Mode of Operation] The tenth mode of operation of the image processing system 1 will be described below with reference to FIGS. FIG. 22 is a flowchart for explaining the tenth operation mode. First, the digital camera 20
The CPU 212 of 0 captures an image of the subject based on the operation signal of the key input unit 211 to generate image data of the subject (step S2301).
【0166】次いで、CPU212は、超音波送波回路
219及び超音波受波回路220の駆動に基づいて、こ
のデジタルカメラ200から被写体までの距離を計測
し、当該計測結果を表す奥行距離データを生成する(ス
テップS2302)。Next, the CPU 212 measures the distance from the digital camera 200 to the subject based on the driving of the ultrasonic wave transmission circuit 219 and the ultrasonic wave reception circuit 220, and generates depth distance data representing the measurement result. Yes (step S2302).
【0167】次いで、CPU212は、電卓100から
の要求に応じて、生成した画像データ及び奥行距離デー
タを、通信ケーブルCを介して電卓100に送信する
(ステップS2303)。Next, the CPU 212 transmits the generated image data and depth distance data to the calculator 100 via the communication cable C in response to a request from the calculator 100 (step S2303).
【0168】次いで、電卓100のCPU101は、通
信ケーブルCを介してデジタルカメラ200から画像デ
ータ及び奥行距離データを取得する(ステップS230
4)。そして、CPU101は、取得したこれらのデー
タのうち、画像データに基づく画像を表示部105に表
示させる。これにより、表示部105には、例えば、図
23(a)に示す様な画像が表示される。ここで、操作
者は、入力部102の実面積表示キーを押下する。Next, the CPU 101 of the calculator 100 acquires the image data and the depth distance data from the digital camera 200 via the communication cable C (step S230).
4). Then, the CPU 101 causes the display unit 105 to display an image based on the image data among the acquired data. As a result, for example, an image as shown in FIG. 23A is displayed on the display unit 105. Here, the operator presses the real area display key of the input unit 102.
【0169】次いで、CPU101は、実面積表示キー
の押下を検知すると、奥行距離データに基づいて画像の
表示範囲の実面積を算出する(ステップS2305)。Next, when the CPU 101 detects that the real area display key is pressed, it calculates the real area of the image display range based on the depth distance data (step S2305).
【0170】次いで、CPU101は、算出結果を表示
部105に表示させる(ステップS2306)。これに
より、表示部105には、図23(b)に示す様に、画
像の表示範囲の実面積は表示される。なお、実面積に代
えて或いは実面積と共に、画像の縦、横それぞれの実際
の寸法を表示することとしてもよい。Next, the CPU 101 displays the calculation result on the display unit 105 (step S2306). As a result, the actual area of the display range of the image is displayed on the display unit 105, as shown in FIG. Instead of the actual area or together with the actual area, the actual dimensions of the vertical and horizontal directions of the image may be displayed.
【0171】以上説明した様に、画像処理システム1の
第10の動作態様によれば、CPU101によって、表
示部105に、画像データと共に該画像の表示範囲の実
面積が表示されるので、画像の実際の大きさや当該画像
データ中に含まれるオブジェクトの実寸法等を容易に知
る事ができる。As described above, according to the tenth operation mode of the image processing system 1, the CPU 101 displays the actual area of the display range of the image together with the image data on the display unit 105. It is possible to easily know the actual size and the actual size of the object included in the image data.
【0172】〔第11の動作態様〕以下、画像処理シス
テム1の第11の動作態様について、図24,25を用
いて説明する。図24は、第11の動作態様を説明する
為のフローチャートである。先ず、電卓100のCPU
101は、デジタルカメラ200から画像データと、そ
の画像データに対応する奥行距離データと、を通信ケー
ブルCを介して取り込み、取得する(ステップS250
1)。[Eleventh Mode of Operation] The eleventh mode of operation of the image processing system 1 will be described below with reference to FIGS. FIG. 24 is a flowchart for explaining the eleventh operation mode. First, the CPU of the calculator 100
101 captures and acquires image data and depth distance data corresponding to the image data from the digital camera 200 via the communication cable C (step S250).
1).
【0173】次いで、CPU101は、取り込んだ奥行
距離データに基づいて画像の縦方向の実寸と、当該画像
の横方向の実寸と、当該画像の奥行方向の実寸と、を算
出し、当該各算出結果(以下、実寸データという。)と
当該画像データとを対応付けてRAM107に記憶する
(ステップS2502)。Next, the CPU 101 calculates the actual size in the vertical direction of the image, the actual size in the horizontal direction of the image, and the actual size in the depth direction of the image based on the captured depth distance data, and the respective calculation results. (Hereinafter, referred to as actual size data) and the image data are associated and stored in the RAM 107 (step S2502).
【0174】次いで、CPU101は、その画像データ
を表示する旨の入力信号が入力部102から出力された
場合には、RAM107からその画像データを呼び出し
て(ステップS2503)、呼び出した画像データに基
づく画像を表示部105に表示させる(ステップS25
04)。ここで、操作者は、入力部102のシンボル表
示キーを押下する。Next, when the input signal indicating that the image data is displayed is output from the input unit 102, the CPU 101 calls the image data from the RAM 107 (step S2503), and the image based on the called image data. Is displayed on the display unit 105 (step S25
04). Here, the operator presses the symbol display key of the input unit 102.
【0175】すると、CPU101は、シンボル表示キ
ーの押下信号を検知し(ステップS2505)、これを
契機として、当該画像データに対応する実寸データをR
AM107から取得して、取得した実寸データに基づい
て表示部105上に座標系としてのシンボルを表示させ
る(ステップS2506)。これにより、表示部105
には、図25(a)に示す様に、画像と共に、シンボル
たる直方体2401が表示される。Then, the CPU 101 detects the pressing signal of the symbol display key (step S2505), and with this as a trigger, sets the actual size data corresponding to the image data to the R size.
The symbol as a coordinate system is displayed on the display unit 105 based on the acquired actual size data acquired from the AM 107 (step S2506). As a result, the display unit 105
As shown in FIG. 25A, a rectangular parallelepiped 2401 which is a symbol is displayed together with the image on the screen.
【0176】ここで、シンボルたる直方体2401につ
いて説明すると、この直方体2401は、図25(a)
に示す様に、画像の縦方向に延びる第1軸2401a
と、画像の横方向に延びる第2軸2401bと、画像の
奥行き方向に延びる第3軸2401cとを含む。これら
第1軸2401a、第2軸2401b、第3軸2401
cの長さの比は、それぞれ当該画像全体の縦方向、横方
向、奥行方向の実際の長さの比に一致している。即ち、
シンボルたる直方体2401は、画像の表示空間の相似
体となっている。実寸データが、画像全体の縦方向、横
方向、奥行方向の実際の長さを表すデータであるので、
CPU101は、これに基づいて演算を行い、画像の表
示空間の相似体としての直方体2401を表示させるこ
とができる。なお、操作者は、タブレット103を用い
て、直方体2401を画像上で操作することにより、各
軸の長さを任意に伸縮できるようになっている。Now, the rectangular parallelepiped 2401 which is a symbol will be described. This rectangular parallelepiped 2401 is shown in FIG.
As shown in, the first axis 2401a extending in the vertical direction of the image.
And a second axis 2401b extending in the lateral direction of the image and a third axis 2401c extending in the depth direction of the image. These first shaft 2401a, second shaft 2401b, third shaft 2401
The length ratios of c match the actual length ratios of the entire image in the vertical direction, the horizontal direction, and the depth direction, respectively. That is,
The rectangular parallelepiped 2401 that is a symbol is an analog of the display space of an image. Since the actual size data is the data that represents the actual length of the entire image in the vertical, horizontal, and depth directions,
The CPU 101 can perform a calculation based on this to display a rectangular parallelepiped 2401 as an analog of the image display space. The operator can use the tablet 103 to operate the rectangular parallelepiped 2401 on the image to arbitrarily expand or contract the length of each axis.
【0177】次いで、CPU101は、タブレット10
3によって直方体2401が操作された事を検知すると
(ステップS2507)、当該操作に伴って直方体24
01の操作方向(操作された軸の伸縮方向)の長さを変
更させる(ステップS2508)。これにより、操作前
において表示部105に表示されていた図25(a)に
示す直方体2401は、図25(b)の直方体2401
へと変形する。図25(b)の直方体2401は、図2
5(a)に示す直方体2401に比較して、第3軸24
01cが短くなっている。即ち、図25(b)は、操作
者がタブレット103を用いて第3軸を短くする操作を
行った事を想定したものである。Next, the CPU 101 causes the tablet 10
When it is detected that the rectangular parallelepiped 2401 is operated by 3 (step S2507), the rectangular parallelepiped 24 is accompanied by the operation.
The length in the operation direction of 01 (expanding / contracting direction of the operated shaft) is changed (step S2508). Thus, the rectangular parallelepiped 2401 shown in FIG. 25A displayed on the display unit 105 before the operation is changed to the rectangular parallelepiped 2401 shown in FIG.
Transforms into. The rectangular parallelepiped 2401 in FIG.
In comparison with the rectangular parallelepiped 2401 shown in FIG.
01c is shortened. That is, FIG. 25B assumes that the operator has performed an operation of shortening the third axis using the tablet 103.
【0178】次いで、CPU101は、直方体2401
の長さ変更方向すなわち操作方向の画像表示範囲を変更
する(ステップS2509)。具体的には、CPU10
1は、タブレット103によって第1軸2401aが伸
縮された場合には、当該伸縮に伴って当該画像の縦方向
の表示範囲を伸縮させ、第2軸2401bが伸縮された
場合には、当該伸縮に伴って当該画像の横方向の表示範
囲を伸縮させ、第3軸2401cが伸縮された場合に
は、当該伸縮に伴って当該画像の奥行方向の表示範囲を
伸縮させる(図25(c))。なお、これら第1乃至第
3の3つの軸のうち、2つ或いは3つの軸を同時に伸縮
させることもできる。ここで、操作者は、タブレット1
03を用いて直方体2401を再度操作することができ
る。Next, the CPU 101 determines that the rectangular parallelepiped 2401
The image display range in the length changing direction, that is, the operation direction is changed (step S2509). Specifically, the CPU 10
1 indicates that when the first axis 2401a is expanded or contracted by the tablet 103, the vertical display range of the image is expanded or contracted in accordance with the expansion or contraction, and when the second axis 2401b is expanded or contracted, the expansion or contraction is performed. Accordingly, the horizontal display range of the image is expanded / contracted, and when the third axis 2401c is expanded / contracted, the display range in the depth direction of the image is expanded / contracted in accordance with the expansion / contraction (FIG. 25 (c)). It should be noted that, of these first to third axes, two or three axes can be simultaneously expanded and contracted. Here, the operator is the tablet 1
The rectangular parallelepiped 2401 can be operated again using 03.
【0179】次いで、CPU101は、タブレット10
3によって直方体2401が再度操作されたか否か、す
なわち、画像サイズの変更要求が再度あるか否かを判定
する(ステップS2510)。ここで、CPU101
は、タブレット103によって直方体2401が再度操
作された事を検知すると(ステップS2510;YE
S)、再びステップS2507に戻る。一方、CPU1
01は、タブレット103によって直方体2401が再
度操作されなかったと判定した場合は(ステップS25
10;NO)、次のステップS2511に進む。Next, the CPU 101 causes the tablet 10
It is determined whether or not the rectangular parallelepiped 2401 has been operated again by 3, that is, whether or not there is another image size change request (step S2510). Here, the CPU 101
Detects that the rectangular parallelepiped 2401 has been operated again by the tablet 103 (step S2510; YE
S), and the process returns to step S2507 again. On the other hand, CPU1
01 determines that the rectangular parallelepiped 2401 has not been operated again by the tablet 103 (step S25
10; NO), and proceeds to the next step S2511.
【0180】ステップS2511において、CPU10
1は、入力部102からの入力信号に基づいて、操作者
によって別の画像が選択されたか否かを判定する(ステ
ップS2511)。ここで、CPU101は、別の画像
が選択されたと判定した場合は(ステップS2511;
YES)、当該選択された別の画像を表示部105に表
示させ(ステップS2512)、次いで、再びステップ
S2506に戻る。一方、CPU101は、別の画像が
選択されたかったと判定した場合は(ステップS251
1;NO)、当該処理を終了する。In step S2511, the CPU 10
1 determines whether another image is selected by the operator based on the input signal from the input unit 102 (step S2511). Here, when the CPU 101 determines that another image is selected (step S2511;
(YES), the other selected image is displayed on the display unit 105 (step S2512), and then the process returns to step S2506. On the other hand, when the CPU 101 determines that another image is desired to be selected (step S251).
1; NO), the process ends.
【0181】以上説明したように、画像処理システム1
の第11の動作態様によれば、CPU101によって、
直方体2401が画像データと共に表示部105に表示
される。そして、CPU101は、タブレット103に
よって第1軸2401aが伸縮された場合には、当該伸
縮に伴って当該画像の縦方向の表示範囲を伸縮し、第2
軸2401bが伸縮された場合には、当該伸縮に伴って
当該画像の横方向の表示範囲を伸縮し、第3軸2401
cが伸縮された場合には、当該伸縮に伴って当該画像の
奥行き方向の表示範囲を伸縮するので、画像の縦、横、
奥行の各方向の縮尺を容易に変更することができる。As described above, the image processing system 1
According to the eleventh operation mode of the
The rectangular parallelepiped 2401 is displayed on the display unit 105 together with the image data. Then, when the first axis 2401a is expanded and contracted by the tablet 103, the CPU 101 expands and contracts the vertical display range of the image in accordance with the expansion and contraction, and the second
When the axis 2401b is expanded / contracted, the horizontal display range of the image is expanded / contracted according to the expansion / contraction, and the third axis 2401
When c is expanded / contracted, the display range in the depth direction of the image is expanded / contracted in accordance with the expansion / contraction.
The scale in each direction of the depth can be easily changed.
【0182】〔第12の動作態様〕以下、画像処理シス
テム1の第12の動作態様について、図26,27を用
いて説明する。図26は、第12の動作態様を説明する
為のフローチャートである。予め、操作者は、入力部1
02の輪郭表示キーを押下すると共に、輪郭のみを表示
させたいオブジェクトを含む画像データを入力部102
の選択キーを用いて選択する。[Twelfth Mode of Operation] The twelfth mode of operation of the image processing system 1 will be described below with reference to FIGS. FIG. 26 is a flowchart for explaining the twelfth operation mode. In advance, the operator uses the input unit 1
The contour display key 02 is pressed, and image data including an object whose contour is to be displayed is input by the input unit 102.
Select using the selection keys of.
【0183】以上の前提のもと、先ず、電卓100のC
PU101は、入力部102から輪郭表示キーの押下に
対応する入力信号を受けると(ステップS2701)、
画像データをRAM107から取得し(ステップS27
02)、取得した画像データに基づく画像を表示部10
5に表示させる。これにより、表示部105には、例え
ば、図27(a)に示す様な画像が表示される。図27
(a)において、符号2601は、オブジェクトとして
の昆虫を示す。ここで、操作者は、タブレット103を
用いて、表示部105に表示されている画像中におい
て、輪郭のみを表示させたいオブジェクトすなわち昆虫
2601を選択し、入力部102の確定キーを押下す
る。Under the above premise, first, the calculator 100 C
When the PU 101 receives an input signal corresponding to the pressing of the contour display key from the input unit 102 (step S2701),
Image data is acquired from the RAM 107 (step S27
02), the display unit 10 displays an image based on the acquired image data.
5 is displayed. As a result, for example, an image as shown in FIG. 27A is displayed on the display unit 105. FIG. 27
In (a), reference numeral 2601 indicates an insect as an object. Here, the operator uses the tablet 103 to select, in the image displayed on the display unit 105, an object whose insect contour is to be displayed, that is, the insect 2601, and presses the enter key of the input unit 102.
【0184】すると、CPU101は、タブレット10
3によって選択されたオブジェクト(昆虫2601)を
認識する(ステップS2703)。次いで、CPU10
1は、確定キーの押下信号を検知すると、ステップS2
705に進む(ステップS2704)。Then, the CPU 101 causes the tablet 10
The object (insect 2601) selected by 3 is recognized (step S2703). Then, the CPU 10
1 detects the pressing signal of the enter key, the step S2
The process proceeds to step 705 (step S2704).
【0185】ステップS2705において、CPU10
1は、輪郭表示エリアに他のオブジェクトの輪郭が既に
表示されているか否かを判定する(ステップS270
5)。なお、輪郭表示エリアとは、オブジェクトの輪郭
のみを表示する為に確保された個別の表示領域を云う。
この輪郭表示エリアは、表示部105の全域に画像デー
タとは個別に確保されるものであってもよいし、画像デ
ータと共に表示部105上に区分された状態で確保され
る領域であってもよい。In step S2705, the CPU 10
1 determines whether or not the contours of other objects are already displayed in the contour display area (step S270).
5). The contour display area refers to an individual display area that is reserved for displaying only the contour of the object.
The contour display area may be secured in the entire area of the display unit 105 separately from the image data, or may be a region secured together with the image data in the display unit 105. Good.
【0186】CPU101は、他のオブジェクトの輪郭
が既に輪郭表示エリアに表示されていると判定した場合
は(ステップS2705;YES)、ステップS270
6に進む。具体的には、例えば、図27(b)に示す様
に、輪郭表示エリア2603に既に昆虫2601とは別
のオブジェクトの輪郭2602aが表示されていると判
定した場合は、ステップS2706に進む。なお、図2
7(b)に示す輪郭2062aは、図27(c)に示す
画像中のオブジェクトたる昆虫2602の輪郭である。If the CPU 101 determines that the contours of other objects are already displayed in the contour display area (step S2705; YES), the step S270.
Go to 6. Specifically, for example, as shown in FIG. 27B, when it is determined that the contour 2602a of the object different from the insect 2601 is already displayed in the contour display area 2603, the process proceeds to step S2706. Note that FIG.
The contour 2062a shown in FIG. 7B is the contour of the insect 2602 which is the object in the image shown in FIG.
【0187】一方、CPU101は、他のオブジェクト
の輪郭が既に輪郭表示エリアに表示されていないと判定
した場合は(ステップS2705;NO)、ステップS
2702に戻る。On the other hand, when the CPU 101 determines that the contours of other objects are not already displayed in the contour display area (step S2705; NO), the step S
Return to 2702.
【0188】ステップS2706において、CPU10
1は、先ずオブジェクトたる昆虫2601の輪郭のみを
抽出し、抽出した輪郭すなわちこれから新規に表示する
輪郭の実寸と、輪郭表示エリア2603に既に表示され
ている輪郭2602の実寸と、を比較する(ステップS
2706)。なお、オブジェクトの輪郭抽出は、画像デ
ータに周知のエッジ抽出フィルタを施す事によって行わ
れる。In step S2706, the CPU 10
First, only the outline of the insect 2601 which is the object is first extracted, and the actual size of the extracted outline, that is, the outline to be newly displayed, is compared with the actual size of the outline 2602 already displayed in the outline display area 2603 (step S
2706). The contour extraction of the object is performed by applying a well-known edge extraction filter to the image data.
【0189】次いで、CPU101は、当該比較結果に
基づいて、抽出した輪郭と、輪郭表示エリア2603に
既に表示されている輪郭2602と、の表示サイズを算
出する(ステップS2707)。ここで、当該各輪郭の
表示サイズの比は、当該各輪郭の実寸の比に一致してい
る。Next, the CPU 101 calculates the display size of the extracted contour and the contour 2602 already displayed in the contour display area 2603 based on the comparison result (step S2707). Here, the ratio of the display size of each contour matches the ratio of the actual size of each contour.
【0190】次いで、CPU101は、算出した表示サ
イズでもって、抽出した輪郭と既に表示されていた輪郭
2602aとを重ねて輪郭表示エリア2603に表示さ
せる(ステップS2708)。これにより、表示部10
5には、例えば図27(d)に示す様に、2つのオブジ
ェクトの輪郭2601a,2602aが重ねて表示され
る。なお、輪郭2601aは、CPU101によってオ
ブジェクト2601から抽出された輪郭である。Next, the CPU 101 displays the extracted contour and the contour 2602a already displayed in the contour display area 2603 in an overlapping manner with the calculated display size (step S2708). Thereby, the display unit 10
In FIG. 5, outlines 2601a and 2602a of two objects are displayed in an overlapping manner, for example, as shown in FIG. The contour 2601a is a contour extracted from the object 2601 by the CPU 101.
【0191】次いで、CPU101は、当該各輪郭26
01a,2602aの実寸を表示部105に表示させる
(ステップS2709)。これにより、操作者は、当該
各輪郭2601a,2602aの相対的なサイズの比の
みならず、実寸を知る事ができる。ここで、操作者は、
輪郭表示エリアに更に別の輪郭を表示させたい場合は、
それに対応するオブジェクトを含む画像データを入力部
102の選択キーを用いて選択し、選択した画像データ
中の当該オブジェクトをタブレット103を用いて指定
する。Next, the CPU 101 causes the contours 26
The actual sizes of 01a and 2602a are displayed on the display unit 105 (step S2709). Thereby, the operator can know not only the relative size ratio of the contours 2601a and 2602a but also the actual size. Here, the operator
If you want to display another contour in the contour display area,
The image data including the corresponding object is selected using the selection key of the input unit 102, and the object in the selected image data is specified using the tablet 103.
【0192】次いで、CPU101は、タブレット10
3の操作信号に基づいて更に別のオブジェクトが選択さ
れたか否かを判定する(ステップS2710)。ここ
で、CPU101は、更に別のオブジェクトが選択され
たと判定した場合は(ステップS2710;YES)、
再びステップS2702に戻る。一方、CPU101
は、更に別のオブジェクトが選択されなかったと判定し
た場合は(ステップS2710;NO)、当該処理を終
了する。Next, the CPU 101 causes the tablet 10
Based on the operation signal of No. 3, it is determined whether another object is selected (step S2710). Here, if the CPU 101 determines that another object has been selected (step S2710; YES),
The procedure returns to step S2702 again. On the other hand, the CPU 101
If it is determined that another object has not been selected (step S2710; NO), the process ends.
【0193】以上説明した様に、画像処理システム1の
第12の動作態様によれば、CPU101によって、画
像中の各オブジェクトの輪郭が抽出され、抽出された各
輪郭が、当該各輪郭の実寸比と一致するよう表示部10
5に重ねて表示されるので、各画像中に含まれるオブジ
ェクトの実際のサイズに対応した相対比を容易に知るこ
とができる。As described above, according to the twelfth operation mode of the image processing system 1, the CPU 101 extracts the contour of each object in the image, and each extracted contour is the actual size ratio of the contour. Display unit 10 to match
Since it is displayed by being overlapped with 5, the relative ratio corresponding to the actual size of the object included in each image can be easily known.
【0194】〔第13の動作態様〕以下、画像処理シス
テム1の第13の動作態様について、図28,29を用
いて説明する。図28は、第12の動作態様を説明する
為のフローチャートである。予め操作者は、所望の画像
を、入力部102を用いて選択する。[Thirteenth Operation Mode] The thirteenth operation mode of the image processing system 1 will be described below with reference to FIGS. FIG. 28 is a flow chart for explaining the twelfth operation mode. The operator previously selects a desired image using the input unit 102.
【0195】先ず、CPU101は、入力部102の操
作信号に基づいて、操作者によって選択された画像デー
タをRAM107から呼び出して、呼び出した画像デー
タに基づく画像を表示部105に表示させる(ステップ
S2901)。これにより、表示部105には、例えば
図29(a)に示す様な画像が表示される。ここで、操
作者は、入力部102の色比解析キーを押下すると共
に、画像中において所望の色が表示されている箇所を、
タブレット103を用いて指定する。First, the CPU 101 calls the image data selected by the operator from the RAM 107 based on the operation signal of the input unit 102, and displays the image based on the called image data on the display unit 105 (step S2901). . As a result, an image as shown in FIG. 29A is displayed on the display unit 105. Here, the operator depresses the color ratio analysis key of the input unit 102 and selects a portion where a desired color is displayed in the image.
It is specified using the tablet 103.
【0196】次いで、CPU101は、色比解析キーの
押下信号を検知し(ステップS2902)、タブレット
103によって指定された色を認識すると(ステップS
2903)、当該認識した色が、表示部105に表示さ
れている画像中にどのくらい含まれているかを表す含有
比を算出する(ステップS2904)。Next, the CPU 101 detects a color ratio analysis key depression signal (step S2902) and recognizes the color designated by the tablet 103 (step S2902).
2903), the content ratio indicating how much the recognized color is included in the image displayed on the display unit 105 is calculated (step S2904).
【0197】次いで、CPU101は、タブレット10
3によって指定された色と、当該各色の含有比を表示部
105に表示させ(ステップS2905)、当該処理を
終了する。これにより、表示部105には、図29
(b)に示す様に、タブレット103によって指定され
た色彩毎にその含有比が表示される。Next, the CPU 101 causes the tablet 10
The color designated by 3 and the content ratio of each color are displayed on the display unit 105 (step S2905), and the process ends. As a result, the display unit 105 is displayed in FIG.
As shown in (b), the content ratio is displayed for each color designated by the tablet 103.
【0198】以上説明した様に、画像処理システム1の
第13の動作態様によれば、CPU101によって、表
示部105に表示される画像に含まれる各色彩の含有比
が算出され、その算出結果が、各色彩別に表示部105
に表示されるので、画像に含まれる各色彩の含有比を定
量的に把握できる様になる。As described above, according to the thirteenth operation mode of the image processing system 1, the CPU 101 calculates the content ratio of each color included in the image displayed on the display unit 105, and the calculated result is obtained. , The display unit 105 for each color
Is displayed, the content ratio of each color included in the image can be quantitatively grasped.
【0199】〔第14の動作態様〕以下、画像処理シス
テム1の第14の動作態様について、図30,31を用
いて説明する。図30は、第14の動作態様を説明する
為のフローチャートである。先ず、CPU101は、通
信ケーブルC及びI/Oポート110を介して、例え
ば、デジタルカメラ200から地図を表す地図データ
と、当該地図データが表す地図の図法に関する図法デー
タと、当該地図データが表す地図の縮尺を示す縮尺デー
タと、を取得し、取得した地図データを表示部105に
表示させる(ステップS3101)。これにより、表示
部105には、図31(a)に示す様な地図が表示され
る。また、CPU101は、取得した図法データ及び縮
尺データ(以下、「地図情報」という。)をRAM10
7に格納する。ここで、操作者は、入力部102の実距
離算出キーを押下すると共に、タブレット103を用い
て当該地図上の任意の2地点(30a、30b)を指定
する。[Fourteenth Operation Mode] Hereinafter, the fourteenth operation mode of the image processing system 1 will be described with reference to FIGS. FIG. 30 is a flowchart for explaining the fourteenth operation mode. First, the CPU 101, via the communication cable C and the I / O port 110, for example, the map data representing a map from the digital camera 200, the projection data concerning the projection of the map represented by the map data, and the map represented by the map data. The scale data indicating the scale of is acquired, and the acquired map data is displayed on the display unit 105 (step S3101). As a result, a map as shown in FIG. 31A is displayed on the display unit 105. Further, the CPU 101 stores the acquired projection method data and reduced scale data (hereinafter referred to as “map information”) in the RAM 10.
Store in 7. Here, the operator depresses the actual distance calculation key of the input unit 102 and designates two arbitrary points (30a, 30b) on the map using the tablet 103.
【0200】すると、CPU101は、実距離算出キー
の押下信号を検知すると共に(ステップS3102)、
タブレット103によって2地点が指定された事を検知
すると(ステップS3103)、RAM107内におい
て、当該地図データに対応する地図情報を検索する(ス
テップS3104)。その過程でCPU101は、タブ
レット103によって指定された2地点をマーキングし
て表示部105に表示させる。これにより、表示部10
5に表示されていた図31(a)の地図は、図31
(b)に遷移する。Then, the CPU 101 detects the depression signal of the actual distance calculation key (step S3102), and
When it is detected that the two points are designated by the tablet 103 (step S3103), the RAM 107 searches the map information corresponding to the map data (step S3104). In the process, the CPU 101 marks two points designated by the tablet 103 and displays them on the display unit 105. Thereby, the display unit 10
The map of FIG. 31 (a) displayed in FIG.
Transition to (b).
【0201】次いで、CPU101は、検索して得られ
た地図情報に基づいて、タブレット103によって指定
された2地点間の実距離を算出する(ステップS310
5)。ここで、実距離とは、当該2地点間の実際の距離
[km]を云う。Next, the CPU 101 calculates the actual distance between the two points designated by the tablet 103, based on the map information obtained by the search (step S310).
5). Here, the actual distance means an actual distance [km] between the two points.
【0202】次いで、CPU101は、算出した実距離
を表示部105に表示させる(ステップS3106)。
これにより、表示部105には、図31(c)に示す様
に2地点間の距離が表示される。ここで、操作者は他の
2地点間の距離を知りたい場合は、タブレット103を
用いて当該他の2地点を指定する。Next, the CPU 101 displays the calculated actual distance on the display unit 105 (step S3106).
As a result, the distance between the two points is displayed on the display unit 105 as shown in FIG. Here, if the operator wants to know the distance between the other two points, he or she specifies the other two points using the tablet 103.
【0203】次いで、CPU101は、タブレット10
3によって他の2地点が指定されたたか否かを判定する
(ステップS3107)。ここで、CPU101は、タ
ブレット103によって他の2地点が指定されたと判定
した場合は(ステップS3107;YES)、現在表示
部105に表示されている2地点の表示を消去すると共
に(ステップS3108)、当該2地点間の距離表示を
消去し(ステップS3109)、次いで、再びステップ
S3103に戻る。一方、CPU101は、タブレット
103によって他の2地点が指定されなかったと判定し
た場合は(ステップS3107;NO)、当該処理を終
了する。Next, the CPU 101 causes the tablet 10
It is determined whether the other two points are designated by 3 (step S3107). Here, when the CPU 101 determines that the other two points are designated by the tablet 103 (step S3107; YES), the CPU 101 deletes the display of the two points currently displayed on the display unit 105 (step S3108), and The display of the distance between the two points is erased (step S3109), and then the process returns to step S3103. On the other hand, when the CPU 101 determines that the other two points are not designated by the tablet 103 (step S3107; NO), the process is ended.
【0204】以上説明した様に、画像処理システム1の
第14の動作態様によれば、CPU101によって、地
図を表す地図データ、当該地図データが表す地図の図法
に関する図法データ、及び当該地図データが表す地図の
縮尺を示す縮尺データが取得され、表示部105によっ
て、当該地図データが表示される。そして、CPU10
1によって、タブレット103によって指定された2地
点間の実距離が、図法データ及び縮尺データ基づいて算
出され、算出結果が表示部105に表示されるので、操
作者は、タブレット103を用いて、表示部105に表
示される地図中の2地点を指定するだけで、当該2点間
の実距離を知ることができる。これにより、操作者は、
各図法に特有な歪み等を容易に把握することもできる。
なお、地図データ、図法データ等は予め、電卓100内
に記憶してあってもよい。As described above, according to the fourteenth operation mode of the image processing system 1, the CPU 101 represents the map data representing the map, the projection method data concerning the map projection represented by the map data, and the map data. Scale data indicating the scale of the map is acquired, and the display unit 105 displays the map data. And the CPU 10
1, the actual distance between the two points designated by the tablet 103 is calculated based on the projection data and the scale data, and the calculation result is displayed on the display unit 105. Therefore, the operator uses the tablet 103 to display the actual distance. The actual distance between the two points can be known only by designating two points on the map displayed on the section 105. This allows the operator to
It is also possible to easily grasp the distortion and the like peculiar to each projection.
Note that map data, projection method data, and the like may be stored in the calculator 100 in advance.
【0205】〔第15の動作態様〕以下、画像処理シス
テム1の第15の動作態様について、図32,33を用
いて説明する。図32は、第15の動作態様を説明する
為のフローチャートである。先ず、CPU101は、通
信ケーブルC及びI/Oポート110を介して、地図を
表す地図データと、当該地図データが表す地図の図法に
関する図法データと、当該地図データが表す地図の縮尺
を示す縮尺データと、をデジタルカメラ200から取得
し、取得した地図データを表示部105に表示させる
(ステップS3301)。これにより、表示部105に
は、図33(a)に示す様な地図が表示される。また、
CPU101は、取得した図法データ及び縮尺データ
(以下、「地図情報」という。)をRAM107に格納
する。ここで、操作者は、入力部102の実距離算出キ
ーを押下し、次いでタブレット103を用いて当該地図
上の任意の領域(閉空間)を指定すると共に、当該地図
上の任意の地点(座標)を指定する。以下、タブレット
103によって指定された閉区間を「指定閉区間」とい
う。[Fifteenth Operation Mode] The fifteenth operation mode of the image processing system 1 will be described below with reference to FIGS. FIG. 32 is a flowchart for explaining the fifteenth operation mode. First, the CPU 101, via the communication cable C and the I / O port 110, map data representing a map, projection data relating to the map projection represented by the map data, and scale data representing the scale of the map represented by the map data. Is acquired from the digital camera 200, and the acquired map data is displayed on the display unit 105 (step S3301). As a result, the map as shown in FIG. 33A is displayed on the display unit 105. Also,
The CPU 101 stores the acquired projection method data and reduced scale data (hereinafter referred to as “map information”) in the RAM 107. Here, the operator presses the actual distance calculation key of the input unit 102, then uses the tablet 103 to specify an arbitrary area (closed space) on the map, and also an arbitrary point (coordinates on the map. ) Is specified. Hereinafter, the closed section designated by the tablet 103 is referred to as a “designated closed section”.
【0206】次いで、CPU101は、実距離算出キー
の押下信号を検知し(ステップS3302)、タブレッ
ト103によって閉区間3201が指定された事を検知
すると共に(ステップS3303)、当該地図上の任意
の地点(座標)が指定された事を検知すると(ステップ
S3304)、RAM107内において、当該地図デー
タに対応する地図情報を検索する(ステップS330
5)。その過程でCPU101は、指定閉区間と、地図
上の指定された地点と、をマーキングして表示部105
に表示させる(ステップS3306)。これにより、表
示部105に表示されていた図33(a)の地図は、図
33(b)に遷移する。図33(b)において、符号3
201が指定閉区間を示し、符号3202がタブレット
103によって指定された地図上の地点(座標)を示
す。Next, the CPU 101 detects a pressing signal of the actual distance calculation key (step S3302), detects that the closed section 3201 is designated by the tablet 103 (step S3303), and selects an arbitrary point on the map. When it is detected that the (coordinates) are designated (step S3304), the RAM 107 is searched for map information corresponding to the map data (step S330).
5). In the process, the CPU 101 marks the designated closed section and the designated point on the map, and displays it on the display unit 105.
Is displayed (step S3306). As a result, the map of FIG. 33A displayed on the display unit 105 transits to FIG. 33B. In FIG. 33B, reference numeral 3
Reference numeral 201 indicates a designated closed section, and reference numeral 3202 indicates a point (coordinates) on the map designated by the tablet 103.
【0207】次いで、CPU101は、検索結果に基づ
いて、タブレット103によって指定された地図上の領
域(指定閉区間)に対応する実領域と同一の形状及び面
積を有する実領域を表す領域を算出し(ステップS33
07)、算出した領域をタブレット103によって指定
された地点を中心として当該地図上に表示させる(ステ
ップS3308)。これにより、表示部105の表示内
容は、図33(c)に示すものへと遷移する。図33
(c)において、符号3203が、タブレット103に
よって指定された地点を中心として当該地図上に表示さ
れた、領域3201に対応する実領域と同一の形状及び
面積を有する実領域を表す領域(以下、「算出閉区間」
という。)である。なお、CPU101は、地図情報に
基づいて指定閉区間の実面積を算出し、当該算出結果
(以下、「面積値」という。)を表示部105に表示す
ることとしてもよい。ここで、操作者は領域3201と
は別の領域を指定したい場合は、タブレット103を用
いて当該別の領域を指定する。Next, the CPU 101 calculates a region representing a real region having the same shape and area as the real region corresponding to the region (designated closed section) on the map designated by the tablet 103, based on the search result. (Step S33
07), the calculated area is displayed on the map centered on the point designated by the tablet 103 (step S3308). As a result, the display content of the display unit 105 transits to that shown in FIG. 33 (c). FIG. 33
In (c), reference numeral 3203 indicates a real region having the same shape and area as the real region corresponding to the region 3201 displayed on the map centered on the point designated by the tablet 103 (hereinafter, "Calculation closed section"
Say. ). Note that the CPU 101 may calculate the actual area of the designated closed section based on the map information and display the calculation result (hereinafter, referred to as “area value”) on the display unit 105. Here, when the operator wants to specify a different area from the area 3201, the operator uses the tablet 103 to specify the different area.
【0208】次いで、CPU101は、タブレット10
3によって別の領域が指定されたか否かを判定する(ス
テップS3309)。ここで、CPU101は、タブレ
ット103によって別の領域が指定されたと判定した場
合は(ステップS3309;YES)、現在表示部10
5に表示されている指定閉区間、算出閉区間、及び面積
値を当該地図上から消去し(ステップS3310)、次
いで、再びステップS3303へ戻る。一方、CPU1
01は、タブレット103によって別の領域が指定され
なかったと判定した場合は(ステップS3309;N
O)、当該処理を終了する。Next, the CPU 101 causes the tablet 10
It is determined whether another area is designated by 3 (step S3309). Here, when the CPU 101 determines that another area is designated by the tablet 103 (step S3309; YES), the current display unit 10 is displayed.
The designated closed section, the calculated closed section, and the area value displayed in 5 are deleted from the map (step S3310), and the process then returns to step S3303. On the other hand, CPU1
01 determines that another area is not designated by the tablet 103 (step S3309; N
O), the process ends.
【0209】以上説明した様に、画像処理システム1の
第15の動作態様によれば、CPU101によって、指
定閉区間に対応する実領域と同一の形状及び面積を有す
る実領域を表す領域が、タブレット103によって指定
された地点を中心として当該地図上に表示されるので、
操作者は、タブレット103を用いて、表示部105に
表示されている地図上において任意の領域を指定すると
共に、任意の地点を指定するだけで、当該地図の歪みな
どを容易に把握することができる。As described above, according to the fifteenth operation mode of the image processing system 1, the CPU 101 causes the area representing the real area having the same shape and area as the real area corresponding to the designated closed section to be a tablet. Since it is displayed on the map centered on the point specified by 103,
Using the tablet 103, the operator can easily grasp the distortion or the like of the map by designating an arbitrary area on the map displayed on the display unit 105 and designating an arbitrary point. it can.
【0210】〔第16の動作態様〕以下、画像処理シス
テム1の第16の動作態様について、図34,35を用
いて説明する。図34は、第16の動作態様を説明する
為のフローチャートである。先ず、CPU101は、通
信ケーブルC及びI/Oポート110を介して、地図を
表す地図データをデジタルカメラ200から取得し、取
得した地図データを表示部105に表示させる(ステッ
プS3501)。これにより、表示部105には、図3
5(a)に示す様な地図が表示される。ここで、操作者
は入力部102の図法表示キーを押下する。[Sixteenth Mode of Operation] Hereinafter, the sixteenth mode of operation of the image processing system 1 will be described with reference to FIGS. FIG. 34 is a flow chart for explaining the 16th operation mode. First, the CPU 101 acquires map data representing a map from the digital camera 200 via the communication cable C and the I / O port 110, and displays the acquired map data on the display unit 105 (step S3501). As a result, the display unit 105 is displayed in FIG.
A map as shown in 5 (a) is displayed. Here, the operator presses the drawing method display key of the input unit 102.
【0211】次いで、CPU101は、図法表示キーの
押下信号を検知すると(ステップS3502)、これを
契機として、ROM108に格納されている図法判別プ
ログラムを実行することにより、取得した画像データの
図法を判別し(ステップS3503)、判別結果を表示
部105に表示させ(ステップS3504)、当該処理
を終了する。これにより、表示部105には、図35
(b)に示す様に当該地図の図法が表示される。Next, when the CPU 101 detects a pressing signal of the projection method display key (step S3502), the CPU 101 executes the projection determination program stored in the ROM 108 to determine the projection method of the acquired image data. Then, the determination result is displayed on the display unit 105 (step S3503) (step S3504), and the process ends. As a result, the display unit 105 is displayed in FIG.
The projection of the map is displayed as shown in (b).
【0212】以上説明した様に、画像処理システム1の
第16の動作態様によれば、CPU101によって、地
図データの図法が判別され、判別結果が表示部105に
表示されるので、操作者は当該地図の図法を容易に知る
事ができる。なお、前述した第14の動作態様或いは第
15の動作態様においては、CPU101がデジタルカ
メラ200から図法データを取得することとしたが、こ
れら第14の動作態様或いは第15の動作態様において
も、以上説明した様にCPU101が図法判別プログラ
ムに基づいて当該地図データの図法を判別することとし
てもよい。As described above, according to the sixteenth operation mode of the image processing system 1, the CPU 101 discriminates the map data projection method and the discrimination result is displayed on the display unit 105. You can easily know the map projection. In the fourteenth operation mode or the fifteenth operation mode described above, the CPU 101 acquires the projection data from the digital camera 200, but in the fourteenth operation mode or the fifteenth operation mode, As described above, the CPU 101 may determine the drawing method of the map data based on the drawing determination program.
【0213】〔第17の動作態様〕以下、画像処理シス
テム1の第17の動作態様について、図36,37を用
いて説明する。図36は、第17の動作態様を説明する
為のフローチャートである。先ず、CPU101は、通
信ケーブルC及びI/Oポート110を介して、地図を
表す地図データを取得し、取得した地図データを表示部
105に表示させる(ステップS3701)。これによ
り、表示部105には、図37(a)に示す様に地図デ
ータが表示される。ここで、操作者は、タブレット10
3を用いて、表示部105によって表示される地図上の
任意の地点(座標)を指定すると共に、入力部102の
メモリ確保キーを押下する。[Seventeenth Operation Mode] Hereinafter, the seventeenth operation mode of the image processing system 1 will be described with reference to FIGS. FIG. 36 is a flow chart for explaining the seventeenth operation mode. First, the CPU 101 acquires map data representing a map via the communication cable C and the I / O port 110, and displays the acquired map data on the display unit 105 (step S3701). As a result, the map data is displayed on the display unit 105 as shown in FIG. Here, the operator uses the tablet 10
3 is used to specify an arbitrary point (coordinates) on the map displayed by the display unit 105, and the memory secure key of the input unit 102 is pressed.
【0214】すると、CPU101は、タブレット10
3によって地点(座標)が指定された事を検知すると共
に(ステップS3702)、メモリ確保キーの押下信号
を検知すると(ステップS3703)、表示部105
に、当該指定された地点の地理情報を入力する為の画面
(以下、「データ入力画面」という。)を表示させる
(ステップS3704)。Then, the CPU 101 causes the tablet 10
When it is detected that the point (coordinates) is designated by 3 (step S3702) and the memory pressing key pressing signal is detected (step S3703), the display unit 105
A screen for inputting geographical information of the designated point (hereinafter referred to as "data input screen") is displayed on the screen (step S3704).
【0215】これにより、表示部105の表示内容は、
図37(b)に示すものへと遷移する。図37(b)に
おいて、符号3601が、タブレット103によって指
定された地点を示す。この様に、指定された地点はマー
キングして表示される。また、符号3602は、データ
入力画面である。このデータ入力画面3602では、当
該都市の都市名を入力する入力項目と、当該都市に関す
る地理情報を入力するための入力項目とが表示されてい
る。ここで、操作者は、入力部102を用いて、各入力
項目に夫々、都市名と地理情報とを入力する。Accordingly, the display contents of the display section 105
A transition is made to that shown in FIG. In FIG. 37B, reference numeral 3601 indicates a point designated by the tablet 103. In this way, the designated point is marked and displayed. Further, reference numeral 3602 is a data input screen. On this data input screen 3602, an input item for inputting the city name of the city and an input item for inputting geographical information on the city are displayed. Here, the operator uses the input unit 102 to input a city name and geographical information into each input item.
【0216】すると、CPU101は、タブレット10
3によって指定された地点と、入力部102によって入
力された地理情報とを対応付けて記憶媒体109aに記
憶させる(ステップS3705)。次いで、CPU10
1は、タブレット103によって他の都市が指定された
か否か、即ち、別メモリを確保するか否かを判定する
(ステップS3706)。具体的には、操作者は、別メ
モリを確保したい場合、即ち、他の都市について地理情
報を入力した場合は、タブレット103を用いて、当該
他の都市を指定する。Then, the CPU 101 causes the tablet 10
The location designated by 3 and the geographical information input by the input unit 102 are stored in the storage medium 109a in association with each other (step S3705). Then, the CPU 10
First, it is determined whether another city is designated by the tablet 103, that is, whether another memory is secured (step S3706). Specifically, when the operator wants to secure another memory, that is, when the geographical information is input for another city, the operator uses the tablet 103 to specify the other city.
【0217】ここで、CPU101は、タブレット10
3によって他の都市が指定されたと判定した場合は(ス
テップS3706;YES)、再びステップS3702
に戻る。一方、CPU101は、タブレット103によ
って他の都市が指定されないと判定した場合は(ステッ
プS3706;NO)、次のステップS3707に進
む。Here, the CPU 101 is the tablet 10
When it is determined that another city is designated by 3 (step S3706; YES), step S3702 is performed again.
Return to. On the other hand, when the CPU 101 determines that another city is not designated by the tablet 103 (step S3706; NO), the CPU 101 proceeds to the next step S3707.
【0218】次いで、CPU101は、ステップS37
07において、データ再編集を行うか否かを判定する。
即ち、CPU101は、タブレット103によって他の
都市が指定されたか否かを判定する(ステップS370
7)。即ち、操作者は、既に地理情報を入力した他の都
市について、当該地理情報を再編集したい場合は、当該
他の都市をタブレット103を用いて再び指定する。Next, the CPU 101 carries out step S37.
At 07, it is determined whether or not to re-edit the data.
That is, the CPU 101 determines whether or not another city is designated by the tablet 103 (step S370).
7). That is, when the operator wants to reedit the geographic information of another city for which geographic information has already been input, the operator again designates the other city using the tablet 103.
【0219】ここで、CPU101は、タブレット10
3によって他の都市が指定されたと判定した場合は(ス
テップS3707;YES)、当該指定された他の都市
に対応する座標にデータ入力画面を表示させる(ステッ
プS3708)。Here, the CPU 101 is the tablet 10
If it is determined that another city is designated by 3 (step S3707; YES), the data input screen is displayed at the coordinates corresponding to the designated other city (step S3708).
【0220】次いで、CPU101は、当該指定された
他の都市にポインタを移動させる(ステップS370
9)。即ち、CPU101は、ステップS3702にお
いて指定された都市のマーキングを消去させ、新たに指
定された他の都市をマーキングして表示させる。ここ
で、操作者は、当該他の都市に対応する座標に表示され
たデータ入力画面に、当該他の都市に関する地理情報を
再び入力し、これを更新すると共に、入力部102の確
定キーを押下する。Next, the CPU 101 moves the pointer to the other designated city (step S370).
9). That is, the CPU 101 erases the marking of the city designated in step S3702 and marks and displays the newly designated other city. Here, the operator re-enters the geographic information about the other city in the data input screen displayed at the coordinates corresponding to the other city, updates the geographical information, and presses the enter key of the input unit 102. To do.
【0221】次いで、CPU101は、確定キーの押下
信号を検知すると(ステップS3710)、入力された
地理情報と、当該他の都市とを対応付けて記憶媒体10
9aに格納し、再びステップS3704に戻る。Next, when the CPU 101 detects a pressing signal of the enter key (step S3710), the input geographical information and the other city are associated with each other and the storage medium 10 is detected.
9a and returns to step S3704 again.
【0222】一方、CPU101は、タブレット103
によって他の都市が指定されなかったと判定した場合は
(ステップS3707;NO)、次のステップS371
1に進む。On the other hand, the CPU 101 uses the tablet 103.
If it is determined that another city has not been designated by (step S3707; NO), the next step S371.
Go to 1.
【0223】次いで、CPU101は、ステップS37
11において、グラフ表示処理を行うか否かを判定する
(ステップS3711)。CPU101は、入力部10
2のグラフ表示キーの押下信号に基づいて、この判定を
行う。ここで、CPU101は、グラフ表示処理を行わ
ないと判定した場合、即ちグラフ表示キーの入力信号を
検知しなかった場合は(ステップS3711;NO)、
後述するステップS3718に進む。Then, the CPU 101 executes step S37.
In 11, it is determined whether or not to perform the graph display process (step S3711). The CPU 101 has an input unit 10
This determination is made based on the depression signal of the graph display key of 2. Here, when the CPU 101 determines not to perform the graph display processing, that is, when the input signal of the graph display key is not detected (step S3711; NO),
The process proceeds to step S3718 described below.
【0224】一方、CPU101は、グラフ表示処理を
行うと判定した場合、即ちグラフ表示キーの入力信号を
検知した場合は(ステップS3711;YES)、次の
ステップS3712に進む。On the other hand, when the CPU 101 determines to execute the graph display processing, that is, when the input signal of the graph display key is detected (step S3711; YES), the CPU 101 proceeds to the next step S3712.
【0225】次いで、CPU101は、ステップS37
12において、グラフの選択を行う(ステップS371
2)。この選択は、入力部102のグラフ選択キーの押
下信号に基づいて行う。即ち、操作者は、所望のグラフ
を、選択キーを用いて選択する事ができる。なお、グラ
フの種類としては、円グラフ、棒グラフ、折れ線グラフ
などがある。ここで、操作者は、グラフ化する地理情報
のデータ名を入力部102を用いて入力すると共に、グ
ラフ実行キーを押下する。Next, the CPU 101 proceeds to step S37.
In 12, the graph is selected (step S371).
2). This selection is performed based on a press signal of the graph selection key of the input unit 102. That is, the operator can select a desired graph using the selection key. The types of graphs include pie graphs, bar graphs, and line graphs. Here, the operator inputs the data name of the geographical information to be graphed using the input unit 102 and presses the graph execution key.
【0226】次いで、CPU101は、記憶媒体109
aに記憶されている地理情報のうち、入力されたデータ
名に対応する地理情報を選択して取得すると共に(ステ
ップS3713)、取得した地理情報に基づいてグラフ
を作成する。ここで作成されるグラフの種類は、ステッ
プS3712において選択したグラフに対応している。Next, the CPU 101 causes the storage medium 109
Of the geographical information stored in a, the geographical information corresponding to the input data name is selected and acquired (step S3713), and a graph is created based on the acquired geographical information. The type of graph created here corresponds to the graph selected in step S3712.
【0227】次いで、CPU101は、グラフ実行キー
の押下信号の検知を契機として(ステップS371
4)、指定された都市に対応する座標位置の近傍に各グ
ラフの表示エリアを確保し、当該確保した領域にステッ
プS3713において作成したグラフを表示させる(ス
テップS3715)。これにより、表示部105の表示
内容は、図37(c)に示すものへと遷移する。図37
において、符号3603は、都市3601に対応する地
理情報が円グラフとして表示されたものである。なお、
座標位置とグラフ表示エリアを同調させるよう、座標位
置を中心に各グラフの表示エリアを確保してもよい。こ
こで、操作者は、円グラフ3603を加工した場合は、
入力部102のグラフ処理キーを押下する。Next, the CPU 101 is triggered by the detection of the depression signal of the graph execution key (step S371).
4) The display area for each graph is secured near the coordinate position corresponding to the designated city, and the graph created in step S3713 is displayed in the secured area (step S3715). As a result, the display content of the display unit 105 transits to that shown in FIG. 37 (c). FIG. 37
In the figure, reference numeral 3603 represents the geographical information corresponding to the city 3601 displayed as a pie chart. In addition,
The display area of each graph may be secured around the coordinate position so that the coordinate position and the graph display area are synchronized with each other. Here, when the operator processes the pie chart 3603,
The graph processing key of the input unit 102 is pressed.
【0228】次いで、CPU101は、グラフ処理キー
が押下されたか否かを判定する(ステップS371
6)。ここで、CPU101は、グラフ処理キーの押下
信号を検知した場合は(ステップS3716;YE
S)、当該押下信号に応じて当該円グラフ3603を加
工し、次のステップS3717に進む。ここで、グラフ
の加工とは、例えば当該グラフをトレースする事や、当
該グラフの一部を拡大表示(ズーム)する事や、その他
各種の演算処理を行う事などを云う(ステップS371
7)。一方、CPU101は、グラフ処理キーの押下信
号を検知しなかった場合は(ステップS3716;N
O)、次のステップS3718に進む。Next, the CPU 101 determines whether or not the graph processing key has been pressed (step S371).
6). Here, when the CPU 101 detects a press signal of the graph processing key (step S3716; YE).
S), the pie chart 3603 is processed according to the pressing signal, and the process proceeds to the next step S3717. Here, the processing of the graph includes, for example, tracing the graph, enlarging (zooming) a part of the graph, and performing other various arithmetic processes (step S371).
7). On the other hand, when the CPU 101 does not detect the pressing signal of the graph processing key (step S3716; N).
O), and proceeds to the next step S3718.
【0229】次いで、CPU101は、入力部の再実行
キーの押下信号に基づいて、以上説明した一連の処理を
再実行するか否かを判定する(ステップS3718)。
ここで、CPU101は、再実行キーの押下信号を検知
した場合は(ステップS3718;YES)、表示部1
05の表示内容をクリアし(ステップS3719)、次
いで再びステップS3701に進む。一方、CPU10
1は、再実行キーの押下信号を検知しなかった場合は
(ステップS3718;NO)、当該処理を終了する。Next, the CPU 101 determines whether or not to re-execute the series of processes described above, based on the depression signal of the re-execution key of the input section (step S3718).
Here, when the CPU 101 detects a signal for pressing the re-execution key (step S3718; YES), the display unit 1
The display content of 05 is cleared (step S3719), and the process proceeds to step S3701 again. On the other hand, the CPU 10
When the signal of pressing the re-execution key is not detected (step S3718; NO), 1 ends the process.
【0230】以上説明した様に、画像処理システム1の
第17の動作態様によれば、記憶媒体109aによっ
て、タブレット103によって指定された地点(都市)
と、入力部102によって入力された当該地点に関する
地理情報とが対応付けられた状態で記憶され、CPU1
01によって、操作者が指定された地点に対応する地理
情報が、記憶媒体109aから取得されて表示部105
上に表示されるので、操作者は、タブレット103を用
いて地図上の任意の地点を指定し、入力部102を用い
て当該地点に関する地理情報を入力しておけば、以後そ
の地点を指定するだけで当該地点の情報を知ることがで
きる。As described above, according to the seventeenth operation mode of the image processing system 1, the point (city) designated by the tablet 103 by the storage medium 109a.
And the geographical information about the point input by the input unit 102 are stored in association with each other.
By 01, the geographical information corresponding to the point designated by the operator is acquired from the storage medium 109a and displayed on the display unit 105.
Since it is displayed above, the operator designates an arbitrary point on the map using the tablet 103, inputs geographical information on the point using the input unit 102, and thereafter designates the point. You can know the information of the point only.
【0231】以上、本発明の好適な実施の形態について
説明したが、本発明の技術的範囲はこれに限られない。
例えば、デジタルカメラ200は、超音波によって被写
体(オブジェクト)までの距離を測定することとした
が、レーザ光線を用いて三角測量の原理で被写体までの
距離を測定する所謂レンジファインダを搭載することと
してもよい。また、超音波に代えて赤外線などを用いる
こととしてもよい。また、デジタルカメラ200から電
卓100に送信される画像データはJPEG(Joint Ph
otographic coding Experts Group)圧縮されたもので
あってもよい。この様にすると、画像データの通信時間
を短縮できる。また、画像処理装置を電卓100によっ
て実現したが、画像処理装置はパーソナルコンピュータ
によっても実現できることは云うまでもない。この場合
は、例えばマウス等によって、画像中の任意の点を指定
することができる。The preferred embodiment of the present invention has been described above, but the technical scope of the present invention is not limited to this.
For example, the digital camera 200 measures the distance to the subject (object) by ultrasonic waves, but it is assumed that the digital camera 200 is equipped with a so-called range finder that measures the distance to the subject on the principle of triangulation using a laser beam. Good. In addition, infrared rays or the like may be used instead of ultrasonic waves. Further, the image data transmitted from the digital camera 200 to the calculator 100 is JPEG (Joint Ph
otographic coding Experts Group) It may be compressed. In this way, the communication time of image data can be shortened. Further, although the image processing apparatus is realized by the calculator 100, it goes without saying that the image processing apparatus can also be realized by a personal computer. In this case, an arbitrary point in the image can be designated with a mouse or the like.
【0232】[0232]
【発明の効果】請求項1記載の発明によれば、画像デー
タ取得手段によって画像データが取得され、表示手段に
よって、画像データ取得手段によって取得された画像デ
ータが表示され、算出手段によって、基準寸法入力手段
によって入力された基準寸法に基づいて、指定手段によ
って指定された始点から終点までの距離が算出され、第
1の表示制御手段によって、算出手段の算出結果が表示
手段に表示されるので、操作者は、基準寸法入力手段を
用いて、表示手段によって表示される画像中の2点間の
距離を指定し、当該2点間の距離を基準寸法として入力
すると共に、指定手段を用いて、表示手段によって表示
される画像中において任意の始点と終点とを指定するだ
けで、当該始点と終点との距離を容易に知る事ができ
る。即ち、どのような倍率で表示された画像であって
も、実際の寸法、距離を知ることができる。According to the first aspect of the invention, the image data is acquired by the image data acquisition means, the image data acquired by the image data acquisition means is displayed by the display means, and the reference dimension is calculated by the calculation means. Since the distance from the start point to the end point designated by the designating means is calculated based on the reference dimension input by the inputting means, and the calculation result of the calculating means is displayed on the display means by the first display control means. The operator uses the reference dimension input means to specify the distance between two points in the image displayed by the display means, inputs the distance between the two points as the reference dimension, and uses the specification means to The distance between the start point and the end point can be easily known only by designating arbitrary start points and end points in the image displayed by the display means. That is, it is possible to know the actual size and distance of an image displayed at any magnification.
【0233】請求項2記載の発明によれば、操作者がオ
ブジェクト指定手段を用いて、画像データ取得手段によ
って取得された複数種の画像データ中に共通して含まれ
るオブジェクトを指定すると、第2の表示制御手段によ
って、オブジェクト指定手段によって指定された各オブ
ジェクトが同一サイズで表示されるよう複数種の画像デ
ータの各々がスケール変換されて表示手段に表示される
ので、別々に取り込んだ複数の画像のサイズを比較する
事が容易になる。即ち、共通のオブジェクトのサイズに
基づき、各々の画像のサイズを相対的に知ることがで
き、複数の画像についてそれぞれの画像オブジェクトの
サイズを理解することができる。According to the second aspect of the invention, if the operator uses the object designating means to designate an object commonly included in the plurality of types of image data acquired by the image data acquiring means, the second By the display control means, each of the plurality of types of image data is scale-converted and displayed on the display means so that each object designated by the object designating means is displayed in the same size. It will be easier to compare the sizes of. That is, the size of each image can be relatively known based on the size of the common object, and the size of each image object can be understood for a plurality of images.
【0234】請求項3記載の発明によれば、奥行距離デ
ータ取得手段によって、表示手段によって表示される画
像中のオブジェクトまでの奥行方向の距離を表す奥行距
離データが取得され、実面積算出手段によって、奥行距
離データに基づいて画像の表示範囲の実面積が算出され
るので、当該画像中に含まれるオブジェクトの実際の大
きさを把握できるようになる。従って、オブジェクトに
ついての適切なサイズ情報を得ることができる。According to the third aspect of the invention, the depth distance data acquisition means acquires the depth distance data representing the distance in the depth direction to the object in the image displayed by the display means, and the real area calculation means. Since the actual area of the display range of the image is calculated based on the depth distance data, the actual size of the object included in the image can be grasped. Therefore, it is possible to obtain appropriate size information about the object.
【0235】請求項4記載の発明によれば、表示サイズ
算出手段によって、実面積算出手段によって算出された
実面積に基づいて、当該オブジェクトの画像データの表
示サイズが算出され、第3の表示制御手段によって、表
示サイズ算出手段によって算出された表示サイズで以っ
て当該オブジェクトの画像データが表示手段に表示され
るので、当該画像を最適なサイズで表示することができ
る。従って、よりオブジェクトについての適切な情報を
得ることができる。According to the fourth aspect of the present invention, the display size calculation means calculates the display size of the image data of the object based on the real area calculated by the real area calculation means, and the third display control is performed. Since the image data of the object is displayed on the display unit by the display size calculated by the display size calculation unit, the image can be displayed in the optimum size. Therefore, more appropriate information about the object can be obtained.
【0236】請求項5記載の発明によれば、オブジェク
ト検出手段によって、表示手段によって表示される画像
中のオブジェクトが検出され、第4の表示制御手段によ
って、オブジェクト検出手段によって検出されたオブジ
ェクトの複数の特徴点がマーキングされて当該画像デー
タと共に表示手段に表示されるので、操作者は所望の2
つの特徴点を指定手段を用いて指定することにより、各
オブジェクトの特徴的な点間の距離を容易に知ることが
できる。従って、より画像オブジェクトのサイズを理解
しやすくなる。According to the fifth aspect of the invention, the object detecting means detects the object in the image displayed by the display means, and the fourth display control means detects a plurality of objects detected by the object detecting means. Since the feature points are marked and displayed on the display means together with the image data, the operator can select the desired 2
By designating one feature point using the designating means, the distance between the feature points of each object can be easily known. Therefore, it becomes easier to understand the size of the image object.
【0237】請求項6記載の発明によれば、第5の表示
制御手段によって、基準寸法入力手段によって入力され
た基準寸法に基づく目盛りが画像データと共に表示手段
に表示されるので、当該画像データ中に含まれる全ての
オブジェクトのサイズを知る事ができる。従って、画像
オブジェクトに対し寸法区間を指定することなく、表示
される目盛りにより、画像オブジェクトの任意の箇所の
寸法、サイズを知ることができる。According to the sixth aspect of the present invention, the scale based on the reference dimension input by the reference dimension inputting means is displayed on the display means together with the image data by the fifth display control means. You can find out the size of all objects contained in. Therefore, it is possible to know the size and size of an arbitrary part of the image object from the displayed scale without specifying the size section for the image object.
【0238】請求項7記載の発明によれば、第6の表示
制御手段によって、奥行距離データ取得手段によって取
得された奥行距離データに基づいて画像上に奥行き空間
が表示されるので、画像の奥行を把握する事ができる。
従って、個々の画像オブジェクトを奥行き空間表示によ
り立体的に捉えることができるので、その立体視により
平面的にはわかりにくかった画像オブジェクトのサイズ
が相対的に理解しやすくなる。According to the seventh aspect of the present invention, the sixth display control means displays the depth space on the image based on the depth distance data acquired by the depth distance data acquiring means. Can be grasped.
Therefore, since the individual image objects can be stereoscopically captured by the depth space display, the size of the image object, which is difficult to understand in a plane due to the stereoscopic view, is relatively easy to understand.
【0239】請求項8記載の発明によれば、第7の表示
制御手段によって、各画像データの表示サイズの比が当
該各画像の実面積の比と一致する様に、これらの画像デ
ータがスケール変換されて前記表示手段に一覧表示され
るので、複数の画像の大きさを、オブジェクトの実サイ
ズの比率に応じて一覧表示して比較できる。従って、複
数の画像を個々の画像として観察していた場合には理解
しにくかった画像オブジェクトの実際のサイズ関係につ
いて、理解しやすくなる。According to the eighth aspect of the present invention, the seventh display control means scales these image data so that the display size ratio of each image data matches the actual area ratio of each image. Since the converted images are displayed as a list on the display unit, the sizes of the plurality of images can be displayed as a list and compared according to the ratio of the actual size of the object. Therefore, it becomes easy to understand the actual size relationship of the image object, which is difficult to understand when a plurality of images are observed as individual images.
【0240】請求項9記載の発明によれば、閉区間面積
算出手段によって、閉区間指定手段によって指定された
閉区間の面積が、実面積算出手段によって取得された当
該画像の実面積に基づいて算出され、第8の表示制御手
段によって、閉区間面積算出手段の算出結果が表示手段
に表示されるので、画像中に含まれるオブジェクトの任
意の一部分の実面積を知ることができる。従って、閉区
間として指定すれば、画像オブジェクトや実面積を知り
たい部分の大きさ、形状によらず、実面積が算出され、
知ることができる。According to the invention of claim 9, the area of the closed section designated by the closed section designating unit by the closed section area calculating unit is based on the real area of the image obtained by the real area calculating unit. The calculated result of the closed section area calculation means is displayed on the display means by the eighth display control means, so that the actual area of an arbitrary part of the object included in the image can be known. Therefore, if you specify it as a closed section, the actual area is calculated regardless of the size and shape of the image object or the part whose actual area you want to know.
I can know.
【0241】請求項10記載の発明によれば、第9の表
示制御手段によって、表示手段に表示される画像の縦方
向に延びる第1軸と、当該画像の横方向に延びる第2軸
と、当該画像の奥行き方向に延びる第3軸とを含み、こ
れら第1軸、第2軸、第3軸の長さの比が、それぞれ当
該画像全体の縦方向、横方向、奥行き方向の長さの比に
一致する座標系が、当該画像データと共に前記表示手段
に表示され、第10の表示制御手段によって、伸縮手段
によって第1軸が伸縮された場合には、当該伸縮に伴っ
て当該画像の縦方向の表示範囲が伸縮され、伸縮手段に
よって第2軸が伸縮された場合には、当該伸縮に伴って
当該画像の横方向の表示範囲が伸縮され、伸縮手段によ
って第3軸が伸縮された場合には、当該伸縮に伴って当
該画像の奥行き方向の表示範囲が伸縮されるので、画像
の縦、横、奥行の各方向の縮尺を容易に変更することが
でき、そのように画像が表示される立体空間を変化させ
ることで、画像の立体的状態が理解しやすくなる。さら
に、立体空間の変化とともに個々の画像オブジェクトの
サイズが変更され表示されるので、個々の画像オブジェ
クトの相対的なサイズを理解しやすくなる。従って、よ
りオブジェクトについての適切な情報を得ることができ
る。According to the tenth aspect of the present invention, by the ninth display control means, a first axis extending in the vertical direction of the image displayed on the display means, and a second axis extending in the horizontal direction of the image, A third axis extending in the depth direction of the image, and the ratio of the lengths of the first axis, the second axis, and the third axis is the length of the entire image in the vertical direction, the horizontal direction, and the depth direction. A coordinate system that matches the ratio is displayed on the display unit together with the image data, and when the tenth display control unit expands and contracts the first axis by the expansion and contraction unit, the longitudinal direction of the image is expanded and contracted. When the display range in the direction is expanded / contracted and the second axis is expanded / contracted by the expansion / contraction means, the horizontal display range of the image is expanded / contracted by the expansion / contraction, and the third axis is expanded / contracted by the expansion / contraction means. Is the depth direction of the image due to the expansion and contraction. Since the display range of is expanded and contracted, it is possible to easily change the scale of the image in the vertical, horizontal, and depth directions, and by changing the three-dimensional space in which the image is displayed, the stereoscopic image of the image can be changed. The condition is easier to understand. Furthermore, since the size of each image object is changed and displayed as the three-dimensional space changes, it becomes easier to understand the relative size of each image object. Therefore, more appropriate information about the object can be obtained.
【0242】請求項11記載の発明によれば、輪郭抽出
手段によって、オブジェクト検出手段によって検出され
た各オブジェクトの輪郭が抽出され、第11の表示制御
手段によって、輪郭抽出手段によって抽出された各オブ
ジェクトの輪郭が、実面積算出手段の算出結果に基づい
て、当該各オブジェクトの実寸比と一致するよう表示手
段に重ねて表示されるので、各画像中に含まれるオブジ
ェクトの実際のサイズに対応した相対比を容易に知るこ
とができる。特に、輪郭部分での比較を行うことによ
り、重なり位置が明確になるので比較を行いやすい。According to the eleventh aspect of the present invention, the contour extracting means extracts the contours of the respective objects detected by the object detecting means, and the eleventh display control means extracts the respective objects extracted by the contour extracting means. Based on the calculation result of the actual area calculation means, the outline is displayed so as to be overlapped with the display means so as to match the actual size ratio of each object. The ratio can be easily known. In particular, when the comparison is performed in the contour portion, the overlapping position becomes clear, so that the comparison can be easily performed.
【0243】請求項12記載の発明によれば、色彩比算
出手段によって、表示手段に表示される画像に含まれる
各色彩の含有比が算出され、第12の表示制御手段によ
って、色彩比算出手段の算出結果が、各色彩別に表示手
段に表示されるので、画像に含まれる各色彩の含有比を
定量的に把握できる様になる。従って、色彩が異なる閉
区間として画像オブジェクトやオブジェクト部分を表示
することにより、個々の閉区間の構成比率を求めること
ができ、より画像についての理解を深めることができ
る。According to the twelfth aspect of the present invention, the color ratio calculation means calculates the content ratio of each color included in the image displayed on the display means, and the twelfth display control means calculates the color ratio calculation means. Since the calculation result of is displayed on the display means for each color, the content ratio of each color included in the image can be grasped quantitatively. Therefore, by displaying an image object or an object part as a closed section having different colors, the composition ratio of each closed section can be obtained, and the image can be better understood.
【0244】請求項13記載の発明によれば、地図デー
タ取得手段によって、地図を表す地図データが取得さ
れ、図法データ取得手段によって、地図データが表す地
図の図法に関する図法データが取得され、縮尺データ取
得手段によって、地図データが表す地図の縮尺を示す縮
尺データが取得され、表示手段によって、地図データ取
得手段によって取得された地図データが表示され、実距
離算出手段によって、地点指定手段によって指定された
2地点間の実距離が、図法データ取得手段によって取得
された図法データ及び縮尺データ取得手段によって取得
された縮尺データに基づいて算出され、第1の表示制御
手段によって、実距離算出手段の算出結果が表示手段に
表示されるので、操作者は、第1の地点指定手段を用い
て、表示手段によって表示される地図中の2地点を指定
するだけで、当該2点間の実距離を知ることができる。
従って、地図の図法や縮尺によらず、地図中の2点間の
実距離を求めることができる。According to the thirteenth aspect of the present invention, the map data acquisition means acquires the map data representing the map, and the projection data acquisition means acquires the projection data relating to the map projection represented by the map data, and the scale data. The scale data indicating the scale of the map represented by the map data is acquired by the acquisition means, the map data acquired by the map data acquisition means is displayed by the display means, and the actual distance calculation means specifies the point specification means. The actual distance between the two points is calculated based on the projection data acquired by the projection data acquisition means and the scale data acquired by the scale data acquisition means, and the calculation result of the actual distance calculation means by the first display control means. Is displayed on the display means, the operator uses the first point designating means to display on the display means. Only specifies the two points in the map to be displayed, it is possible to know the actual distance between the two points.
Therefore, the actual distance between two points on the map can be obtained regardless of the map projection and scale.
【0245】請求項14記載の発明によれば、第2の表
示制御手段によって、領域指定手段によって指定された
地図上の領域に対応する実領域と同一の形状及び面積を
有する実領域を表す領域が、第2の地点指定手段によっ
て指定された地点を中心として当該地図上に表示され
る。よって、操作者は領域指定手段を用いて、表示手段
によって表示される地図上において任意の領域を指定
し、第2の地点指定手段を用いて、表示手段によって表
示される地図上において任意の地点を指定するだけで、
地図の図法や縮尺による実寸との歪みが考慮された表示
が行われるので、当該地図の歪みなどを容易に把握する
ことができる。According to the fourteenth aspect of the present invention, an area representing a real area having the same shape and area as the real area corresponding to the area on the map designated by the area designating means by the second display control means. Is displayed on the map centering on the point designated by the second point designating means. Therefore, the operator uses the area designating means to designate an arbitrary area on the map displayed by the display means, and uses the second location designating means to specify an arbitrary location on the map displayed by the display means. Just specify
Since the display is performed in consideration of the distortion of the map drawing from the actual size due to the projection method and scale, it is possible to easily grasp the distortion of the map.
【0246】請求項15記載の発明によれば、図法判別
手段によって、地図データ取得手段によって取得された
地図データに基づいて、当該地図の図法が判別され、図
法データ取得手段によって、図法判別手段の判別結果が
図法データとして取得されるので、操作者は当該地図の
図法を知る事ができる。従って、地図の図法を判別する
ための知識(図法毎の補正方法等)がなく、図法の特徴
を知らない場合でも、当該地図の図法を知ることができ
る。According to the fifteenth aspect of the present invention, the projection determining means determines the projection of the map based on the map data acquired by the map data acquiring means, and the projection data acquiring means determines the projection determining means. Since the determination result is acquired as the projection data, the operator can know the projection of the map. Therefore, even if there is no knowledge (a correction method or the like for each drawing method) for determining the drawing method of the map and the feature of the drawing method is not known, the drawing method of the map can be known.
【0247】請求項16記載の発明によれば、記憶手段
によって、第3の地点指定手段によって指定された地点
と、地理情報入力手段によって入力された当該地点に関
する地理情報とが対応付けられた状態で記憶され、第3
の表示制御手段によって、指定された地点に対応する地
理情報が、記憶手段から取得されて表示手段上に表示さ
れるので、操作者は、第3の地点指定手段を用いて、表
示手段によって表示される地図上の任意の地点を指定
し、地理情報入力手段を用いて、当該地点に関する地理
情報を入力しておけば、以後その地点を指定するだけで
当該地点の情報を知ることができる。従って、操作者が
必要とする情報が入力された地図としての、カスタマイ
ズな地図を作製することができる。According to the sixteenth aspect of the invention, the storage means associates the spot designated by the third spot designating means with the geographical information relating to the spot input by the geographical information inputting means. Stored in the third
The display control means acquires the geographical information corresponding to the designated point from the storage means and displays it on the display means. Therefore, the operator uses the third point designation means to display the geographical information on the display means. By designating an arbitrary point on the map and using the geographical information input means to input the geographical information on the point, the information on the point can be known only by designating the point thereafter. Therefore, it is possible to create a customized map as a map in which the information required by the operator is input.
【0248】請求項17記載の発明によれば、奥行距離
データ生成手段によって、この撮影装置から被写体まで
の距離が計測され、当該計測結果を表す奥行距離データ
が生成され、記憶手段によって、被写体の画像データ
と、奥行距離データ生成手段によって生成された当該被
写体までの距離を表す前記奥行距離データと、が対応付
けられて記憶されるので、各々の画像データが表す画像
の実際の大きさや当該画像中に含まれるオブジェクトの
サイズなどを、当該画像データに対応する奥行距離デー
タに基づいて把握できるようになる。従って、オブジェ
クトについての適切なサイズ情報を得ることができる。According to the seventeenth aspect of the invention, the depth distance data generating means measures the distance from the photographing device to the object, the depth distance data representing the measurement result is generated, and the storing means measures the object. Since the image data and the depth distance data representing the distance to the subject generated by the depth distance data generating means are stored in association with each other, the actual size of the image represented by each image data and the image concerned. It becomes possible to grasp the size of the object contained therein based on the depth distance data corresponding to the image data. Therefore, it is possible to obtain appropriate size information about the object.
【0249】請求項18記載の発明によれば、画像デー
タ取得手段によって、撮影手段の記憶手段に記憶されて
いる画像データが、通信手段を介して取得され、距離デ
ータ取得手段によって、撮影手段の記憶手段に記憶され
ている画像データに対応付けられている奥行長さデータ
が、通信手段を介して取得されるので、各々の画像デー
タが表す画像の実際の大きさや当該画像中に含まれるオ
ブジェクトのサイズなどを、当該画像データに対応する
奥行距離データに基づいて把握できるようになる。According to the eighteenth aspect of the present invention, the image data acquisition means acquires the image data stored in the storage means of the imaging means via the communication means, and the distance data acquisition means acquires the image data of the imaging means. Since the depth length data associated with the image data stored in the storage means is acquired via the communication means, the actual size of the image represented by each image data and the objects included in the image. It is possible to grasp the size and the like based on the depth distance data corresponding to the image data.
【0250】請求項19記載のプログラムを実行するコ
ンピュータによれば、画像データが取得され、取得され
た前記画像データが表示手段に表示され、表示された画
像中における指定された2点間の距離が基準寸法として
取得され、表示された画像中における指定された始点か
ら終点までの距離が、取得された基準寸法に基づいて算
出されるので、操作者は、表示手段によって表示される
画像中の2点を指定すると共に、当該2点間の距離を基
準寸法として入力し、表示手段によって表示される画像
中において任意の始点と終点とを指定するだけで、当該
始点と終点との距離を容易に知る事ができる。According to the computer executing the program of claim 19, image data is acquired, the acquired image data is displayed on the display means, and a distance between two designated points in the displayed image is displayed. Is obtained as the reference dimension, and the distance from the specified start point to the end point in the displayed image is calculated based on the obtained reference dimension. The distance between the start point and the end point can be easily set by designating two points, inputting the distance between the two points as a reference dimension, and designating an arbitrary start point and end point in the image displayed by the display means. You can get to know.
【0251】請求項20記載のプログラムを実行するコ
ンピュータよれば、地図を表す地図データが取得され、
前記地図データが表す地図の図法に関する図法データが
取得され、前記地図データが表す地図の縮尺を示す縮尺
データが取得され、取得した前記地図データが表示手段
に表示され、前記表示手段によって表示された地図上に
おける指定された2地点間の実距離が、取得された前記
図法データ及び前記縮尺データに基づいて算出され、そ
の算出結果が前記表示手段に表示させるので、操作者
は、表示手段によって表示される地図中の2地点を指定
するだけで、当該2点間の実距離を知ることができる。According to the computer for executing the program according to claim 20, map data representing a map is acquired,
The projection data relating to the projection of the map represented by the map data is acquired, the scale data indicating the scale of the map represented by the map data is acquired, the acquired map data is displayed on the display means, and displayed by the display means. The actual distance between the two designated points on the map is calculated based on the acquired projection data and scale data, and the calculation result is displayed on the display means, so that the operator can display it by the display means. The actual distance between the two points can be known only by designating two points on the map.
【図1】実施の形態によるが画像処理システム1構成を
示す図である。FIG. 1 is a diagram showing a configuration of an image processing system 1 according to an embodiment.
【図2】電卓の内部構成を示すブロック図である。FIG. 2 is a block diagram showing an internal configuration of a calculator.
【図3】デジタルカメラの内部構成を示すブロック図で
ある。FIG. 3 is a block diagram showing an internal configuration of a digital camera.
【図4】画像処理システムの第1の動作態様を説明する
為のフローチャートである。FIG. 4 is a flowchart for explaining a first operation mode of the image processing system.
【図5】画像処理システムの第1の動作態様を説明する
為の図である。FIG. 5 is a diagram for explaining a first operation mode of the image processing system.
【図6】画像処理システムの第2の動作態様を説明する
為のフローチャートである。FIG. 6 is a flowchart for explaining a second operation mode of the image processing system.
【図7】画像処理システムの第2の動作態様を説明する
為の図である。FIG. 7 is a diagram for explaining a second operation mode of the image processing system.
【図8】画像処理システムの第3の動作態様を説明する
為のフローチャートである。FIG. 8 is a flowchart for explaining a third operation mode of the image processing system.
【図9】画像処理システムの第3の動作態様を説明する
為の図である。FIG. 9 is a diagram for explaining a third operation mode of the image processing system.
【図10】画像処理システムの第4の動作態様を説明す
る為のフローチャートである。FIG. 10 is a flowchart illustrating a fourth operation mode of the image processing system.
【図11】画像処理システムの第4の動作態様を説明す
る為の図である。FIG. 11 is a diagram for explaining a fourth operation mode of the image processing system.
【図12】画像処理システムの第5の動作態様を説明す
る為のフローチャートである。FIG. 12 is a flowchart illustrating a fifth operation mode of the image processing system.
【図13】画像処理システムの第5の動作態様を説明す
る為の図である。FIG. 13 is a diagram for explaining a fifth operation mode of the image processing system.
【図14】画像処理システムの第6の動作態様を説明す
る為のフローチャートである。FIG. 14 is a flowchart illustrating a sixth operation mode of the image processing system.
【図15】画像処理システムの第6の動作態様を説明す
る為の図である。FIG. 15 is a diagram for explaining a sixth operation mode of the image processing system.
【図16】画像処理システムの第7の動作態様を説明す
る為のフローチャートである。FIG. 16 is a flowchart illustrating a seventh operation mode of the image processing system.
【図17】画像処理システムの第7の動作態様を説明す
る為の図である。FIG. 17 is a diagram for explaining a seventh operation mode of the image processing system.
【図18】画像処理システムの第8の動作態様を説明す
る為のフローチャートである。FIG. 18 is a flowchart for explaining an eighth operation mode of the image processing system.
【図19】画像処理システムの第8の動作態様を説明す
る為の図である。FIG. 19 is a diagram for explaining an eighth operation mode of the image processing system.
【図20】画像処理システムの第9の動作態様を説明す
る為のフローチャートである。FIG. 20 is a flowchart illustrating a ninth operation mode of the image processing system.
【図21】画像処理システムの第9の動作態様を説明す
る為の図である。FIG. 21 is a diagram for explaining a ninth operation mode of the image processing system.
【図22】画像処理システムの第10の動作態様を説明
する為のフローチャートである。FIG. 22 is a flowchart for explaining a tenth operation mode of the image processing system.
【図23】画像処理システムの第10の動作態様を説明
する為の図である。FIG. 23 is a diagram for explaining a tenth operation mode of the image processing system.
【図24】画像処理システムの第11の動作態様を説明
する為のフローチャートである。FIG. 24 is a flowchart illustrating an eleventh operation mode of the image processing system.
【図25】画像処理システムの第11の動作態様を説明
する為の図である。FIG. 25 is a diagram for explaining the eleventh operation mode of the image processing system.
【図26】画像処理システムの第12の動作態様を説明
する為のフローチャートである。FIG. 26 is a flowchart for explaining a twelfth operation mode of the image processing system.
【図27】画像処理システムの第12の動作態様を説明
する為の図である。FIG. 27 is a diagram for explaining a twelfth operation mode of the image processing system.
【図28】画像処理システムの第13の動作態様を説明
する為のフローチャートである。FIG. 28 is a flow chart for explaining a thirteenth operation mode of the image processing system.
【図29】画像処理システムの第13の動作態様を説明
する為の図である。FIG. 29 is a diagram for explaining the thirteenth operation mode of the image processing system.
【図30】画像処理システムの第14の動作態様を説明
する為のフローチャートである。FIG. 30 is a flowchart illustrating a fourteenth operation mode of the image processing system.
【図31】画像処理システムの第14の動作態様を説明
する為の図である。FIG. 31 is a diagram for explaining a fourteenth operation mode of the image processing system.
【図32】画像処理システムの第15の動作態様を説明
する為のフローチャートである。FIG. 32 is a flow chart for explaining a fifteenth operation mode of the image processing system.
【図33】画像処理システムの第15の動作態様を説明
する為の図である。FIG. 33 is a diagram for explaining the fifteenth operation mode of the image processing system.
【図34】画像処理システムの第16の動作態様を説明
する為のフローチャートである。FIG. 34 is a flowchart for explaining a sixteenth operation mode of the image processing system.
【図35】画像処理システムの第16の動作態様を説明
する為の図である。FIG. 35 is a diagram for explaining the sixteenth operation mode of the image processing system.
【図36】画像処理システムの第17の動作態様を説明
する為のフローチャートである。FIG. 36 is a flowchart for explaining a seventeenth operation mode of the image processing system.
【図37】画像処理システムの第17の動作態様を説明
する為の図である。FIG. 37 is a diagram for explaining the seventeenth operation mode of the image processing system.
1 画像処理システム 100 電卓(画像処理装置) 101 CPU 102 入力部 103 タブレット 105 表示部(表示手段) 107 RAM 108 ROM 109a 記憶媒体 110 I/Oポート 200 デジタルカメラ(撮影装置) 211 キー入力部 212 CPU 219 超音波送波回路 220 超音波受波回路 C 通信ケーブル(通信手段) 1 Image processing system 100 calculator (image processing device) 101 CPU 102 Input section 103 tablets 105 display unit (display means) 107 RAM 108 ROM 109a storage medium 110 I / O port 200 Digital camera (photographing device) 211 Key input section 212 CPU 219 Ultrasonic wave transmission circuit 220 Ultrasonic wave receiving circuit C communication cable (communication means)
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/00 100 G06T 7/00 100A 5C076 7/60 250 7/60 250Z 5L096 11/60 300 11/60 300 G09B 5/02 G09B 5/02 29/00 29/00 A H04N 1/387 H04N 1/387 1/393 1/393 Fターム(参考) 2C028 AA00 AA08 BA04 BA05 BB04 BC05 BD03 CA06 CA11 CA12 2C032 HB03 HB05 HC13 HC21 HC27 2F065 AA01 AA14 AA20 AA58 BB05 CC14 CC16 DD06 FF04 FF26 FF67 JJ03 JJ26 QQ24 QQ25 QQ28 RR05 RR09 5B050 AA06 AA09 BA06 BA11 BA13 BA15 BA17 CA07 CA08 DA04 DA10 EA05 EA06 EA07 EA08 EA12 EA18 EA19 FA02 FA05 FA09 FA14 FA17 5B057 AA13 AA20 BA24 BA26 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CD05 CE08 DA08 DA16 DA17 DB02 DB06 DB09 DC04 DC05 DC06 DC07 DC16 DC25 DC33 5C076 AA16 AA19 AA21 AA22 CA02 CB05 5L096 AA02 AA06 BA08 CA02 CA22 CA24 DA02 FA06 FA13 FA59 FA60 FA66 GA38 GA41 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 identification code FI theme code (reference) G06T 7/00 100 G06T 7/00 100A 5C076 7/60 250 7/60 250Z 5L096 11/60 300 11/60 300 G09B 5/02 G09B 5/02 29/00 29/00 A H04N 1/387 H04N 1/387 1/393 1/393 F term (reference) 2C028 AA00 AA08 BA04 BA05 BB04 BC05 BD03 CA06 CA11 CA12 2C032 HB03 HB05 HC13 HC21 HC27 2F065 AA01 AA14 AA20 AA58 BB05 CC14 CC16 DD06 FF04 FF26 FF67 JJ03 JJ26 QQ24 QQ25 QQ28 RR05 RR09 5B050 AA06 AA09 BA06 BA11 BA13 BA15 FA20 FA18 AA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA FAA EAJ of AA CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CD05 CE08 DA08 DA16 DA17 DB02 DB06 DB09 DC04 DC05 DC06 DC07 DC16 DC25 DC33 5C076 AA16 AA19 AA 21 AA22 CA02 CB05 5L096 AA02 AA06 BA08 CA02 CA22 CA24 DA02 FA06 FA13 FA59 FA60 FA66 GA38 GA41
Claims (20)
と、 前記画像データ取得手段によって取得された前記画像デ
ータを表示部に表示させる第1の表示制御手段と、 この第1の表示制御手段の制御によって表示された画像
中の2点間の距離を指定し、当該2点間の距離を基準寸
法として入力する基準寸法入力手段と、 前記第1の表示制御手段の制御によって表示された画像
中において任意の始点と終点とを指定する指定手段と、 前記基準寸法入力手段によって入力された基準寸法に基
づいて、前記指定手段によって指定された前記始点から
前記終点までの距離を算出し、この算出結果を前記表示
部に表示させる第2の表示制御手段と、 を備えることを特徴とする画像処理装置。1. An image data acquisition means for acquiring image data, a first display control means for displaying the image data acquired by the image data acquisition means on a display section, and a first display control means of the first display control means. A reference dimension input means for designating a distance between two points in the image displayed by the control and inputting the distance between the two points as a reference dimension; and an image displayed by the control of the first display control means. In the specification means for designating an arbitrary start point and end point, and based on the reference dimension input by the reference dimension input means, the distance from the start point designated by the designation means to the end point is calculated, and the calculation is performed. An image processing apparatus comprising: a second display control unit that displays the result on the display unit.
像データ中に共通して含まれるオブジェクトを指定する
オブジェクト指定手段と、 前記オブジェクト指定手段によって指定された前記各オ
ブジェクトが同一サイズで表示されるよう前記複数種の
画像データの各々をスケール変換して前記表示手段に表
示させる変換表示制御手段と、 を備えることを特徴とする画像処理装置。2. The image processing apparatus according to claim 1, wherein an object designating unit that designates an object commonly included in the plurality of types of image data acquired by the image data acquiring unit, and the object designating unit. An image processing apparatus, comprising: a conversion display control unit that scale-converts each of the plurality of types of image data so that the designated objects are displayed in the same size, and displays the scale on the display unit.
て、 前記表示手段によって表示される画像中のオブジェクト
までの奥行方向の距離を表す奥行距離データを取得する
奥行距離データ取得手段と、 前記奥行距離データ取得手段によって取得された前記奥
行距離データに基づいて前記画像の表示範囲の実面積を
算出する実面積算出手段と、 を備えることを特徴とする画像処理装置。3. The image processing apparatus according to claim 1, further comprising: depth distance data acquisition means for acquiring depth distance data representing a distance in a depth direction to an object in an image displayed by the display means, An image processing apparatus comprising: an actual area calculation unit that calculates an actual area of a display range of the image based on the depth distance data acquired by the depth distance data acquisition unit.
づいて、当該オブジェクトの画像データの表示サイズを
算出する表示サイズ算出手段と、 前記表示サイズ算出手段によって算出された前記表示サ
イズで以って当該オブジェクトの画像データを前記表示
手段に表示させる第3の表示制御手段と、 を備えることを特徴とする画像処理装置。4. The image processing apparatus according to claim 3, wherein the display size calculation unit calculates a display size of the image data of the object based on the real area calculated by the real area calculation unit. An image processing apparatus comprising: a third display control unit that causes the display unit to display image data of the object with the display size calculated by the size calculation unit.
置において、 前記表示手段によって表示される画像中のオブジェクト
を検出するオブジェクト検出手段と、 前記オブジェクト検出手段によって検出された前記オブ
ジェクトの複数の特徴点をマーキングして当該画像デー
タと共に前記表示手段に表示させる第4の表示制御手段
と、 を備えることを特徴とする画像処理装置。5. The image processing apparatus according to claim 1, wherein an object detection unit that detects an object in an image displayed by the display unit, and the object detected by the object detection unit. A fourth display control means for marking a plurality of characteristic points of the above and displaying the image data together with the image data on the display means.
置において、 前記基準寸法入力手段によって入力された前記基準寸法
に基づく目盛りを前記画像データと共に前記表示手段に
表示させる第5の表示制御手段を備えることを特徴とす
る画像処理装置。6. The image processing apparatus according to claim 1, wherein a scale based on the reference dimension input by the reference dimension input means is displayed on the display means together with the image data. An image processing apparatus comprising display control means.
置において、 前記奥行距離データ取得手段によって取得された前記奥
行距離データに基づいて前記画像上に奥行き空間を表す
表示を行う第6の表示制御手段、 を備えることを特徴とする画像処理装置。7. The image processing apparatus according to claim 3, wherein a display indicating a depth space is displayed on the image based on the depth distance data acquired by the depth distance data acquisition means. 6. An image processing apparatus comprising: a display control unit 6;
置において、 複数の前記画像データの各々についての前記実面積算出
手段の算出結果に基づいて、当該各画像データの表示サ
イズの比が当該各画像の実面積の比と一致する様に、こ
れらの画像データをスケール変換して前記表示手段に一
覧表示させる第7の表示制御手段、 を備えることを特徴とする画像処理装置。8. The image processing apparatus according to claim 3, wherein the display size of each image data is calculated based on the calculation result of the actual area calculation means for each of the plurality of image data. An image processing apparatus comprising: a seventh display control means for converting the scale of these image data and displaying a list on the display means so that the ratio matches the ratio of the real area of each image.
置において、 前記表示手段に表示される画像上の閉区間を指定する閉
区間指定手段と、 前記閉区間指定手段によって指定された前記閉区間の面
積を、前記実面積算出手段によって取得された当該画像
の実面積に基づいて算出する閉区間面積算出手段と、 前記閉区間面積算出手段の算出結果を前記表示手段に表
示させる第8の表示制御手段と、 を備えることを特徴とする画像処理装置。9. The image processing device according to claim 3, wherein a closed section designating unit that designates a closed section on the image displayed on the display unit, and a closed section designating unit. And a closed section area calculation means for calculating the area of the closed section based on the actual area of the image acquired by the actual area calculation means, and a calculation result of the closed section area calculation means displayed on the display means. An image processing apparatus comprising: an eighth display control means.
装置において、 画像中の縦方向に延びる第1軸と、当該画像中の横方向
に延びる第2軸と、当該画像中の奥行き方向に延びる第
3軸と、で構成され、これら第1軸、第2軸、第3軸の
長さの比が、それぞれ当該画像全体の縦方向、横方向、
奥行き方向の長さの比に一致する座標系を、当該画像デ
ータと共に前記表示手段に表示させる第9の表示制御手
段と、 前記第9の表示制御手段によって表示された前記座標系
の各軸の長さを前記画像上において伸縮させる伸縮手段
と、 前記伸縮手段によって前記第1軸が伸縮された場合に
は、当該伸縮に応じて当該画像の縦方向の表示範囲を伸
縮させ、前記伸縮手段によって前記第2軸が伸縮された
場合には、当該伸縮に応じて当該画像の横方向の表示範
囲を伸縮させ、前記伸縮手段によって前記第3軸が伸縮
された場合には、当該伸縮に応じて当該画像の奥行き方
向の表示範囲を伸縮させる第10の表示制御手段と、 を備えることを特徴とする画像処理装置。10. The image processing apparatus according to claim 1, wherein a first axis extending in a vertical direction in the image, a second axis extending in a horizontal direction in the image, and a second axis in the image. And a third axis extending in the depth direction, and the length ratios of the first axis, the second axis, and the third axis are respectively the vertical direction, the horizontal direction, and
A ninth display control unit that causes the display unit to display a coordinate system that matches the length ratio in the depth direction together with the image data, and each axis of the coordinate system displayed by the ninth display control unit. When the first axis is expanded / contracted by the expansion / contraction means for expanding / contracting the length on the image, the vertical display range of the image is expanded / contracted according to the expansion / contraction, and the expansion / contraction means is used. When the second axis is expanded or contracted, the horizontal display range of the image is expanded or contracted according to the expansion or contraction, and when the expansion or contraction unit expands or contracts the third axis, the expansion or contraction is performed according to the expansion or contraction. An image processing apparatus comprising: a tenth display control unit that expands and contracts a display range of the image in the depth direction.
理装置において、 前記オブジェクト検出手段によって検出された各オブジ
ェクトの輪郭を抽出する輪郭抽出手段と、 前記輪郭抽出手段によって抽出された各オブジェクトの
輪郭を、前記実面積算出手段の算出結果に基づいて、当
該各オブジェクトの実寸比と一致するよう前記表示手段
に重ねて表示させる第11の表示制御手段と、 を備えることを特徴とする画像処理装置。11. The image processing apparatus according to claim 5, wherein a contour extracting unit that extracts a contour of each object detected by the object detecting unit, and each contour extracted by the contour extracting unit. Eleventh display control means for displaying the outline of the object on the display means so as to match the actual size ratio of each object based on the calculation result of the actual area calculation means. Image processing device.
理装置において、 前記表示手段に表示される画像に含まれる各色彩の含有
比を算出する色彩比算出手段と、 前記色彩比算出手段によって算出された前記含有比を、
前記各色彩別に前記表示手段に表示させる第12の表示
制御手段と、 を備えることを特徴とする画像処理装置。12. The image processing apparatus according to claim 1, further comprising: a color ratio calculation unit that calculates a content ratio of each color included in the image displayed on the display unit; and the color ratio calculation. The content ratio calculated by the means,
An image processing apparatus comprising: a twelfth display control means for displaying on the display means for each color.
ータ取得手段と、 前記地図データが表す地図の図法に関する図法データを
取得する図法データ取得手段と、 前記地図データが表す地図の縮尺を示す縮尺データを取
得する縮尺データ取得手段と、 前記地図データ取得手段によって取得された前記地図デ
ータを表示する表示手段と、 前記表示手段によって表示される地図中の2地点を指定
する第1の地点指定手段と、 前記地点指定手段によって指定された前記2地点間の実
距離を、前記図法データ取得手段によって取得された前
記図法データ及び前記縮尺データ取得手段によって取得
された前記縮尺データに基づいて算出する実距離算出手
段と、 前記実距離算出手段の算出結果を前記表示手段に表示さ
せる第1の表示制御手段と、 を備えることを特徴とする画像処理装置。13. A map data acquisition unit that acquires map data that represents a map, a projection data acquisition unit that acquires projection data relating to the projection of the map represented by the map data, and a scale that indicates the scale of the map represented by the map data. Scale data acquisition means for acquiring data, display means for displaying the map data acquired by the map data acquisition means, and first location designation means for designating two locations on the map displayed by the display means. And an actual distance between the two points designated by the point designating means is calculated based on the projection data acquired by the projection data acquiring means and the scale data acquired by the scale data acquiring means. A distance calculation means, and a first display control means for displaying the calculation result of the actual distance calculation means on the display means. An image processing device characterized by being obtained.
て、 前記表示手段によって表示される前記地図上において任
意の領域を指定する領域指定手段と、 前記表示手段によって表示される前記地図上において任
意の地点を指定する第2の地点指定手段と、 前記領域指定手段によって指定された地図上の前記領域
に対応する実領域と同一の形状及び面積を有する実領域
を表す領域を、前記第2の地点指定手段によって指定さ
れた地点を中心として当該地図上に表示させる第2の表
示制御手段と、 を備えることを特徴とする画像処理装置。14. The image processing apparatus according to claim 13, wherein area specifying means for specifying an arbitrary area on the map displayed by the display means, and arbitrary area on the map displayed by the display means. The second point designating means for designating a point, and the area representing the real area having the same shape and area as the real area corresponding to the area on the map designated by the area designating means, the second point An image processing apparatus, comprising: a second display control unit for displaying on a map the point designated by the designation unit as a center.
において、 前記地図データ取得手段によって取得された前記地図デ
ータに基づいて、当該地図の図法を判別する図法判別手
段、を備え、 前記図法データ取得手段は、前記図法判別手段の判別結
果を前記図法データとして取得すること、 を特徴とする画像処理装置。15. The image processing apparatus according to claim 13, further comprising: a projection method determining unit that determines a projection method of the map based on the map data acquired by the map data acquiring unit, the projection data An image processing apparatus, wherein the acquisition unit acquires the determination result of the projection determination unit as the projection data.
処理装置において、 前記表示手段によって表示される前記地図上の任意の地
点を指定する第3の地点指定手段と、 前記第3の地点指定手段によって指定された地点に関す
る地理情報を入力する地理情報入力手段と、 前記第3の地点指定手段によって指定された前記地点
と、前記地理情報入力手段によって入力された当該地点
に関する地理情報とを対応付けて記憶する記憶手段と、 前記表示手段によって表示される前記地図上の任意の地
点が指定された場合、当該地点に対応する前記地理情報
を、前記記憶手段から取得して前記表示手段上に表示さ
せる第3の表示制御手段と、 を備えることを特徴とする画像処理装置。16. The image processing apparatus according to claim 13, further comprising: a third point designating unit that designates an arbitrary point on the map displayed by the display unit. Geographical information input means for inputting geographical information regarding the point designated by the point designating means, the point designated by the third point designating means, and geographical information regarding the point input by the geographical information inputting means. And a storage means for storing the correspondence information, and when an arbitrary point on the map displayed by the display means is designated, the geographical information corresponding to the point is acquired from the storage means and the display means is displayed. An image processing apparatus comprising: a third display control unit that is displayed on top.
画像データを生成する撮影装置において、 この撮影装置から前記被写体までの距離を計測し、当該
計測結果を表す奥行距離データを生成する奥行距離デー
タ生成手段と、 前記被写体の画像データと、前記奥行距離データ生成手
段によって生成された当該被写体までの距離を表す前記
奥行距離データと、を対応付けて記憶する記憶手段と、 を備えることを特徴とする撮影装置。17. A depth measuring device for generating image data of a subject by picking up the image of the subject, measuring the distance from the photographing device to the subject, and generating depth distance data representing the measurement result. And a storage unit that stores the image data of the subject and the depth distance data that is generated by the depth distance data generation unit and that represents the distance to the subject in association with each other. Shooting device.
〜12の何れかに記載の画像処理装置と、前記撮影装置
と前記画像処理装置との間のデータ通信を媒介する通信
手段と、を含んで構成される画像処理システムであっ
て、 前記画像データ取得手段は、前記撮影手段の前記記憶手
段に記憶されている前記画像データを、前記通信手段を
介して取得し、 前記距離データ取得手段は、前記撮影手段の前記記憶手
段に記憶されている前記画像データに対応付けられてい
る前記奥行長さデータを、前記通信手段を介して取得す
ること、 を特徴とする画像処理システム。18. A photographing device according to claim 17, and claim 3.
An image processing system configured to include the image processing device according to any one of claims 1 to 12 and a communication unit that mediates data communication between the image capturing device and the image processing device. The acquisition means acquires the image data stored in the storage means of the photographing means via the communication means, and the distance data acquisition means stores the image data stored in the storage means of the photographing means. An image processing system, wherein the depth length data associated with image data is acquired via the communication means.
と、 表示させた画像中における指定された2点間の距離を基
準寸法として取得する機能と、 表示させた画像中における指定された始点から終点まで
の距離を、取得した基準寸法に基づいて算出する機能
と、 を実現させる為のプログラム。19. A function of causing a computer to obtain image data, a function of displaying the obtained image data on a display means, and obtaining a distance between two designated points in the displayed image as a reference dimension. A program that realizes the function and the function to calculate the distance from the specified start point to the end point in the displayed image based on the acquired reference dimensions.
取得する機能と、 前記地図データが表す地図の縮尺を示す縮尺データを取
得する機能と、 取得した前記地図データを表示手段に表示させる機能
と、 前記表示手段によって表示された地図上における指定さ
れた2地点間の実距離を、取得した前記図法データ及び
前記縮尺データに基づいて算出する機能と、 その算出結果を前記表示手段に表示させる機能と、 を実現させる為のプログラム。20. A computer, a function of acquiring map data representing a map, a function of acquiring projection data concerning a map projection represented by the map data, and a scale data indicating a scale of a map represented by the map data. A function of displaying the acquired map data on a display unit, and an actual distance between two designated points on the map displayed by the display unit, based on the acquired projection data and scale data. A program for realizing the function of calculating by calculation and the function of displaying the calculation result on the display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002097459A JP2003296745A (en) | 2002-03-29 | 2002-03-29 | Image processor, photographing device, image processing system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002097459A JP2003296745A (en) | 2002-03-29 | 2002-03-29 | Image processor, photographing device, image processing system and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003296745A true JP2003296745A (en) | 2003-10-17 |
Family
ID=29387698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002097459A Abandoned JP2003296745A (en) | 2002-03-29 | 2002-03-29 | Image processor, photographing device, image processing system and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003296745A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107325A (en) * | 2003-09-30 | 2005-04-21 | Olympus Corp | Image display program, image display apparatus and image display method |
JP2008500867A (en) * | 2004-05-28 | 2008-01-17 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image processing apparatus, imaging system, computer program and method for enabling scaling of objects in an image |
JP2008224484A (en) * | 2007-03-14 | 2008-09-25 | Casio Comput Co Ltd | Imaging device, dimension measurement method, dimension measurement program |
JP2008286638A (en) * | 2007-05-17 | 2008-11-27 | Sogo Keibi Hosho Co Ltd | Height estimation device and method |
JP2010060344A (en) * | 2008-09-02 | 2010-03-18 | Tokyu Construction Co Ltd | Space information display device and support device |
JP2010096626A (en) * | 2008-10-16 | 2010-04-30 | Fujitsu Ltd | Method, device and program for image analysis |
JP2010134887A (en) * | 2008-12-02 | 2010-06-17 | Yahoo Japan Corp | Map display device and method for displaying area using comparison object |
JP2010243358A (en) * | 2009-04-07 | 2010-10-28 | Nippon Hoso Kyokai <Nhk> | Distance measuring device, composite image generating device and distance measuring program |
JP2012098084A (en) * | 2010-10-29 | 2012-05-24 | Keyence Corp | Image measuring apparatus, image measuring method and computer program |
JP2012168921A (en) * | 2011-01-26 | 2012-09-06 | Casio Comput Co Ltd | Electronic apparatus and program |
JP2015049804A (en) * | 2013-09-03 | 2015-03-16 | シャープ株式会社 | Display device |
JP2015060540A (en) * | 2013-09-20 | 2015-03-30 | カシオ計算機株式会社 | Creation device and creation method of correction sheet |
JP2016062527A (en) * | 2014-09-22 | 2016-04-25 | 株式会社アーキノート | Digitalization of drawing and management system |
CN107292787A (en) * | 2017-07-13 | 2017-10-24 | 山东浪潮云服务信息科技有限公司 | A kind of method that utilization Cartographic Technique builds school district pressure model |
JP2019148426A (en) * | 2018-02-26 | 2019-09-05 | パナソニックIpマネジメント株式会社 | Image processing apparatus |
JP2019192162A (en) * | 2018-04-27 | 2019-10-31 | 株式会社日立製作所 | Data accumulation system and data searching method |
JP7445348B1 (en) | 2023-08-30 | 2024-03-07 | 株式会社MuuMu | Information processing device, method, program, and system |
-
2002
- 2002-03-29 JP JP2002097459A patent/JP2003296745A/en not_active Abandoned
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107325A (en) * | 2003-09-30 | 2005-04-21 | Olympus Corp | Image display program, image display apparatus and image display method |
JP2008500867A (en) * | 2004-05-28 | 2008-01-17 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | Image processing apparatus, imaging system, computer program and method for enabling scaling of objects in an image |
JP2008224484A (en) * | 2007-03-14 | 2008-09-25 | Casio Comput Co Ltd | Imaging device, dimension measurement method, dimension measurement program |
JP2008286638A (en) * | 2007-05-17 | 2008-11-27 | Sogo Keibi Hosho Co Ltd | Height estimation device and method |
JP2010060344A (en) * | 2008-09-02 | 2010-03-18 | Tokyu Construction Co Ltd | Space information display device and support device |
JP2010096626A (en) * | 2008-10-16 | 2010-04-30 | Fujitsu Ltd | Method, device and program for image analysis |
JP2010134887A (en) * | 2008-12-02 | 2010-06-17 | Yahoo Japan Corp | Map display device and method for displaying area using comparison object |
JP2010243358A (en) * | 2009-04-07 | 2010-10-28 | Nippon Hoso Kyokai <Nhk> | Distance measuring device, composite image generating device and distance measuring program |
JP2012098084A (en) * | 2010-10-29 | 2012-05-24 | Keyence Corp | Image measuring apparatus, image measuring method and computer program |
JP2012168921A (en) * | 2011-01-26 | 2012-09-06 | Casio Comput Co Ltd | Electronic apparatus and program |
JP2015049804A (en) * | 2013-09-03 | 2015-03-16 | シャープ株式会社 | Display device |
JP2015060540A (en) * | 2013-09-20 | 2015-03-30 | カシオ計算機株式会社 | Creation device and creation method of correction sheet |
JP2016062527A (en) * | 2014-09-22 | 2016-04-25 | 株式会社アーキノート | Digitalization of drawing and management system |
CN107292787A (en) * | 2017-07-13 | 2017-10-24 | 山东浪潮云服务信息科技有限公司 | A kind of method that utilization Cartographic Technique builds school district pressure model |
JP2019148426A (en) * | 2018-02-26 | 2019-09-05 | パナソニックIpマネジメント株式会社 | Image processing apparatus |
JP7220343B2 (en) | 2018-02-26 | 2023-02-10 | パナソニックIpマネジメント株式会社 | Image processing device |
JP2019192162A (en) * | 2018-04-27 | 2019-10-31 | 株式会社日立製作所 | Data accumulation system and data searching method |
JP7445348B1 (en) | 2023-08-30 | 2024-03-07 | 株式会社MuuMu | Information processing device, method, program, and system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2003296745A (en) | Image processor, photographing device, image processing system and program | |
US10699481B2 (en) | Augmentation of captured 3D scenes with contextual information | |
KR101171264B1 (en) | Apparatus for providing building structure information and displaying building structure using argumented reality and method for maintenance of building structure using the same | |
KR20200142266A (en) | System for recognizing object and method for recognizing object using the same | |
JP7073850B2 (en) | Input device and input method of input device | |
CN111429523A (en) | Remote calibration method in 3D modeling | |
EP3330928A1 (en) | Image generation device, image generation system, and image generation method | |
US20210092305A1 (en) | Designation device and non-transitory recording medium | |
CN109949900B (en) | Three-dimensional pulse wave display method and device, computer equipment and storage medium | |
JP2005077385A (en) | Image correlation method, survey method and measuring system using them | |
US11604904B2 (en) | Method and system for space design | |
JP2005142938A (en) | Electronic camera, control program | |
CN105387847A (en) | Non-contact measurement method, measurement equipment and measurement system thereof | |
CN111445528A (en) | Multi-camera common calibration method in 3D modeling | |
JP5611875B2 (en) | Information display device, information display method, and program | |
CN108287345A (en) | Spacescan method and system based on point cloud data | |
CN112082486B (en) | Handheld intelligent 3D information acquisition equipment | |
WO2020179439A1 (en) | Displacement detection method, photography instruction method, displacement detection device, and photography instruction device | |
CN203000936U (en) | Non-contact type human body height measuring device based on optical imaging | |
JP2015064755A (en) | Three-dimensional shape measuring system and color information attachment method | |
JP2005084012A (en) | Skin shape measuring method and skin shape measuring device | |
JP2004260591A (en) | Stereoscopic image display device | |
CN116266402A (en) | Automatic object labeling method and device, electronic equipment and storage medium | |
JPH09119819A (en) | Three-dimensional information reconstruction apparatus | |
KR100651839B1 (en) | Method and Apparatus for Providing Moving Path of Mobile Phone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070522 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20070711 |