JP5867886B2 - Visual recognition support device - Google Patents

Visual recognition support device Download PDF

Info

Publication number
JP5867886B2
JP5867886B2 JP2015030281A JP2015030281A JP5867886B2 JP 5867886 B2 JP5867886 B2 JP 5867886B2 JP 2015030281 A JP2015030281 A JP 2015030281A JP 2015030281 A JP2015030281 A JP 2015030281A JP 5867886 B2 JP5867886 B2 JP 5867886B2
Authority
JP
Japan
Prior art keywords
information
optical device
azimuth
data
observation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015030281A
Other languages
Japanese (ja)
Other versions
JP2015135505A (en
Inventor
賢次郎 疋田
賢次郎 疋田
正義 沼野
正義 沼野
淳司 福戸
淳司 福戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Maritime Research Institute
Original Assignee
National Maritime Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Maritime Research Institute filed Critical National Maritime Research Institute
Priority to JP2015030281A priority Critical patent/JP5867886B2/en
Publication of JP2015135505A publication Critical patent/JP2015135505A/en
Application granted granted Critical
Publication of JP5867886B2 publication Critical patent/JP5867886B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Telescopes (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、船舶、航空機、車両などの移動体に搭載されて周囲環境を観測する光学機器を用いた目視視認支援装置に関する。   The present invention relates to a visual recognition support device using an optical device that is mounted on a moving body such as a ship, an aircraft, or a vehicle and observes the surrounding environment.

回動可能に設置された望遠鏡において、閲覧している風景に重ね合わせて対象物の情報を表示する方法が提案されている(特許文献1)。特許文献1に記載の方法によれば、例えば望遠鏡で閲覧中の牧場やホテルの名前などが映し出される。また、船舶におけるレーダー映像表示画面に、レーダーからの映像とともに監視カメラの方位を示す方位線や監視艇の針路を示す針路線を重畳表示する装置が提案されている(特許文献2)。
特許文献1,2で提案されているように、複数の情報を重畳表示させることで利用者にとっては情報を把握しやすい。
There has been proposed a method of displaying information on an object superimposed on a landscape being viewed in a telescope that is rotatably installed (Patent Document 1). According to the method described in Patent Document 1, for example, the name of a ranch or hotel being viewed with a telescope is displayed. In addition, an apparatus has been proposed in which a azimuth line indicating the azimuth of a monitoring camera and a course line indicating the course of a monitoring boat are superimposed and displayed on a radar video display screen in a ship (Patent Document 2).
As proposed in Patent Documents 1 and 2, it is easy for the user to grasp the information by displaying a plurality of information in a superimposed manner.

特開2005−175712号公報JP 2005-175712 A 特開2001−264423号公報JP 2001-264423 A

しかし、例えば手に持って観測する光学機器のように固定されていない場合には、特許文献1で提案されているような対象物情報を重畳するためには、光学機器に情報提供システムや各種の検出器を搭載しなければならなくなり、光学機器が大型化し、操作性が低下するという問題がある。また、特許文献1では、あらかじめ蓄積したデータによる情報提供システムであるために、移動体のようにダイナミックに変化する周囲環境を観測することはできない。   However, in the case where the object information is not fixed as in the case of an optical instrument that is held in the hand, for example, the information providing system or various kinds of information is superimposed on the optical instrument in order to superimpose the object information as proposed in Patent Document 1. However, there is a problem that the optical equipment becomes larger and the operability is lowered. Further, in Patent Document 1, since it is an information providing system based on data accumulated in advance, it is not possible to observe a surrounding environment that dynamically changes like a moving body.

そこで本発明は、例えば手に持って観測する光学機器においても固定されている場合と同様に、観測ターゲットとする方位を、ダイナミックな変化に追随して出力できるとともに累積による誤差の影響もなく把握できる目視視認支援装置を提供することを目的とする。   Therefore, the present invention can output the azimuth as the observation target following a dynamic change and grasps it without the influence of the accumulation error, as in the case where it is fixed even in an optical instrument that is held by hand, for example. An object of the present invention is to provide a visual recognition support device that can be used.

請求項1記載に対応した目視視認支援装置においては、周囲環境を観測する光学機器と、光学機器の機器方位を検出する機器方位検出手段と、機器方位をリセットするリセット手段と、リセット手段によるリセット時における、光学機器の基本方位情報を取得する基本方位情報取得手段と、リセット手段によるリセット時の光学機器の基本方位を基準位置として、基準位置からの変位データとして検出した角度としての機器方位及び基本方位情報に基づいて光学機器により観測される観測ターゲットの方位を演算する方位演算手段と、演算された観測ターゲットの方位に基づき観測ターゲットを含む観測エリアの被観測物に関する情報を取得する被観測物情報取得手段と、被観測物に関する情報を表示する映写手段と、観測エリアに複数の被観測物が存在する場合に映写手段に表示する被観測物に関する情報を選択する表示選択手段とを備えたことを特徴とする。請求項1に記載の本発明によれば、ダイナミックな変化時の応答や整定に適した機器方位検出手段と、正確な基本情報を得ることができる基本方位情報取得手段とを備えているため、移動体などの移動する周囲環境を観測する場合や装置本体が移動体で使用される場合には、機器方位検出手段によって対応することができ、一方で機器方位検出手段の検出の継続による累積誤差に対しては、基本方位情報を用いてリセット時からの機器方位を演算するために、例えば光学機器を手に持った時点からの方位を算出することができるため、光学機器が観測ターゲットとする方位を、ダイナミックな変化に追随して出力できるとともに累積による誤差の影響もなく把握できる。また、映写手段を備えているため、周囲環境を観察する場合に、この周囲環境を視認しつつ、観測エリアの方位や俯仰角、又は被観測物に関するデータを同時に視認することができる。また、被観測物情報取得手段を備えているため、観測エリアに存在する被観測物に関するデータを取得することができる。また、表示選択手段を備えているため、複数の被観測物が存在する場合には、複数の被観測物に関するデータの中からいくつかの被観測物に関するデータを選択して表示することができる。
請求項2記載の本発明は、請求項1に記載の目視視認支援装置において、表示選択手段は、観測ターゲットの前後の所定の範囲の情報を選択することを特徴とする。請求項2に記載の本発明によれば、被観測物が輻輳して存在する場合であっても、被観測物に関する情報を分かり易く表示できる。
請求項3記載の本発明は、請求項1に記載の目視視認支援装置において、リセット手段が光学機器の機器姿勢角をリセットするものであり、光学機器の機器姿勢角を検出する機器姿勢角検出手段と、リセット手段によるリセット時における、光学機器の基本姿勢角情報を取得する基本姿勢角情報取得手段と、機器姿勢角と基本姿勢角情報に基づいて光学機器により観測される観測ターゲットの俯仰角を演算する姿勢角演算手段とをさらに備え、被観測物情報取得手段が演算された観測ターゲットの俯仰角に基づき観測ターゲットを含む観測エリアの被観測物に関する情報を取得することを特徴とする。請求項3に記載の本発明によれば、光学機器が観測ターゲットとする方位だけでなく、俯仰角についても、ダイナミックな変化に追随して累積による誤差の影響なく把握できる。また、俯仰角データを用いて、観測エリアに存在する被観測物に関するデータを取得することができる。
請求項4記載の本発明は、請求項1から請求項3のいずれかに記載の目視視認支援装置において、映写手段に表示された情報を固定的に取り込む固定取込手段を備え、固定取込手段の操作により映写手段に表示された情報の画像データを取り込むとともに、取り込まれた画像データを記憶する映像データ記憶手段をさらに備えたことを特徴とする。請求項4に記載の本発明によれば、被観測物に関するデータを、更新することなく固定させて表示を維持、記憶することで、光学機器を観測ターゲットに維持しなくても、データ内容を再確認できる。
請求項5記載の本発明は、請求項1から請求項4のいずれかに記載の目視視認支援装置において、リセット手段を、光学機器に設けたことを特徴とする。請求項5に記載の本発明によれば、光学機器でリセット操作を行うことができる。
請求項6記載の本発明は、請求項1から請求項4のいずれかに記載の目視視認支援装置において、リセット手段を、光学機器を保持する基台に設けたことを特徴とする。請求項6に記載の本発明によれば、基台でリセット操作を行うことができる。
請求項7記載の本発明は、請求項6に記載の目視視認支援装置において、基台から光学機器に電力及び/又は情報を伝えることを特徴とする。請求項7に記載の本発明によれば、光学機器に搭載する機能を最小限とすることができ、光学機器の小型化や軽量化を図ることができる。
請求項8記載の本発明は、請求項5に記載の目視視認支援装置において、機器方位記憶手段をさらに備え、機器方位記憶手段では、光学機器のリセット手段の操作時をリセット時として、光学機器の方位の変位データを記憶し、方位演算手段では、変位データとリセット時における光学機器の基本方位情報に基づいて観測ターゲットの方位を演算することを特徴とする。請求項8に記載の本発明によれば、検知時点をリセット時として光学機器の方位の変位データを記憶することができる。
請求項9記載の本発明は、請求項1から請求項8のいずれかに記載の目視視認支援装置において、光学機器が、船舶に搭載されて周囲環境の観測に用いられる双眼鏡であることを特徴とする。請求項9に記載の本発明によれば、船舶における操船時や航行時の監視負担を軽減でき、特に夜間や濃霧における安全性を向上させることができる。
請求項10記載の本発明は、請求項1から請求項9のいずれかに記載の目視視認支援装置において、光学機器に、機器方位を無線で送信する機器側送信手段をさらに備えたことを特徴とする。請求項10に記載の本発明によれば、光学機器のデータを無線で送信する構成とすることで、方位の演算を光学機器とは別の装置で行うことが可能となり、光学機器に搭載する機能を軽減でき、光学機器の小型軽量化を図ることができる。
請求項11記載の本発明は、請求項1から請求項10に記載の目視視認支援装置において、機器方位検出手段として姿勢角センサを用いたことを特徴とする。請求項11に記載の本発明によれば、姿勢角センサを用いて機器方位を検出することができる。
請求項12記載の本発明は、請求項4に記載の目視視認支援装置において、光学機器が観測ターゲットを含む観測エリアにある周囲環境を撮像する撮像手段をさらに備え、撮像手段で撮像した撮像データを画像データとともに映像データ記憶手段に記憶したことを特徴とする。請求項12に記載の本発明によれば、観測エリアの映像とともに表示データを記憶させることで、光学機器以外の表示手段で表示させることができるとともに、記憶させたデータを再び表示させて確認することもできる。
In the visual recognition support device corresponding to claim 1, an optical device for observing the surrounding environment, a device orientation detection unit for detecting the device orientation of the optical device, a reset unit for resetting the device orientation, and a reset by the reset unit The basic azimuth information acquisition means for acquiring the basic azimuth information of the optical equipment at the time, the basic azimuth of the optical equipment at the time of reset by the reset means as the reference position, the equipment azimuth as the angle detected as displacement data from the reference position, and An azimuth calculating means for calculating the azimuth of the observation target observed by the optical device based on the basic azimuth information, and an object to be observed for obtaining information on the observation object in the observation area including the observation target based on the calculated azimuth of the observation target Object information acquisition means, projection means for displaying information on the object to be observed, and a plurality of objects in the observation area. Characterized in that a display selection means for selecting information about the measured object to be displayed on the projected unit when the measurement object is present. According to the first aspect of the present invention, since the apparatus includes a device orientation detection means suitable for dynamic response and settling, and basic orientation information acquisition means capable of obtaining accurate basic information, When observing the moving surrounding environment such as a moving object or when the main body of the device is used as a moving object, it can be handled by the device orientation detection means, while the accumulated error due to the continued detection of the device orientation detection means In order to calculate the device orientation from the time of reset using the basic orientation information, for example, the orientation from the time of holding the optical device can be calculated, so the optical device is the observation target The azimuth can be output following dynamic changes and can be grasped without any influence of accumulation errors. In addition, since the projection unit is provided, when observing the surrounding environment, it is possible to simultaneously view the azimuth and elevation angle of the observation area or the data on the object to be observed while visually checking the surrounding environment. Moreover, since the observation object information acquisition means is provided, it is possible to acquire data relating to the observation object existing in the observation area. In addition, since a display selection unit is provided, when there are a plurality of objects to be observed, data related to several objects to be observed can be selected and displayed from among data regarding the plurality of objects to be observed. .
According to a second aspect of the present invention, in the visual recognition support device according to the first aspect, the display selection unit selects information in a predetermined range before and after the observation target. According to the second aspect of the present invention, even when the observed object is congested, information about the observed object can be displayed in an easy-to-understand manner.
According to a third aspect of the present invention, in the visual recognition support device according to the first aspect, the reset means resets the device posture angle of the optical device, and detects the device posture angle of the optical device. Means, basic attitude angle information acquisition means for acquiring basic attitude angle information of the optical device at the time of resetting by the reset means, and the elevation angle of the observation target observed by the optical device based on the device attitude angle and the basic attitude angle information And an attitude angle calculation means for calculating the observation object information, and the object information acquisition means acquires information on the observation object in the observation area including the observation target based on the calculated elevation angle of the observation target. According to the third aspect of the present invention, not only the azimuth as the observation target of the optical apparatus but also the elevation angle can be grasped without being affected by errors due to accumulation following the dynamic change. Further, it is possible to acquire data related to the observation object existing in the observation area using the elevation angle data.
According to a fourth aspect of the present invention, there is provided the visual recognition support device according to any one of the first to third aspects, further comprising a fixed taking-in means for taking in the information displayed on the projection means in a fixed manner. The image data storage means for capturing the image data of the information displayed on the projection means by the operation of the means and storing the captured image data is further provided. According to the present invention as set forth in claim 4, the data content can be maintained without maintaining the optical device as the observation target by fixing and maintaining the display of the data relating to the observation object without updating. Can be reconfirmed.
According to a fifth aspect of the present invention, in the visual recognition assistance device according to any one of the first to fourth aspects, the reset means is provided in the optical device. According to the fifth aspect of the present invention, the reset operation can be performed by the optical device.
According to a sixth aspect of the present invention, in the visual recognition support device according to any one of the first to fourth aspects, the reset means is provided on a base that holds the optical device. According to the sixth aspect of the present invention, the reset operation can be performed on the base.
According to a seventh aspect of the present invention, in the visual recognition assistance device according to the sixth aspect, power and / or information is transmitted from the base to the optical device. According to the seventh aspect of the present invention, the functions mounted on the optical device can be minimized, and the optical device can be reduced in size and weight.
According to an eighth aspect of the present invention, in the visual recognition support device according to the fifth aspect of the present invention, the apparatus further includes a device orientation storage unit, wherein the device orientation storage unit sets the operation time of the reset unit of the optical device as a reset time. The azimuth calculation means calculates the azimuth of the observation target based on the displacement data and the basic azimuth information of the optical device at the time of resetting. According to the eighth aspect of the present invention, the displacement data of the azimuth direction of the optical device can be stored with the detection time as the reset time.
According to a ninth aspect of the present invention, in the visual recognition assistance device according to any one of the first to eighth aspects, the optical device is a binocular mounted on a ship and used for observation of the surrounding environment. And According to the ninth aspect of the present invention, it is possible to reduce the monitoring burden at the time of maneuvering and navigation in a ship, and in particular, it is possible to improve safety at night and in dense fog.
According to a tenth aspect of the present invention, in the visual recognition assistance device according to any one of the first to ninth aspects, the optical device further includes a device-side transmission unit that wirelessly transmits a device orientation. And According to the tenth aspect of the present invention, since the data of the optical device is transmitted wirelessly, the calculation of the azimuth can be performed by a device different from the optical device, and the optical device is mounted on the optical device. The function can be reduced and the optical device can be reduced in size and weight.
The present invention according to claim 11 is characterized in that, in the visual recognition support device according to any one of claims 1 to 10, an attitude angle sensor is used as the device orientation detection means. According to the eleventh aspect of the present invention, the device orientation can be detected using the attitude angle sensor.
According to a twelfth aspect of the present invention, in the visual recognition support device according to the fourth aspect, the optical device further includes an imaging unit that images the surrounding environment in the observation area including the observation target, and the imaging data captured by the imaging unit. Is stored in the video data storage means together with the image data. According to the present invention described in claim 12, by storing the display data together with the image of the observation area, it can be displayed by display means other than the optical device, and the stored data is displayed again and confirmed. You can also.

本発明によれば、ダイナミックな変化時の応答や整定に適した機器方位検出手段と、正確な基本情報を得ることができる基本方位情報取得手段とを備えているため、移動体などの移動する周囲環境を観測する場合や装置本体が移動体で使用される場合には、機器方位検出手段によって対応することができ、一方で機器方位検出手段の検出の継続による累積誤差に対しては、基本方位情報を用いてリセット時からの機器方位を演算するために、例えば光学機器を手に持った時点からの方位を算出することができるため、光学機器が観測ターゲットとする方位を、ダイナミックな変化に追随して出力できるとともに累積による誤差の影響もなく把握できる。また、映写手段を備えているため、周囲環境を観察する場合に、この周囲環境を視認しつつ、観測エリアの方位や俯仰角、又は被観測物に関するデータを同時に視認することができる。また、被観測物情報取得手段を備えているため、観測エリアに存在する被観測物に関するデータを取得することができる。また、表示選択手段を備えているため、複数の被観測物が存在する場合には、複数の被観測物に関するデータの中からいくつかの被観測物に関するデータを選択して表示することができる。
なお、表示選択手段は、観測ターゲットの前後の所定の範囲の情報を選択するときは、被観測物が輻輳して存在する場合であっても、被観測物に関する情報を分かり易く表示できる。
また、リセット手段が光学機器の機器姿勢角をリセットするものであり、光学機器の機器姿勢角を検出する機器姿勢角検出手段と、リセット手段によるリセット時における、光学機器の基本姿勢角情報を取得する基本姿勢角情報取得手段と、機器姿勢角と基本姿勢角情報に基づいて光学機器により観測される観測ターゲットの俯仰角を演算する姿勢角演算手段とをさらに備え、被観測物情報取得手段が演算された観測ターゲットの俯仰角に基づき観測ターゲットを含む観測エリアの被観測物に関する情報を取得するときは、光学機器が観測ターゲットとする方位だけでなく、俯仰角についても、ダイナミックな変化に追随して累積による誤差の影響なく把握できる。また、俯仰角データを用いて、観測エリアに存在する被観測物に関するデータを取得することができる。
また、映写手段に表示された情報を固定的に取り込む固定取込手段を備え、固定取込手段の操作により映写手段に表示された情報の画像データを取り込むとともに、取り込まれた画像データを記憶する映像データ記憶手段をさらに備えたときは、被観測物に関するデータを、更新することなく固定させて表示を維持、記憶することで、光学機器を観測ターゲットに維持しなくても、データ内容を再確認できる。
また、リセット手段を、光学機器に設けたときは、光学機器でリセット操作を行うことができ、操作が容易になる。
また、リセット手段を、光学機器を保持する基台に設けたときは、基台でリセット操作を行うことができ、光学機器の離脱、保持操作に応じてリセットを行うことが可能となる。
また、基台から光学機器に電力及び/又は情報を伝えるときは、光学機器に搭載する機能を最小限とすることができ、光学機器の小型化や軽量化を図ることができる。
また、機器方位記憶手段をさらに備え、機器方位記憶手段では、光学機器のリセット手段の操作時をリセット時として、光学機器の方位の変位データを記憶し、方位演算手段では、変位データとリセット時における光学機器の基本方位情報に基づいて観測ターゲットの方位を演算するときは、検知時点をリセット時として光学機器の方位の変位データを記憶することができる。
また、光学機器が、船舶に搭載されて周囲環境の観測に用いられる双眼鏡であるときは、船舶における操船時や航行時の監視負担を軽減でき、特に夜間や濃霧における安全性を向上させることができる。
また、光学機器に、機器方位を無線で送信する機器側送信手段をさらに備えたときは、光学機器のデータを無線で送信する構成とすることで、方位の演算を光学機器とは別の装置で行うことが可能となり、光学機器に搭載する機能を軽減でき、光学機器の小型軽量化を図ることができる。
また、機器方位検出手段として姿勢角センサを用いたときは、姿勢角センサを用いて機器方位を検出することができる。
また、光学機器が観測ターゲットを含む観測エリアにある周囲環境を撮像する撮像手段をさらに備え、撮像手段で撮像した撮像データを画像データとともに映像データ記憶手段に記憶したときは、観測エリアの映像とともに表示データを記憶させることで、光学機器以外の表示手段で表示させることができるとともに、記憶させたデータを再び表示させて確認することもできる。
According to the present invention, since the apparatus orientation detection means suitable for dynamic response and settling and the basic orientation information acquisition means capable of obtaining accurate basic information are provided, the mobile body or the like moves. When observing the surrounding environment or when the main body of the device is used as a moving body, it can be dealt with by the device orientation detection means. To calculate the azimuth from the time of reset using the azimuth information, for example, it is possible to calculate the azimuth from the time when the optical instrument is held in the hand, so the azimuth that the optical instrument is the observation target changes dynamically Can be output following the above, and can be grasped without being affected by errors due to accumulation. In addition, since the projection unit is provided, when observing the surrounding environment, it is possible to simultaneously view the azimuth and elevation angle of the observation area or the data on the object to be observed while visually checking the surrounding environment. Moreover, since the observation object information acquisition means is provided, it is possible to acquire data relating to the observation object existing in the observation area. In addition, since a display selection unit is provided, when there are a plurality of objects to be observed, data related to several objects to be observed can be selected and displayed from among data regarding the plurality of objects to be observed. .
Note that when selecting information in a predetermined range before and after the observation target, the display selection unit can easily display information on the observation object even when the observation object is congested.
The reset unit resets the device attitude angle of the optical device. The device attitude angle detection unit that detects the device attitude angle of the optical device and the basic posture angle information of the optical device at the time of resetting by the reset unit are acquired. A basic attitude angle information acquisition means, and an attitude angle calculation means for calculating the elevation angle of the observation target observed by the optical equipment based on the equipment attitude angle and the basic attitude angle information, and the observed object information acquisition means When acquiring information about the observed object in the observation area including the observation target based on the calculated elevation angle of the observation target, not only the orientation that the optical instrument is the observation target but also the elevation angle follows the dynamic change. Therefore, it can be grasped without the influence of errors due to accumulation. Further, it is possible to acquire data related to the observation object existing in the observation area using the elevation angle data.
In addition, there is provided a fixed fetching means for fetching information displayed on the projection means in a fixed manner, fetching image data of information displayed on the projection means by operation of the fixed fetching means, and storing the fetched image data When the video data storage means is further provided, the data related to the object to be observed is fixed without being updated, and the display is maintained and stored, so that the data contents can be restored without maintaining the optical device as the observation target. I can confirm.
Further, when the reset means is provided in the optical device, the reset operation can be performed by the optical device, and the operation becomes easy.
Further, when the reset means is provided on the base for holding the optical device, the reset operation can be performed on the base, and the reset can be performed according to the detachment and holding operation of the optical device.
Further, when power and / or information is transmitted from the base to the optical device, the functions mounted on the optical device can be minimized, and the optical device can be reduced in size and weight.
Further, the apparatus further comprises an apparatus orientation storage means, wherein the apparatus orientation storage means stores the displacement data of the orientation of the optical apparatus with the operation time of the reset means of the optical equipment as the reset time, and the orientation calculation means stores the displacement data and the reset data When calculating the azimuth of the observation target based on the basic azimuth information of the optical device at, the displacement data of the azimuth of the optical device can be stored with the detection time as the reset time.
In addition, when the optical device is a binocular that is mounted on a ship and used for observation of the surrounding environment, it can reduce the monitoring burden when maneuvering and navigating the ship, especially at night and in dense fog. it can.
In addition, when the optical device further includes device-side transmission means for wirelessly transmitting the device orientation, it is configured to transmit the data of the optical device wirelessly, thereby calculating the orientation separately from the optical device. The function mounted on the optical device can be reduced, and the optical device can be reduced in size and weight.
Further, when the attitude angle sensor is used as the apparatus orientation detection means, the apparatus orientation can be detected using the attitude angle sensor.
In addition, when the optical device further includes an imaging unit that images the surrounding environment in the observation area including the observation target, and the imaging data captured by the imaging unit is stored in the video data storage unit together with the image data, By storing the display data, the display data can be displayed by display means other than the optical device, and the stored data can be displayed again and confirmed.

本発明の実施形態による目視視認支援装置を搭載する船舶の側面図The side view of the ship carrying the visual recognition assistance apparatus by embodiment of this invention 同目視視認支援装置を示す機器構成図Device configuration diagram showing the visual recognition support device 同目視視認支援装置を機能実現手段で表したブロック図Block diagram showing the visual recognition support device with function realizing means 同目視視認支援装置に用いる光学機器の要部概念図Conceptual diagram of main parts of optical equipment used in the visual recognition support device 同目視視認支援装置での表示状態を示す説明図Explanatory drawing which shows the display state in the visual recognition assistance apparatus 本発明の他の実施形態による目視視認支援装置を機能実現手段で表したブロック図The block diagram showing the visual recognition assistance apparatus by other embodiment of this invention with the function implementation means 本発明の更に他の実施形態による目視視認支援装置を機能実現手段で表したブロック図The block diagram showing the visual recognition assistance apparatus by further another embodiment of this invention with the function implementation means

以下に、本発明の目視視認支援装置の一実施形態について説明する。
図1は本実施形態による目視視認支援装置を搭載する船舶の側面図、図2は同目視視認装置を示す機器構成図、図3は同目視視認支援装置を機能実現手段で表したブロック図、図4は同目視視認支援装置に用いる光学機器の要部概念図、図5は同目視視認支援装置での表示状態を示す説明図である。
Below, one Embodiment of the visual recognition assistance apparatus of this invention is described.
FIG. 1 is a side view of a ship equipped with a visual recognition support device according to the present embodiment, FIG. 2 is an equipment configuration diagram showing the visual recognition support device, and FIG. 3 is a block diagram showing the visual recognition support device with function realizing means. FIG. 4 is a conceptual diagram of a main part of an optical device used in the visual recognition support device, and FIG. 5 is an explanatory diagram showing a display state in the visual recognition support device.

図1及び図2に示すように、本実施形態では移動体として船舶10に用いた場合であり、目視視認支援装置は船橋6にて用いられる。
船舶10には、AIS(船舶自動識別装置)レシーバ1、GPSレシーバ2、ジャイロコンパス3、船体姿勢角検出手段としての3軸角度センサ(姿勢角センサ)4、レーダー装置5を備えている。AISレシーバ1では、船舶の船名、船種、識別番号、位置、針路、速度、航行状態、安全情報などの、被観測物となる他船データを取得することができる。GPSレシーバ2では、自船に関する現在位置データを取得することができる。またジャイロコンパス3では自船の針路データを取得することができる。3軸角度センサ4は、自船の揺れによって生じるヨーイング、ローリング、ピッチングの姿勢角データを検出することができる。レーダー装置5では、自船から一定範囲に存在する被観測物について、自船から見た方位データと自船からの距離データを取得することができ、他船の方位、他船までの距離、再接近距離、再接近までの所要時間を主として判断できる。他船の針路、他船の速度情報は、レーダー装置5で取得する情報をプロティングすることでも得ることができる。また、ARPA(自動衝突予防支援装置)情報として自動処理した情報としても得ることができる。ARPA情報には、被観測物となる他船の方位、他船までの距離、他船の針路、速度、予測される最接近距離、最接近までの所用時間などが含まれる。AISレシーバ1では、船名など静的な情報は6分毎、動的な情報は航走状態により2〜12秒間隔といったように間欠的に情報更新がされるが、AISレシーバ1で得られる完結的な情報を一旦記憶させておいて利用することもできる。
また、船橋6には、レピーターコンパス7などの各種計測表示機器とともに支援装置本体20と光学機器50が設けられている。光学機器50は、本実施形態では双眼鏡であるが、望遠鏡やカメラなどの撮像機器であってもよい。光学機器50は基台8に保持されており、観測時には基台8から離脱して用いる。なお、支援装置本体20には、表示器9を備えている。
As shown in FIGS. 1 and 2, in this embodiment, the moving object is used in a ship 10, and the visual recognition support device is used in a bridge 6.
The ship 10 includes an AIS (automatic ship identification device) receiver 1, a GPS receiver 2, a gyrocompass 3, a three-axis angle sensor (attitude angle sensor) 4 as a hull attitude angle detection means, and a radar apparatus 5. The AIS receiver 1 can acquire other ship data as an object to be observed such as ship name, ship type, identification number, position, course, speed, navigation state, safety information, and the like. The GPS receiver 2 can acquire current position data regarding the ship. The gyrocompass 3 can acquire the course data of the ship. The triaxial angle sensor 4 can detect attitude angle data of yawing, rolling, and pitching caused by the ship's shaking. The radar device 5 can acquire azimuth data viewed from the own ship and distance data from the own ship with respect to the observation object existing within a certain range from the own ship, the azimuth of the other ship, the distance to the other ship, The reapproach distance and the time required for reapproach can be mainly determined. The course information of the other ship and the speed information of the other ship can also be obtained by plotting information acquired by the radar device 5. It can also be obtained as automatically processed information as ARPA (automatic collision prevention support apparatus) information. The ARPA information includes the direction of the other ship that is the object to be observed, the distance to the other ship, the course of the other ship, the speed, the predicted closest approach distance, the time required for the closest approach, and the like. In the AIS receiver 1, static information such as the ship name is updated every 6 minutes, and dynamic information is updated intermittently at intervals of 2 to 12 seconds depending on the running state. It is also possible to store and use complete information once.
In addition, the support device main body 20 and the optical device 50 are provided on the bridge 6 along with various measurement display devices such as the repeater compass 7. The optical device 50 is binoculars in the present embodiment, but may be an imaging device such as a telescope or a camera. The optical device 50 is held on the base 8 and is used by being detached from the base 8 at the time of observation. The support device main body 20 includes a display device 9.

次に、図3を用いて同目視視認支援装置の機能実現手段について説明する。
図3では、支援装置本体20と光学機器50とを示している。
支援装置本体20では、被観測物情報取得手段11、基本位置情報取得手段12、基本方位情報取得手段13a、基本姿勢角情報取得手段13bによってデータを継続的にリアルタイムで受け取る。ここで被観測物情報取得手段11は、例えばAISレシーバ1から、船舶の船名、船種、識別番号、位置、針路、速度、航行状態、安全情報などの、被観測物となる他船データを取得する。被観測物情報取得手段11では、AIS情報以外に、又はAIS情報とともに、ARPA情報、レーダー情報、GIS情報(ENC(電子海図)情報)、潮汐情報、天文情報を取得することもできる。基本位置情報取得手段12では、例えばGPSレシーバ2から、自船に関する現在位置データを取得する。基本方位情報取得手段13aでは、例えばジャイロコンパス3から自船の針路データを取得し、基本姿勢角情報取得手段13bでは例えば3軸角度センサ4から自船の揺れによって生じる船体姿勢角データを取得する。基本方位情報取得手段13aでは、GPSコンパスを用いることもできる。基本姿勢角情報取得手段13bでは、姿勢ジャイロ(3軸)を用いることで方位と姿勢角を得ることができる。
Next, the function realization means of the visual recognition assistance device will be described with reference to FIG.
FIG. 3 shows the support device main body 20 and the optical device 50.
In the support apparatus main body 20, data is continuously received in real time by the observation object information acquisition unit 11, the basic position information acquisition unit 12, the basic orientation information acquisition unit 13a, and the basic attitude angle information acquisition unit 13b. Here, the observation object information acquisition means 11 is, for example, from the AIS receiver 1, other ship data that becomes an observation object such as ship name, ship type, identification number, position, course, speed, navigation state, safety information, etc. To get. The observation object information acquisition means 11 can acquire ARPA information, radar information, GIS information (ENC (electronic chart) information), tide information, and astronomical information in addition to or together with the AIS information. The basic position information acquisition unit 12 acquires current position data related to the ship from, for example, the GPS receiver 2. The basic azimuth information acquisition means 13a acquires the course data of the own ship from, for example, the gyrocompass 3, and the basic attitude angle information acquisition means 13b acquires, for example, the hull attitude angle data generated by the shaking of the own ship from the triaxial angle sensor 4. . In the basic azimuth information acquisition means 13a, a GPS compass can also be used. The basic posture angle information acquisition unit 13b can obtain the azimuth and the posture angle by using the posture gyro (three axes).

被観測物情報取得手段11からの被観測物となる他船データは、被観測物情報記憶手段21に記憶される。なお、被観測物情報記憶手段21は、船舶10側の設備として設けてもよい。
基本位置情報取得手段12からの自船に関する現在位置データは、基本位置演算手段22において用いられ、光学機器50を保持する基台8の位置データを演算する。なお、自船の現在位置データを基台8の位置データとして用いることができる場合には、基本位置演算手段22での演算処理を要しない。基本方位情報取得手段13aからの針路データは、基本方位演算手段23において用いられ、基台8の方位、すなわち光学機器50の保持状態における基準方位を演算する。なお、針路データを基台8の方位として用いることができる場合には、基本方位演算手段23での演算処理を要しない。基本姿勢角情報取得手段13bからの姿勢角データは、基本姿勢角演算手段24において用いられ、基台8の姿勢角、すなわち光学機器50の保持状態における基準姿勢角を演算する。なお、姿勢角データを基台8の姿勢角として用いることができる場合には、基本姿勢角演算手段24での演算処理を要しない。
基本位置演算手段22で得た基本位置データは、基本位置記憶手段25に記憶される。
The other ship data as the observation object from the observation object information acquisition means 11 is stored in the observation object information storage means 21. The observed object information storage means 21 may be provided as equipment on the ship 10 side.
The current position data regarding the ship from the basic position information acquisition unit 12 is used in the basic position calculation unit 22 to calculate the position data of the base 8 holding the optical device 50. If the current position data of the ship can be used as the position data of the base 8, the calculation processing by the basic position calculation means 22 is not required. The course data from the basic azimuth information acquisition unit 13a is used in the basic azimuth calculation unit 23 to calculate the azimuth of the base 8, that is, the reference azimuth in the holding state of the optical device 50. If the course data can be used as the azimuth of the base 8, the calculation processing by the basic azimuth calculation means 23 is not required. The posture angle data from the basic posture angle information acquisition unit 13 b is used in the basic posture angle calculation unit 24 to calculate the posture angle of the base 8, that is, the reference posture angle in the holding state of the optical device 50. If the attitude angle data can be used as the attitude angle of the base 8, the calculation process by the basic attitude angle calculation means 24 is not required.
The basic position data obtained by the basic position calculation means 22 is stored in the basic position storage means 25.

被観測物演算手段26では、出力手段33dからのデータを元に、被観測物情報記憶手段21に記憶された被観測物に関し、被観測物までの距離、方位、俯仰角に関する新たなデータを算出する。
すなわち、被観測物について、光学機器50からの方位、距離、俯仰角を算出する。なお、被観測物までの距離と方位に関するデータは、レーダー装置5で得られる情報を基にしてもよく、被観測物演算手段26の代わりに被観測物情報取得手段11にて得ることもできる。そして被観測物に関しての基本位置からの方位データ、距離データ、及び俯仰角データは被観測物情報記憶手段21に追加データとして記憶される。なお、被観測物演算手段26にて算出された結果で、基本位置からの距離が所定範囲外にある被観測物に関しては、光学機器50での観測対象とならないため、基本位置からの方位データと距離データを追加する代わりに、被観測物情報記憶手段21から削除処理を行ってもよい。
In the observed object calculation means 26, new data on the distance to the observed object, the azimuth, and the elevation angle is obtained for the observed object stored in the observed object information storage means 21 based on the data from the output means 33d. calculate.
That is, the azimuth, distance, and elevation angle from the optical device 50 are calculated for the object to be observed. It should be noted that the data regarding the distance to the object to be observed and the direction may be based on information obtained by the radar device 5 or may be obtained by the object information acquiring unit 11 instead of the object calculating unit 26. . Then, the azimuth data, distance data, and elevation / elevation angle data from the basic position regarding the observed object are stored as additional data in the observed object information storage means 21. Note that, as a result of the calculation by the observation object calculation means 26, an observation object whose distance from the basic position is outside the predetermined range is not an observation target in the optical device 50, and therefore, the orientation data from the basic position. Instead of adding the distance data, the deletion processing may be performed from the observed object information storage unit 21.

基本方位演算手段23で得た基本方位データは、基本方位記憶手段27aに記憶され、基本姿勢角演算手段24で得た基本姿勢角データは、基本姿勢角記憶手段27bに記憶される。なお、基本方位演算手段23で得た基本方位データと、基本姿勢角演算手段24で得た基本姿勢角データとを、基本方位記憶手段27a、基本姿勢角記憶手段27bにて記憶させることなく、方位演算手段33a、姿勢角演算手段33bで演算してその結果を記憶させてもよい。   The basic azimuth data obtained by the basic azimuth calculation means 23 is stored in the basic azimuth storage means 27a, and the basic attitude angle data obtained by the basic attitude angle calculation means 24 is stored in the basic attitude angle storage means 27b. The basic azimuth data obtained by the basic azimuth calculation means 23 and the basic attitude angle data obtained by the basic attitude angle calculation means 24 are not stored in the basic azimuth storage means 27a and the basic attitude angle storage means 27b. The calculation may be performed by the azimuth calculating means 33a and the attitude angle calculating means 33b and the results may be stored.

支援装置本体20にはリセット手段51bを、光学機器50にはリセット手段51aを備えており、リセット手段51a、51bは、例えばスイッチで構成されており、光学機器50の基台8からの離脱を検知する。なお、本実施例では、リセット手段51a、51bは、光学機器50の基台8からの離脱を検知するものとして説明したが、光学機器50の機器方位、機器姿勢角、及び機器位置をリセットする機能を有すればよい。リセット手段51bは基台8に設けている。   The support apparatus main body 20 includes a reset unit 51b, and the optical device 50 includes a reset unit 51a. The reset units 51a and 51b include, for example, a switch, and the optical device 50 can be detached from the base 8. Detect. In the present embodiment, the reset means 51a and 51b have been described as detecting the separation of the optical device 50 from the base 8, but the device orientation, device posture angle, and device position of the optical device 50 are reset. It only needs to have a function. The reset means 51 b is provided on the base 8.

リセット手段51bでは、離脱を検知すると基本方位記憶手段27a、基本姿勢角記憶手段27b、及び基本位置記憶手段25に信号を送り、基本方位記憶手段27aでは、離脱時点での基台8の方位データを記憶し、基本姿勢角記憶手段27bでは離脱時点での基台8の姿勢角データを記憶し、基本位置記憶手段25では離脱時点での基台8の位置データを記憶する。
リセット手段51aでは、離脱を検知すると機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cに信号を送り、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cでは、それぞれ機器方位、機器姿勢角、機器位置の検出を開始する。機器方位検出手段52aでは、方位(Bearing・・・Yaw成分を基に演算)を例えば姿勢角センサ(3軸)を用いて検出し、機器姿勢角検出手段52bでは、Pitch成分とRoll成分を例えば姿勢角センサ(3軸)を用いて検出し、機器位置検出手段52cでは、機器位置を例えば姿勢角センサ(3軸)とタイマー(計時手段)を用いて検出し、それぞれ離脱時の検出データを基準位置とした、機器方位、機器姿勢角、及び機器位置の変位データを検出する。なお、姿勢角センサは、1軸あるいは2軸タイプの姿勢角センサを組み合わせて使用することもできる。ここで、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cは光学機器50に備え付けられたものであり、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cでは光学機器50自体の機器方位、機器姿勢角、及び機器位置を検出する。なお、機器方位検出手段52aには加速度センサとミニジャイロセンサを用い、機器姿勢角検出手段52bには傾斜センサを用い、機器位置検出手段52cにはGPSや超音波センサを用いてもよい。
The reset means 51b sends a signal to the basic azimuth storage means 27a, the basic attitude angle storage means 27b, and the basic position storage means 25 when the separation is detected, and the basic azimuth storage means 27a sends the azimuth data of the base 8 at the time of departure. The basic posture angle storage means 27b stores the posture angle data of the base 8 at the time of separation, and the basic position storage means 25 stores the position data of the base 8 at the time of separation.
When the resetting unit 51a detects separation, the resetting unit 51a sends a signal to the device orientation detection unit 52a, the device posture angle detection unit 52b, and the device position detection unit 52c, and the device direction detection unit 52a, the device posture angle detection unit 52b, and the device position detection. The means 52c starts detecting the device orientation, the device attitude angle, and the device position, respectively. In the device orientation detection means 52a, the orientation (calculated based on the Bearing ... Yaw component) is detected using, for example, an attitude angle sensor (three axes), and in the equipment orientation angle detection means 52b, the Pitch component and Roll component are detected, for example. The device position detecting means 52c detects the position of the device using, for example, a posture angle sensor (three axes) and a timer (time measuring means), and detects the detection data at the time of separation. The device orientation, the device attitude angle, and the displacement data of the device position as the reference position are detected. Note that the attitude angle sensor can be used in combination with a single-axis or biaxial attitude angle sensor. Here, the device orientation detection unit 52a, the device attitude angle detection unit 52b, and the device position detection unit 52c are provided in the optical device 50, and the device orientation detection unit 52a, the device attitude angle detection unit 52b, and the device position are provided. The detection means 52c detects the device orientation, device posture angle, and device position of the optical device 50 itself. Note that an acceleration sensor and a mini gyro sensor may be used for the device orientation detection unit 52a, a tilt sensor may be used for the device posture angle detection unit 52b, and a GPS or an ultrasonic sensor may be used for the device position detection unit 52c.

機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cで検出されるデータは、機器側送信手段53から継続的にリアルタイムで本体側受信手段31に送信される。機器側送信手段53と本体側受信手段31とは有線によるデータ送信でもよいが、無線によるデータ送信が好ましい。
本体側受信手段31で受信する機器方位データは機器方位記憶手段32aに記憶され、本体側受信手段31で受信する機器姿勢角データは機器姿勢角記憶手段32bに記憶され、本体側受信手段31で受信する機器位置データは機器位置記憶手段32cに記憶される。
Data detected by the device orientation detection unit 52a, the device attitude angle detection unit 52b, and the device position detection unit 52c is continuously transmitted from the device side transmission unit 53 to the main body side reception unit 31 in real time. The device side transmission means 53 and the main body side reception means 31 may be wired data transmission, but wireless data transmission is preferred.
The equipment orientation data received by the main body side receiving means 31 is stored in the equipment orientation storage means 32a, and the equipment attitude angle data received by the main body side receiving means 31 is stored in the equipment attitude angle storage means 32b. The received device position data is stored in the device position storage means 32c.

方位演算手段33aでは、基本方位記憶手段27aに記憶された離脱時における基本方位データと、機器方位記憶手段32aに記憶された機器方位データとから、光学機器50が観測ターゲットとする方位を算出する。すなわち、方位演算手段33aでは、離脱時における基本方位データを基準にして、機器方位データを用いてその後の光学機器50の方位を演算する。
姿勢角演算手段33bでは、基本姿勢角記憶手段27bに記憶された離脱時における基本姿勢角データと、機器姿勢角記憶手段32bに記憶された機器姿勢角データとから、光学機器50が観測ターゲットとする俯仰角を算出する。すなわち、姿勢角演算手段33bでは、離脱時における基本姿勢角データを基準にして、機器姿勢角データを用いてその後の光学機器50の機器姿勢角を演算する。
位置演算手段33cでは、基本位置記憶手段25に記憶された離脱時における基本位置データと、機器位置記憶手段32cに記憶された機器位置データとから、光学機器50の位置を算出する。すなわち、位置演算手段33cでは、離脱時における基本位置データを基準にして、機器位置データを用いてその後の光学機器50の位置を演算する。
In the azimuth calculating means 33a, the azimuth to be observed by the optical device 50 is calculated from the basic azimuth data at the time of departure stored in the basic azimuth storage means 27a and the equipment azimuth data stored in the equipment azimuth storage means 32a. . That is, the azimuth calculating means 33a calculates the azimuth of the optical device 50 thereafter using the device azimuth data with reference to the basic azimuth data at the time of separation.
In the attitude angle calculation means 33b, the optical instrument 50 is selected as the observation target from the basic attitude angle data at the time of separation stored in the basic attitude angle storage means 27b and the equipment attitude angle data stored in the equipment attitude angle storage means 32b. Calculate the elevation angle. That is, the posture angle calculation means 33b calculates the device posture angle of the optical device 50 thereafter using the device posture angle data with reference to the basic posture angle data at the time of separation.
The position calculation means 33c calculates the position of the optical device 50 from the basic position data at the time of separation stored in the basic position storage means 25 and the equipment position data stored in the equipment position storage means 32c. That is, the position calculation means 33c calculates the subsequent position of the optical device 50 using the device position data with reference to the basic position data at the time of separation.

方位演算手段33a、姿勢角演算手段33b、及び位置演算手段33cで演算されたデータは、出力手段33dから継続的にリアルタイムで被観測物演算手段26及び観測エリア演算手段34に出力される。
観測エリア演算手段34では、出力手段33dから出力されるデータを用いて観測エリアを算出する。すなわち、観測エリア演算手段34では、現在位置を基準にした光学機器50での観測エリアの中心の方位と俯仰角を算出し、光学機器50における視野角に応じて範囲が決定される。光学機器50において倍率変更が可能な場合には、それぞれの倍率に応じた視野角があらかじめ設定されている。
Data calculated by the azimuth calculating means 33a, the attitude angle calculating means 33b, and the position calculating means 33c are continuously output from the output means 33d to the observation object calculating means 26 and the observation area calculating means 34 in real time.
The observation area calculation means 34 calculates the observation area using the data output from the output means 33d. That is, the observation area calculation means 34 calculates the azimuth and elevation angle of the center of the observation area in the optical device 50 based on the current position, and the range is determined according to the viewing angle in the optical device 50. When the magnification can be changed in the optical device 50, a viewing angle corresponding to each magnification is set in advance.

第1表示情報生成手段35では、観測エリア演算手段34によって得られる方位データ又は俯仰角データを表示データとして生成する。また、必要に応じて位置データを表示データとして生成することもできる。
表示対象情報抽出手段36では、観測エリアに対応する被観測物に関するデータを抽出する。
すなわち、観測エリア演算手段34で算出された観測エリアを特定する方位範囲データ及び俯仰角範囲データを用いて、観測エリア内に相当する被観測情報記憶手段21に記憶された方位データ、距離データや船名、識別番号などの被観測物に関する情報を取り込む。
なお、ここで抽出される被観測物が複数存在する場合、全てを抽出してもよいが、基台8に近い距離にある被観測物に関するデータを優先して抽出することも有効である。
また、観測ターゲットを含む被観測物に関する情報を、観測ターゲットの前後の所定の範囲で抽出し、被観測物が輻輳して存在する場合に分かり易い表示に繋げることも有効である。
第2表示情報生成手段37では、表示対象情報抽出手段36で抽出された被観測物に関するデータを表示データとして生成する。
観測エリアを算出に当たって光学機器50の現在位置データを用いた場合は、被観測物情報記憶手段21に記憶されている方位データや距離データの補正を行うことにより、精度が向上できる。
第1表示情報生成手段35及び第2表示情報生成手段37で生成された表示データは、本体側送信手段38によって継続的にリアルタイムで送信される。
The first display information generating means 35 generates the azimuth data or the elevation angle data obtained by the observation area calculating means 34 as display data. Further, the position data can be generated as display data as required.
The display target information extraction unit 36 extracts data related to the observation object corresponding to the observation area.
That is, using the azimuth range data and the elevation angle range data specifying the observation area calculated by the observation area calculation means 34, the azimuth data, distance data, and the like stored in the observed information storage means 21 corresponding to the observation area Captures information about the observed object such as ship name and identification number.
In addition, when there are a plurality of objects to be extracted that are extracted here, all of them may be extracted, but it is also effective to preferentially extract data relating to objects to be observed at a distance close to the base 8.
It is also effective to extract information about the observed object including the observation target in a predetermined range before and after the observation target, and to connect it to an easily understandable display when the observed object is congested.
The second display information generating means 37 generates data relating to the observation object extracted by the display target information extracting means 36 as display data.
When the current position data of the optical device 50 is used in calculating the observation area, the accuracy can be improved by correcting the azimuth data and the distance data stored in the observed object information storage means 21.
The display data generated by the first display information generation means 35 and the second display information generation means 37 is continuously transmitted in real time by the main body side transmission means 38.

光学機器50には、周囲環境に表示データを重畳表示する映写手段54を備えている。本体側送信手段38によって送信される表示データは、機器側受信手段55によって受信され、映写手段54に送られる。従って、映写手段54では、リアルタイムに表示データを映し出すことができる。なお、映写手段54は重畳表示以外にも各種の方法が選択可能である。
固定取込手段59は、映写手段54の表示を固定的に取り込む機能で、操作によって行われる。すなわち、固定取込手段59によって、撮像信号出力手段57で送信する撮像データを、静止画像データとして映像データ記憶手段40に記憶させ、静止画像データとして固定的な表示によるデータ内容の再確認を行える。また、固定取込手段59では、撮像信号出力手段57に対して信号を送信するタイミングで機器側送信手段53からもデータを送信し、第1表示情報生成手段35や第2表示情報生成手段37からの表示データも静止画像データとして映像データ記憶手段40に記憶させる。なお、取込むデータは動画像データであっても構わない。この場合、固定取込手段59は操作がされたときを起点として、再操作がされる迄、あるいは所定の時間にわたり動画像データを取り込む。
ここで、本体側送信手段38と機器側受信手段55とは有線によるデータ送信でもよいが、無線によるデータ送信が好ましい。
The optical device 50 includes a projection unit 54 that superimposes display data on the surrounding environment. The display data transmitted by the main body side transmission means 38 is received by the device side reception means 55 and sent to the projection means 54. Therefore, the projection means 54 can project the display data in real time. The projection means 54 can select various methods other than the superimposed display.
The fixed capture means 59 is a function that captures the display of the projection means 54 in a fixed manner, and is performed by an operation. That is, the imaging data transmitted by the imaging signal output unit 57 is stored in the video data storage unit 40 as still image data by the fixed capturing unit 59, and the data content can be reconfirmed by fixed display as still image data. . The fixed capture means 59 also transmits data from the device-side transmission means 53 at the timing of transmitting a signal to the imaging signal output means 57, and the first display information generation means 35 and the second display information generation means 37. Display data is also stored in the video data storage means 40 as still image data. Note that the captured data may be moving image data. In this case, the fixed capture means 59 captures the moving image data from the time when the operation is performed until the operation is performed again or for a predetermined time.
Here, the main body side transmission means 38 and the device side reception means 55 may be wired data transmission, but wireless data transmission is preferable.

光学機器50に内蔵されているバッテリー58には、支援装置本体20の電力供給手段41から電力が供給される。電力供給手段41からの電力の供給は、光学機器50と支援装置本体20との接触によって行う場合でも、非接触によって行う場合でもよい。
光学機器50には、観測ターゲットとしている観測エリアにある周囲環境を撮像する撮像手段56と、この撮像手段56で撮像した撮像データを出力する撮像信号出力手段57を備えていることが好ましい。この場合には、支援装置本体20には撮像信号入力手段39を備え、撮像信号入力手段39では、撮像信号出力手段57から出力される撮像データを受信して映像データ記憶手段40に記憶する。映像データ記憶手段40には、第1表示情報生成手段35及び第2表示情報生成手段37で生成した表示データについても撮像データとともに記憶する。映像データ記憶手段40に記憶される撮像データ及び表示データは、表示器9によって表示し、データ内容を再確認できる。なお、映像データ記憶手段40に記憶されたデータは、映写手段54に表示させてもよい。
The battery 58 built in the optical device 50 is supplied with power from the power supply means 41 of the support apparatus body 20. The power supply from the power supply means 41 may be performed by contact between the optical device 50 and the support apparatus main body 20 or may be performed by non-contact.
The optical device 50 preferably includes an imaging unit 56 that images the surrounding environment in the observation area that is an observation target, and an imaging signal output unit 57 that outputs imaging data captured by the imaging unit 56. In this case, the support apparatus main body 20 includes an imaging signal input unit 39, and the imaging signal input unit 39 receives imaging data output from the imaging signal output unit 57 and stores it in the video data storage unit 40. The video data storage unit 40 also stores the display data generated by the first display information generation unit 35 and the second display information generation unit 37 together with the imaging data. The imaging data and display data stored in the video data storage means 40 can be displayed by the display unit 9, and the data contents can be reconfirmed. Note that the data stored in the video data storage unit 40 may be displayed on the projection unit 54.

なお、上記実施形態では、被観測物情報取得手段11としてAISレシーバ1を適用した場合で説明したが、レーダー装置5からのデータを被観測物情報取得手段11として用いることもできる。この場合には、レーダー装置5では、被観測物について、自船から見た方位データと自船からの距離データを取得することができるため、被観測物演算手段26での処理を行う必要がない。また、AISレシーバ1又はレーダー装置5とともにARPA装置(自動衝突予防援助装置)による被観測物情報を用いることも有効である。
また、基台8に対する光学機器50の機器位置を検出する位置検出手段を設けることで、光学機器50を基台8から離れた場所にて用いることもできる。
In the above embodiment, the case where the AIS receiver 1 is applied as the observation object information acquisition unit 11 has been described. However, data from the radar device 5 can also be used as the observation object information acquisition unit 11. In this case, since the radar device 5 can acquire the azimuth data viewed from the own ship and the distance data from the own ship with respect to the observed object, it is necessary to perform processing by the observed object calculation means 26. Absent. It is also effective to use object information by an ARPA device (automatic collision prevention assistance device) together with the AIS receiver 1 or the radar device 5.
In addition, by providing a position detection unit that detects the device position of the optical device 50 with respect to the base 8, the optical device 50 can be used at a place away from the base 8.

また、上記実施形態では、支援装置本体20にリセット手段51bを、光学機器50にリセット手段51aを設けたが、いずれか一方だけを設けてもよい。この場合には、例えばリセット手段51bだけを設けた場合には、離脱時点でリセット手段51bから機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cに信号を送ることで、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cでの検出を開始する。
また、光学機器50の累積誤差の解消の目的で、光学機器50を基台8に戻さなくても、光学機器50からの指示(更新ボタンを押す等)で機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cをリセットして、機器方位、機器姿勢角、及び機器位置の更新を行い、これを新たな起点として演算を行うこともできる。
Moreover, in the said embodiment, although the reset means 51b was provided in the support apparatus main body 20, and the reset means 51a was provided in the optical apparatus 50, you may provide only any one. In this case, for example, when only the reset unit 51b is provided, a signal is sent from the reset unit 51b to the device orientation detection unit 52a, the device attitude angle detection unit 52b, and the device position detection unit 52c when leaving. Detection by the device orientation detection unit 52a, the device attitude angle detection unit 52b, and the device position detection unit 52c is started.
Further, for the purpose of eliminating the accumulated error of the optical device 50, the device orientation detection means 52a and the device attitude angle can be received by an instruction from the optical device 50 (such as pressing an update button) without returning the optical device 50 to the base 8. It is also possible to reset the detection unit 52b and the device position detection unit 52c, update the device orientation, the device attitude angle, and the device position, and perform calculation using this as a new starting point.

次に、図4を用いて同目視視認支援装置に用いる光学機器の要部構成について説明する。
図4に示すように、光学機器50として双眼鏡を用いる場合には、対物レンズ60aと接眼レンズ60bとの間には、対物レンズ側ポロプリズム61と接眼レンズ側ポロプリズム62とが配置されている。対物レンズ側ポロプリズム61の反射面には、入射光用直角プリズム63を、接眼レンズ側ポロプリズム62の反射面には、出射光用直角プリズム64をそれぞれ配置する。対物レンズ側ポロプリズム61の反射面、又は入射光用直角プリズム63における対物レンズ側ポロプリズム61の反射面との当接面には、屈折率調整用のコーティング65を施している。また、接眼レンズ側ポロプリズム62の反射面、又は出射光用直角プリズム64における接眼レンズ側ポロプリズム62の反射面との当接面には、屈折率調整用のコーティング66を施している。そして、入射光用直角プリズム63に対向させた位置に映写手段54を配置し、出射光用直角プリズム64に対向させた位置に撮像手段56を配置する。
Next, the principal part structure of the optical apparatus used for the visual recognition assistance apparatus is demonstrated using FIG.
As shown in FIG. 4, when binoculars are used as the optical device 50, an objective lens side Porro prism 61 and an eyepiece side Porro prism 62 are disposed between the objective lens 60a and the eyepiece lens 60b. . A right-angle prism 63 for incident light is disposed on the reflection surface of the poro prism 61 on the objective lens side, and a right-angle prism 64 for outgoing light is disposed on the reflection surface of the eyepiece-side poro prism 62. A refractive index-adjusting coating 65 is provided on the reflecting surface of the objective lens side Porro prism 61 or the contact surface of the incident light right angle prism 63 with the reflecting surface of the objective lens side Porro prism 61. Further, a coating 66 for adjusting the refractive index is applied to the contact surface of the eyepiece lens side Porro prism 62 or the contact surface of the outgoing light right angle prism 64 with the eyepiece lens side Porro prism 62. Then, the projection means 54 is disposed at a position facing the incident light right-angle prism 63, and the imaging means 56 is disposed at a position facing the incident light right-angle prism 64.

上記構成とすることで、映写手段54における表示情報は、入射光用直角プリズム63に入射した後、コーティング65によって対物レンズ側ポロプリズム61に入射され、対物レンズ60aからの入射光に重畳して接眼レンズ側ポロプリズム62に入射される。
対物レンズ60aからの入射光に重畳した表示情報は、接眼レンズ側ポロプリズム62の反射面において、反射光と透過光に分離し、透過光は出射光用直角プリズム64から出射され、撮像手段56によって撮像される。
なお、上記実施形態では、双眼鏡を想定して説明したが、電子カメラのような光学機器を用いた場合には、光学機器が備えているディスプレイ及び撮像素子を映写手段54及び撮像手段56として用いることができ、この場合には映像データ記憶手段40を光学機器50に備えていてもよい。
また、図4では、映写手段54や撮像手段56の構成を例示的に説明するための便宜上の概念図を示すものであり、実際はプリズムの組み合わせ方が異なり、接眼レンズ60bで見た像が正立するようになっている。
With the above configuration, the display information in the projection unit 54 is incident on the right-angle prism 63 for incident light, then is incident on the objective lens side porro prism 61 by the coating 65, and is superimposed on the incident light from the objective lens 60a. The light enters the eyepiece side Porro prism 62.
The display information superimposed on the incident light from the objective lens 60a is separated into reflected light and transmitted light on the reflecting surface of the eyepiece lens side Porro prism 62, and the transmitted light is emitted from the output light right-angle prism 64, and the imaging means 56 is used. Is imaged.
Although the above embodiment has been described assuming binoculars, when an optical device such as an electronic camera is used, a display and an image sensor provided in the optical device are used as the projection unit 54 and the imaging unit 56. In this case, the video data storage means 40 may be provided in the optical device 50.
FIG. 4 is a conceptual diagram for convenience in explaining the configuration of the projection unit 54 and the imaging unit 56. In actuality, the combination of the prisms is different, and the image viewed with the eyepiece 60b is correct. It comes to stand.

次に、図5を用いて同目視視認支援装置での表示状態について説明する。
図5(a)は、船舶の船橋6から見える周囲環境の一部を示しており、図5(b)(c)(d)(e)は、それぞれ双眼鏡における観測エリア(図5(a)中に記載した円(b)(c)(d)(e))を示している。
まず、図5(a)に示すように、周囲環境中には、被観測物として、客船71、タンカー72、及び灯台73が見えている。
図5(b)では、光学機器50としての双眼鏡での観測ターゲットの方位が360°であることが表示されている。この方位360°は、第1表示情報生成手段35で生成された表示データである。X記号74は、固定表示であり第1表示情報生成手段35からの表示データとともに送信されるデータでも、光学機器50に備えた表示であってもよい。方位360°は、X記号74の交点の位置での方位を表しており、X記号74の交点は、観測ターゲットとなる。
Next, the display state in the visual recognition assistance device will be described with reference to FIG.
FIG. 5A shows a part of the surrounding environment that can be seen from the bridge 6 of the ship. FIGS. 5B, 5C, 5D, and 5E show the observation areas in the binoculars (FIG. 5A). Circles (b), (c), (d), and (e) described in the figure are shown.
First, as shown in FIG. 5A, a passenger ship 71, a tanker 72, and a lighthouse 73 are visible as objects to be observed in the surrounding environment.
In FIG. 5B, it is displayed that the orientation of the observation target with binoculars as the optical device 50 is 360 °. This azimuth 360 ° is display data generated by the first display information generating means 35. The X symbol 74 is a fixed display and may be data transmitted together with the display data from the first display information generating means 35 or a display provided in the optical device 50. The azimuth 360 ° represents the azimuth at the intersection point of the X symbol 74, and the intersection point of the X symbol 74 is an observation target.

図5(c)では、観測ターゲットの方位が20°に変更されるとともに、水平線表示75が表示されている。ここで、観測ターゲットの方位及び水平線表示75は、第1表示情報生成手段35で生成された表示データであり、俯仰角データを数字ではなく水平線データとして表示することもできる。なお、第1表示情報生成手段35から送信されて表示される方位表示や水性線表示はリアルタイムに表示され、図5(b)から図5(c)への移行時にもそれぞれの位置でのデータが表示される。
また、図5(c)では、客船71及びタンカー72が観測エリア内に入っているので、この客船71及びタンカー72に関する、船首方向表示76、及び船名や客船までの距離などの被観測物情報表示77が表示されている。船首方向表示76及び被観測物情報表示77は、第2表示情報生成手段37で生成された表示データである。なお、表示対象情報抽出手段36において、近い距離にある被観測物に関するデータを優先して抽出して表示させてもよい。複数の被観測物が存在する場合には、全てを表示することも、いくつかを優先的に表示することもできる。また、遠い距離にある被観測物を優先し、又は選択的に切り替える手段を設けてもよい。なお、被観測物が輻輳して存在する場合には、観測ターゲットを含む被観測物に関する情報を、観測ターゲットの前後の所定の範囲で抽出して表示することにより、分かり易く表示できる。
In FIG. 5C, the azimuth of the observation target is changed to 20 °, and a horizontal line display 75 is displayed. Here, the azimuth and horizontal line display 75 of the observation target is display data generated by the first display information generating unit 35, and the elevation angle data can be displayed as horizontal line data instead of numbers. Note that the azimuth display and water line display transmitted from the first display information generating means 35 and displayed are displayed in real time, and data at each position is also displayed when shifting from FIG. 5B to FIG. 5C. Is displayed.
In FIG. 5C, since the cruise ship 71 and the tanker 72 are in the observation area, the bow direction display 76 and the observation object such as the ship name and the distance to the cruise ship regarding the cruise ship 71 and the tanker 72 are displayed. An information display 77 is displayed. The bow direction display 76 and the observed object information display 77 are display data generated by the second display information generating means 37. Note that the display object information extraction unit 36 may preferentially extract and display data related to the observed object at a short distance. When there are a plurality of objects to be observed, all of them can be displayed, or some can be displayed with priority. In addition, a means for giving priority to or selectively switching an observation object at a far distance may be provided. If the observed object is present in a congested state, it can be displayed in an easy-to-understand manner by extracting and displaying information about the observed object including the observed target in a predetermined range before and after the observed target.

図5(d)では、タンカー72が観測エリア内に入っているので、このタンカー72に関する、船首方向表示76、及び船名や客船までの距離などの被観測物情報表示77が表示されている。船首方向表示76及び被観測物情報表示77は、第2表示情報生成手段37で生成された表示データである。なお、図5(d)では、観測ターゲットの方位が25°に変更されるとともに、水平線表示75も表示されている。ここで、観測ターゲットの方位及び水平線表示75は、第1表示情報生成手段35で生成された表示データである。
図5(e)では、灯台73が観測エリア内に入っているので、この灯台73に関する、灯台位置表示79、及び被観測物表示78が表示されている。灯台位置表示79及び被観測物情報表示78は、第2表示情報生成手段37で生成された表示データである。なお、図5(e)では、観測ターゲットの方位が85°に変更されるとともに、水平線表示75も表示されている。ここで、観測ターゲットの方位及び水平線表示75は、第1表示情報生成手段35で生成された表示データである。
In FIG. 5D, since the tanker 72 is in the observation area, a bow direction display 76 and an object information display 77 such as a ship name and a distance to the passenger ship regarding the tanker 72 are displayed. . The bow direction display 76 and the observed object information display 77 are display data generated by the second display information generating means 37. In FIG. 5D, the azimuth of the observation target is changed to 25 ° and a horizontal line display 75 is also displayed. Here, the azimuth and horizontal line display 75 of the observation target is display data generated by the first display information generation unit 35.
In FIG. 5E, since the lighthouse 73 is in the observation area, the lighthouse position display 79 and the observation object display 78 relating to the lighthouse 73 are displayed. The lighthouse position display 79 and the observed object information display 78 are display data generated by the second display information generating means 37. In FIG. 5 (e), the orientation of the observation target is changed to 85 °, and a horizontal line display 75 is also displayed. Here, the azimuth and horizontal line display 75 of the observation target is display data generated by the first display information generation unit 35.

次に、図6を用いて他の実施形態による目視視認支援装置について説明する。
本実施形態による目視視認支援装置は、移動体として車両に用いた場合であり、図6は同目視視認支援装置を機能実現手段で表したブロック図である。なお、上記実施形態と同一機能手段については同一符号を付して説明を一部省略する。この場合、支援装置本体20は、車両に搭載した例えば、中継器や光学機器50のホルダーから構成される。
支援装置本体20では、被観測物情報取得手段11、基本位置情報取得手段12、基本方位情報取得手段13a、基本姿勢角情報取得手段13bによってデータを継続的にリアルタイムで受け取る。ここで被観測物情報取得手段11は、例えばGISレシーバ1からインターチェンジ、駐車場、サービスエリア、パーキングエリア、その他道の駅や建造物などの被観測物となるデータを取得する。被観測物としての建造物や地理情報は、緯度経度などの位置情報とともに高さや名前その他の情報が含まれている。被観測物情報取得手段11では、GIS情報以外に、又はGIS情報とともに、乗物情報や天文情報を用いることもできる。基本位置情報取得手段12では、例えばGPSレシーバ2から車両の現在位置データを取得する。基本方位情報取得手段13aでは、例えばジャイロコンパス3から車両の走行方向データを取得し、基本姿勢角情報取得手段13bでは例えば3軸角度センサ4から車両の傾きによって生じる移動体姿勢角データを取得する。基本方位情報取得手段13aでは、GPSコンパスを用いることもできる。基本姿勢角情報取得手段13bでは、姿勢ジャイロ(3軸)を用いることができる。
Next, the visual recognition assistance apparatus by other embodiment is demonstrated using FIG.
The visual and visual assistance device according to the present embodiment is a case where the visual and visual assistance device is used as a moving body in a vehicle, and FIG. 6 is a block diagram showing the visual and visual assistance device by function realizing means. In addition, about the same function means as the said embodiment, the same code | symbol is attached | subjected and description is partially abbreviate | omitted. In this case, the support apparatus main body 20 is comprised from the holder of the repeater and the optical apparatus 50 mounted in the vehicle, for example.
In the support apparatus main body 20, data is continuously received in real time by the observation object information acquisition unit 11, the basic position information acquisition unit 12, the basic orientation information acquisition unit 13a, and the basic attitude angle information acquisition unit 13b. Here, the observation object information acquisition means 11 acquires data that becomes an observation object such as an interchange, a parking lot, a service area, a parking area, and other road stations and buildings from the GIS receiver 1, for example. The building and geographic information as an observation object include height, name, and other information along with position information such as latitude and longitude. The observation object information acquisition means 11 can use vehicle information and astronomy information in addition to GIS information or together with GIS information. The basic position information acquisition unit 12 acquires the current position data of the vehicle from the GPS receiver 2, for example. The basic azimuth information acquisition unit 13a acquires vehicle travel direction data from, for example, the gyrocompass 3, and the basic attitude angle information acquisition unit 13b acquires, for example, mobile body posture angle data generated by the inclination of the vehicle from the triaxial angle sensor 4. . In the basic azimuth information acquisition means 13a, a GPS compass can also be used. In the basic posture angle information acquisition unit 13b, a posture gyro (three axes) can be used.

リセット手段51bでは、光学機器50の中継器又はホルダーからの離脱を検知すると基本方位記憶手段27a、基本姿勢角記憶手段27b、及び基本位置記憶手段25に信号を送り、基本方位記憶手段27aでは、離脱時点での中継器又はホルダーの方位データを記憶し、基本姿勢角記憶手段27bでは離脱時点での中継器又はホルダーの姿勢角データを記憶し、基本位置記憶手段25では離脱時点での中継器又はホルダーの位置データを記憶する。
リセット手段51aでは、離脱を検知すると機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cに信号を送り、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cでは、それぞれ機器方位、機器姿勢角、機器位置の検出を開始する。機器方位検出手段52aでは、方位(Bearing・・・Yaw成分を基に演算)を例えば姿勢角センサ(3軸)を用いて検出し、機器姿勢角検出手段52bでは、Pitch成分とRoll成分を例えば姿勢角センサ(3軸)を用いて検出し、機器位置検出手段52cでは、機器位置を例えば姿勢角センサ(3軸)とタイマー(計時手段)を用いて検出し、それぞれ離脱時の検出データを基準位置とした、機器方位、機器姿勢角、及び機器位置の変位データを検出する。なお、姿勢角センサは、1軸あるいは2軸タイプの姿勢角センサを組み合わせて使用することもできる。ここで、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cは光学機器50に備え付けられたものであり、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cでは光学機器50自体の機器方位、機器姿勢角、及び機器位置を検出する。なお、機器方位検出手段52aには加速度センサとミニジャイロセンサを用い、機器姿勢角検出手段52bには傾斜センサを用い、機器位置検出手段52cにはGPSや超音波センサを用いてもよい。
本実施形態による支援装置本体20は、車両に設置されて用いられる。
なお、移動体としては、車両の他に航空機に用いることもできる。また、支援装置本体20をキャリーバックとして人とともに移動可能なものとしてもよい。
The reset means 51b sends a signal to the basic azimuth storage means 27a, the basic attitude angle storage means 27b, and the basic position storage means 25 when it detects the separation of the optical device 50 from the repeater or holder. In the basic azimuth storage means 27a, The orientation data of the repeater or the holder at the time of separation is stored, the orientation angle storage means 27b stores the orientation angle data of the repeater or the holder at the time of separation, and the basic position storage means 25 stores the repeater at the time of separation. Alternatively, the holder position data is stored.
When the resetting unit 51a detects separation, the resetting unit 51a sends a signal to the device orientation detection unit 52a, the device posture angle detection unit 52b, and the device position detection unit 52c, and the device direction detection unit 52a, the device posture angle detection unit 52b, and the device position detection. The means 52c starts detecting the device orientation, the device attitude angle, and the device position, respectively. In the device orientation detection means 52a, the orientation (calculated based on the Bearing ... Yaw component) is detected using, for example, an attitude angle sensor (three axes), and in the equipment orientation angle detection means 52b, the Pitch component and Roll component are detected, for example. The device position detecting means 52c detects the position of the device using, for example, a posture angle sensor (three axes) and a timer (time measuring means), and detects the detection data at the time of separation. The device orientation, the device attitude angle, and the displacement data of the device position as the reference position are detected. Note that the attitude angle sensor can be used in combination with a single-axis or biaxial attitude angle sensor. Here, the device orientation detection unit 52a, the device attitude angle detection unit 52b, and the device position detection unit 52c are provided in the optical device 50, and the device orientation detection unit 52a, the device attitude angle detection unit 52b, and the device position are provided. The detection means 52c detects the device orientation, device posture angle, and device position of the optical device 50 itself. Note that an acceleration sensor and a mini gyro sensor may be used for the device orientation detection unit 52a, a tilt sensor may be used for the device posture angle detection unit 52b, and a GPS or an ultrasonic sensor may be used for the device position detection unit 52c.
The support apparatus main body 20 according to the present embodiment is installed and used in a vehicle.
In addition, as a moving body, it can also use for an aircraft other than a vehicle. Moreover, it is good also as a thing which can be moved with a person by using the assistance apparatus main body 20 as a carry-back.

次に、図7を用いて他の実施形態による目視視認支援装置について説明する。
本実施形態による目視視認支援装置は、移動体として人が持ち運ぶ場合であり、図7は同目視視認支援装置を機能実現手段で表したブロック図である。なお、上記実施形態と同一機能手段については同一符号を付して説明を一部省略する。
支援機能部20では、被観測物情報取得手段11、基本位置情報取得手段12、基本方位情報取得手段13a、基本姿勢角情報取得手段13bによってデータを継続的にリアルタイムで受け取る。ここで被観測物情報取得手段11は、例えばGISレシーバ1から観光スポット、店、山、その他建造物などの被観測物となるデータを取得する。被観測物としての建造物や地理情報は、緯度経度などの位置情報とともに高さや名前その他の情報が含まれている。被観測物情報取得手段11では、GIS情報以外に、又はGIS情報とともに、乗物情報や天文情報を用いることもできる。基本位置情報取得手段12では、例えばGPSレシーバ2から人の現在位置データを取得する。基本方位情報取得手段13aでは、例えばジャイロコンパス3から人の進行方向データを取得し、基本姿勢角情報取得手段13bでは例えば3軸角度センサ4から人の傾きによって生じる移動体姿勢角データを取得する。基本方位情報取得手段13aでは、磁気コンパスやGPSコンパスを用いることもできる。基本姿勢角情報取得手段13bでは、傾斜センサを用いることができる。
Next, the visual recognition assistance apparatus by other embodiment is demonstrated using FIG.
The visual and visual assistance device according to the present embodiment is a case where a person carries it as a moving body, and FIG. 7 is a block diagram showing the visual and visual assistance device by function realizing means. In addition, about the same function means as the said embodiment, the same code | symbol is attached | subjected and description is partially abbreviate | omitted.
In the support function unit 20, data is continuously received in real time by the observation object information acquisition unit 11, the basic position information acquisition unit 12, the basic orientation information acquisition unit 13a, and the basic attitude angle information acquisition unit 13b. Here, the observation object information acquisition unit 11 acquires data that becomes an observation object such as a tourist spot, a store, a mountain, and other structures from the GIS receiver 1, for example. The building and geographic information as an observation object include height, name, and other information along with position information such as latitude and longitude. The observation object information acquisition means 11 can use vehicle information and astronomy information in addition to GIS information or together with GIS information. The basic position information acquisition unit 12 acquires the current position data of the person from the GPS receiver 2, for example. The basic azimuth information acquisition unit 13a acquires human traveling direction data from, for example, the gyrocompass 3, and the basic posture angle information acquisition unit 13b acquires, for example, mobile body posture angle data generated by the human inclination from the triaxial angle sensor 4. . In the basic azimuth information acquisition means 13a, a magnetic compass or a GPS compass can be used. In the basic attitude angle information acquisition unit 13b, an inclination sensor can be used.

リセット手段51bでは、人為的操作によってスイッチが押されたことを検知し、又は所定時間の経過を検知すると基本方位記憶手段27a、基本姿勢角記憶手段27b、及び基本位置記憶手段25に信号を送り、基本方位記憶手段27aでは、検知時点をリセット時として支援機能部20又は光学機器50の方位データを記憶し、基本姿勢角記憶手段27bではリセット時点での支援機能部20又は光学機器50姿勢角データを記憶し、基本位置記憶手段25ではリセット時点での支援機能部20又は光学機器50の位置データを記憶する。
リセット手段51aでは、離脱を検知すると機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cに信号を送り、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cでは、それぞれ機器方位、機器姿勢角、機器位置の検出を開始する。機器方位検出手段52aでは、方位(Bearing・・・Yaw成分を基に演算)を例えば姿勢角センサ(3軸)を用いて検出し、機器姿勢角検出手段52bでは、Pitch成分とRoll成分を例えば姿勢角センサ(3軸)を用いて検出し、機器位置検出手段52cでは、機器位置を例えば姿勢角センサ(3軸)とタイマー(計時手段)を用いて検出し、それぞれ離脱時の検出データを基準位置とした、機器方位、機器姿勢角、及び機器位置の変位データを検出する。なお、姿勢角センサは、1軸あるいは2軸タイプの姿勢角センサを組み合わせて使用することもできる。ここで、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cは光学機器50に備え付けられたものであり、機器方位検出手段52a、機器姿勢角検出手段52b、及び機器位置検出手段52cでは光学機器50自体の機器方位、機器姿勢角、及び機器位置を検出する。なお、機器方位検出手段52aには加速度センサとミニジャイロセンサを用い、機器位置検出手段52cには超音波センサを用いてもよい。
本実施形態による支援機能部20は、光学機器50に一体に設けられて用いられる。
The reset means 51b detects that the switch has been pressed by an artificial operation, or sends a signal to the basic azimuth storage means 27a, the basic attitude angle storage means 27b, and the basic position storage means 25 when the passage of a predetermined time is detected. The basic azimuth storage unit 27a stores the azimuth data of the support function unit 20 or the optical device 50 when the detection time is reset, and the basic posture angle storage unit 27b stores the support function unit 20 or the optical device 50 posture angle at the reset time. Data is stored, and the basic position storage means 25 stores the position data of the support function unit 20 or the optical device 50 at the time of reset.
When the resetting unit 51a detects separation, the resetting unit 51a sends a signal to the device orientation detection unit 52a, the device posture angle detection unit 52b, and the device position detection unit 52c, and the device direction detection unit 52a, the device posture angle detection unit 52b, and the device position detection. The means 52c starts detecting the device orientation, the device attitude angle, and the device position, respectively. In the device orientation detection means 52a, the orientation (calculated based on the Bearing ... Yaw component) is detected using, for example, an attitude angle sensor (three axes), and in the equipment orientation angle detection means 52b, the Pitch component and Roll component are detected, for example. The device position detecting means 52c detects the position of the device using, for example, a posture angle sensor (three axes) and a timer (time measuring means), and detects the detection data at the time of separation. The device orientation, the device attitude angle, and the displacement data of the device position as the reference position are detected. Note that the attitude angle sensor can be used in combination with a single-axis or biaxial attitude angle sensor. Here, the device orientation detection unit 52a, the device attitude angle detection unit 52b, and the device position detection unit 52c are provided in the optical device 50, and the device orientation detection unit 52a, the device attitude angle detection unit 52b, and the device position are provided. The detection means 52c detects the device orientation, device posture angle, and device position of the optical device 50 itself. Note that an acceleration sensor and a mini gyro sensor may be used for the device orientation detection unit 52a, and an ultrasonic sensor may be used for the device position detection unit 52c.
The support function unit 20 according to the present embodiment is provided integrally with the optical device 50.

これらの本実施形態は、周囲環境を観測する光学機器50と、光学機器50の機器方位を検出する機器方位検出手段52aと、機器方位をリセットするリセット手段51a、あるいはリセット手段51aとリセット手段51bによるリセット時における、光学機器50の基本方位情報を取得する基本方位情報取得手段13aと、機器方位と基本方位情報に基づいて光学機器50の観測ターゲットの方位を演算する方位演算手段33aと、少なくとも演算された方位を出力する出力手段33dとを備え、方位の演算に用いる機器方位が、リセット手段51aによるリセット後に検出した機器方位であることを基本としている。従って、ダイナミックな変化時の応答や整定に適した機器方位検出手段52aと、正確な基本情報を得ることができる基本方位情報取得手段13aとを備えているため、移動体などの移動する周囲環境を観測する場合や装置本体が移動体で使用される場合には、機器方位検出手段52aによって対応することができ、一方で機器方位検出手段52aの検出の継続による累積誤差に対しては、基本方位情報を用いてリセット時からの機器方位を演算するために、例えば光学機器50を手に持った時点からの方位を算出することができ、光学機器50が観測ターゲットとする方位を、ダイナミックな変化に追随して出力できるとともに累積による誤差の影響なく把握できる。   In these embodiments, the optical device 50 for observing the surrounding environment, the device orientation detection unit 52a for detecting the device orientation of the optical device 50, the reset unit 51a for resetting the device orientation, or the reset unit 51a and the reset unit 51b. A basic azimuth information acquiring unit 13a for acquiring basic azimuth information of the optical device 50 at the time of resetting, an azimuth calculating unit 33a for calculating the azimuth of the observation target of the optical device 50 based on the device azimuth and basic azimuth information, Output unit 33d for outputting the calculated azimuth, and the device azimuth used for the calculation of the azimuth is basically the device azimuth detected after the reset by the reset unit 51a. Accordingly, the apparatus includes the apparatus orientation detection means 52a suitable for dynamic response and settling and the basic orientation information acquisition means 13a capable of obtaining accurate basic information. Or when the apparatus main body is used as a moving body, the device orientation detection means 52a can cope with this, while the accumulated error due to the continued detection of the device orientation detection means 52a is basically In order to calculate the device azimuth from the reset time using the azimuth information, for example, the azimuth from the time when the optical device 50 is held can be calculated. It can be output following changes, and can be grasped without the effect of errors due to accumulation.

また、光学機器50の機器姿勢角を検出する機器姿勢角検出手段52bをさらに備え、出力手段33dで光学機器50の観測ターゲットに対する機器姿勢角に基づいた出力をするときは、光学機器50が観測ターゲットとする方位だけでなく、機器姿勢角についても、ダイナミックな変化に追随して出力できるとともに累積による誤差の影響もなく把握できる。
また、光学機器50の機器位置を検出する機器位置検出手段52cをさらに備え、出力手段33dで光学機器50の機器位置に基づいた出力をするときは、機器位置の変更にも対応できる。
また、観測ターゲットを含む観測エリアの被観測物に関する情報を取得する被観測物情報取得手段11と、被観測物情報取得手段11で取得された被観測物の位置情報、出力手段33dによる機器位置に基づいた出力、及び方位演算手段33aで演算された方位から被観測物に関するデータを表示対象として抽出する表示対象情報抽出手段36とをさらに備えたときは、光学機器50での観測エリアに存在する被観測物に関するデータを表示対象として特定することができる。
Further, the apparatus includes an apparatus attitude angle detection unit 52b that detects the apparatus attitude angle of the optical apparatus 50, and when the output unit 33d performs output based on the apparatus attitude angle of the optical apparatus 50 with respect to the observation target, the optical apparatus 50 performs the observation. Not only the target orientation but also the device attitude angle can be output following a dynamic change and can be grasped without any influence of accumulation errors.
In addition, when the device position detecting means 52c for detecting the device position of the optical device 50 is further provided and the output unit 33d performs output based on the device position of the optical device 50, it is possible to cope with a change in the device position.
In addition, the observation object information acquisition means 11 for acquiring information on the observation object in the observation area including the observation target, the position information of the observation object acquired by the observation object information acquisition means 11, and the equipment position by the output means 33d And the display object information extracting means 36 for extracting data related to the observed object as a display object from the azimuth calculated by the azimuth calculating means 33a, it is present in the observation area of the optical device 50. The data related to the observed object can be specified as the display target.

また、出力手段33dの出力情報を表示する映写手段54をさらに備えたときは、周囲環境を観察する場合に、この周囲環境を視認しつつ、観測エリアの方位や俯仰角、又は被観測物に関するデータを同時に視認することができる。
また、映写手段54で被観測物に関する情報を表示する場合には、観測エリア内に被観測物が存在する場合にはこの被観測物に関するデータも視認することができる。
また、映写手段54で、観測ターゲットを含む被観測物に関する情報を所定の範囲に表示する場合に、被観測物に関する情報を所定の範囲で表示することで観測における視認性を高めることができる。特に、被観測物が輻輳して存在する場合には、観測ターゲットを含む被観測物に関する情報を、観測ターゲットの前後の所定の範囲で抽出して表示することにより、分かり易く表示できる。
また、映写手段54の表示を固定的に取り込む固定取込手段59をさらに備えたときは、被観測物に関するデータを、更新することなく固定させて表示を維持、記憶することで、光学機器50を観測ターゲットに維持しなくても、データ内容を再確認できる。
Further, when the projection means 54 for displaying the output information of the output means 33d is further provided, when observing the surrounding environment, the azimuth and elevation angle of the observation area or the object to be observed is observed while visually checking the surrounding environment. Data can be viewed at the same time.
In addition, when information related to the observed object is displayed by the projection means 54, if the observed object exists in the observation area, the data related to the observed object can also be visually recognized.
In addition, when the projection unit 54 displays information on the observation object including the observation target in a predetermined range, the information on the observation object is displayed in the predetermined range, so that visibility in observation can be improved. In particular, when the observed object is congested, information on the observed object including the observation target can be easily displayed by extracting and displaying the information in a predetermined range before and after the observation target.
In addition, when the image capturing device 54 is further provided with a fixed take-in means 59 for taking in the display of the projection means 54 in a fixed manner, the data relating to the observation object is fixed without being updated, and the display is maintained and stored, whereby the optical device 50 Data can be reconfirmed without maintaining as an observation target.

また、リセット手段51aを、光学機器50に設けたときは、光学機器50でリセット操作を行うことができ、操作が容易になる。
また、リセット手段51bを、光学機器50を保持する基台8に設けたときは、基台8でリセット操作を行うことができ、光学機器の離脱、保持操作に応じてリセットを行うことが可能となる。
また、基台8から光学機器50に電力及び/又は情報を伝えるときは、光学機器50に搭載する機能を最小限とすることができ、光学機器50の小型化や軽量化を図ることができる。
また、機器方位記憶手段32aをさらに備え、機器方位記憶手段32aでは、機器方位検出手段52aで検出される光学機器50の基台8からの離脱時をリセット時として光学機器50の方位の変位データを記憶し、方位演算手段33aでは、光学機器50の基台8からの離脱時をリセット時として基台8の方位データを基準にして方位を演算するときは、光学機器50を基台8に保持している状態までの基台8の方位データと、光学機器50を基台8から離脱した時点からの変位データとを用いることで、精度の高い各種の検出器を光学機器50自体に搭載しなくても正確に観測ターゲットを把握することができる。
Further, when the reset means 51a is provided in the optical device 50, the reset operation can be performed by the optical device 50, and the operation becomes easy.
In addition, when the reset means 51b is provided on the base 8 that holds the optical device 50, the reset operation can be performed on the base 8, and the reset can be performed in accordance with the removal or holding operation of the optical device. It becomes.
Further, when power and / or information is transmitted from the base 8 to the optical device 50, the functions mounted on the optical device 50 can be minimized, and the optical device 50 can be reduced in size and weight. .
Further, the apparatus orientation storage means 32a is further provided. In the equipment orientation storage means 32a, the displacement data of the orientation of the optical equipment 50 is defined as the time when the optical equipment 50 is detached from the base 8 detected by the equipment orientation detection means 52a. When the azimuth calculating means 33a calculates the azimuth based on the azimuth data of the base 8 with the time when the optical device 50 is detached from the base 8 being reset, the optical device 50 is placed in the base 8. By using the azimuth data of the base 8 up to the held state and the displacement data from the time when the optical device 50 is detached from the base 8, various highly accurate detectors are mounted on the optical device 50 itself. Even if you do not, you can accurately grasp the observation target.

また、光学機器50が、船舶10に搭載されて周囲環境の観測に用いられる双眼鏡であるときは、船舶10における操船時や航行時の監視負担を軽減でき、特に夜間や濃霧における安全性を向上させることができる。
また、光学機器50に、方位を無線で送信する機器側送信手段53をさらに備えたときは、光学機器50のデータを無線で送信する構成とすることで、方位の演算を光学機器50とは別の装置で行うことが可能となり、光学機器50に搭載する機能を軽減でき、光学機器50の小型軽量化を図ることができる。
また、機器方位検出手段52a又は機器姿勢角検出手段52bとして姿勢角センサを用いたときは、姿勢角センサを用いて機器姿勢角を検出することで機器姿勢角を容易に直接検出することができ、機器方位検出機能と機器姿勢角検出機能を兼ねることも可能となる。
また、光学機器50が観測ターゲットを含む観測エリアにある周囲環境を撮像する撮像手段56と、撮像手段56で撮像した撮像データを出力手段33dの出力とともに記憶する映像データ記憶手段40をさらに備えたときは、観測エリアの映像とともに表示データを記憶させることで、光学機器50以外の表示手段9で表示させることができるとともに、記憶させたデータを再び表示させて確認することもできる。
また、光学機器50は少なくとも基台8に保持された状態では移動体に搭載されているが、離脱後は、移動体上で使用されても移動体を外れた状態で使用されてもよい。
In addition, when the optical device 50 is a binocular that is mounted on the ship 10 and used for observation of the surrounding environment, the monitoring burden during maneuvering and navigation in the ship 10 can be reduced, and safety at night and in dense fog is improved. Can be made.
Further, when the optical device 50 further includes device-side transmission means 53 that wirelessly transmits the azimuth, the optical device 50 is configured to transmit the data of the optical device 50 wirelessly, thereby calculating the azimuth. This can be performed by another apparatus, and the function mounted on the optical device 50 can be reduced, and the optical device 50 can be reduced in size and weight.
Further, when an attitude angle sensor is used as the apparatus orientation detection means 52a or the apparatus attitude angle detection means 52b, the apparatus attitude angle can be easily detected directly by detecting the apparatus attitude angle using the attitude angle sensor. Also, it is possible to combine the device orientation detection function and the device attitude angle detection function.
The optical device 50 further includes an imaging unit 56 that images the surrounding environment in the observation area including the observation target, and a video data storage unit 40 that stores the imaging data captured by the imaging unit 56 together with the output of the output unit 33d. When the display data is stored together with the image of the observation area, it can be displayed on the display means 9 other than the optical device 50, and the stored data can be displayed again and confirmed.
Further, although the optical device 50 is mounted on the moving body at least while being held on the base 8, it may be used on the moving body or removed from the moving body after being detached.

本発明は、特に手に持って観測する光学機器においても観測ターゲットとする方位を把握でき、光学機器での観測エリアに存在する被観測物に関するデータを表示させることができ、船舶、航空機、車両などの移動体に搭載されて周囲環境を観測する目視視認支援装置に適している。   The present invention is capable of grasping the azimuth direction as an observation target even in an optical instrument that is observed with a hand in particular, and can display data on an object to be observed existing in an observation area of the optical instrument. It is suitable for a visual recognition support device that is mounted on a moving body such as the one that observes the surrounding environment.

8 基台
9 表示器
10 船舶
20 支援装置本体
21 被観測物情報記憶手段
22 基本位置演算手段
23 基本方位演算手段
24 基本姿勢角演算手段
25 基本位置記憶手段
26 被観測物演算手段
27a 基本方位記憶手段
27b 基本姿勢角記憶手段
31 本体側受信手段
32a 機器方位記憶手段
32b 機器姿勢角記憶手段
32c 機器位置記憶手段
33a 方位演算手段
33b 姿勢角演算手段
33c 位置演算手段
33d 出力手段
34 観測エリア演算手段
35 第1表示情報生成手段
36 表示対象情報抽出手段
37 第2表示情報生成手段
38 本体側送信手段
40 映像データ記憶手段
51a リセット手段
51b リセット手段
52a 機器方位検出手段
52b 機器姿勢角検出手段
52c 機器位置検出手段
53 機器側送信機
54 映写手段
55 機器側受信手段
56 撮像手段
57 撮像信号出力手段
8 Base 9 Display 10 Ship 20 Support Device Main Body 21 Observed Object Information Storage Unit 22 Basic Position Calculation Unit 23 Basic Direction Calculation Unit 24 Basic Attitude Angle Calculation Unit 25 Basic Position Storage Unit 26 Observed Object Calculation Unit 27a Basic Direction Storage Means 27b Basic attitude angle storage means 31 Main body side reception means 32a Equipment orientation storage means 32b Equipment attitude angle storage means 32c Equipment position storage means 33a Orientation calculation means 33b Attitude angle calculation means 33c Position calculation means 33d Output means 34 Observation area calculation means 35 First display information generation means 36 Display target information extraction means 37 Second display information generation means 38 Main body side transmission means 40 Video data storage means 51a Reset means 51b Reset means 52a Equipment orientation detection means 52b Equipment attitude angle detection means 52c Equipment position detection Means 53 Device side transmitter 54 Projection means 55 Device-side reception means 56 Imaging means 57 Imaging signal output means

Claims (12)

周囲環境を観測する光学機器と、
前記光学機器の機器方位を検出する機器方位検出手段と、
前記機器方位をリセットするリセット手段と、
前記リセット手段によるリセット時における、前記光学機器の基本方位情報を取得する基本方位情報取得手段と、
前記リセット手段による前記リセット時の前記光学機器の基本方位を基準位置として、前記基準位置からの変位データとして検出した角度としての前記機器方位及び前記基本方位情報に基づいて前記光学機器により観測される観測ターゲットの方位を演算する方位演算手段と、
演算された前記観測ターゲットの前記方位に基づき前記観測ターゲットを含む観測エリアの被観測物に関する情報を取得する被観測物情報取得手段と、
前記被観測物に関する前記情報を表示する映写手段と、前記観測エリアに複数の前記被観測物が存在する場合に前記映写手段に表示する前記被観測物に関する前記情報を選択する表示選択手段とを備えたことを特徴とする目視視認支援装置。
Optical equipment for observing the surrounding environment;
Device orientation detection means for detecting the device orientation of the optical device;
Reset means for resetting the device orientation;
Basic azimuth information acquisition means for acquiring basic azimuth information of the optical device at the time of reset by the reset means;
Observed by the optical device based on the device azimuth and the basic azimuth information as an angle detected as displacement data from the reference position, with the basic azimuth of the optical device at the time of reset by the reset means as a reference position Azimuth calculating means for calculating the azimuth of the observation target;
Observation object information acquisition means for acquiring information related to the observation object in the observation area including the observation target based on the calculated orientation of the observation target;
Projection means for displaying the information on the observed object, and display selection means for selecting the information on the observed object to be displayed on the projection means when a plurality of the observed objects exist in the observation area. A visual recognition support device characterized by comprising:
前記表示選択手段は、前記観測ターゲットの前後の所定の範囲の前記情報を選択することを特徴とする請求項1に記載の目視視認支援装置。   The visual recognition support device according to claim 1, wherein the display selection unit selects the information in a predetermined range before and after the observation target. 前記リセット手段が前記光学機器の機器姿勢角をリセットするものであり、
前記光学機器の前記機器姿勢角を検出する機器姿勢角検出手段と、
前記リセット手段による前記リセット時における、前記光学機器の基本姿勢角情報を取得する基本姿勢角情報取得手段と、
前記機器姿勢角と前記基本姿勢角情報に基づいて前記光学機器により観測される前記観測ターゲットの俯仰角を演算する姿勢角演算手段とをさらに備え、前記被観測物情報取得手段が演算された前記観測ターゲットの前記俯仰角に基づき前記観測ターゲットを含む前記観測エリアの前記被観測物に関する前記情報を取得することを特徴とする請求項1に記載の目視視認支援装置。
The reset means resets the device attitude angle of the optical device;
Device posture angle detection means for detecting the device posture angle of the optical device;
Basic attitude angle information acquisition means for acquiring basic attitude angle information of the optical device at the time of reset by the reset means;
Posture angle calculating means for calculating the elevation angle of the observation target observed by the optical device based on the device posture angle and the basic posture angle information, and the observation object information acquiring means is calculated. The visual recognition support device according to claim 1, wherein the information on the observation object in the observation area including the observation target is acquired based on the elevation angle of the observation target.
前記映写手段に表示された前記情報を固定的に取り込む固定取込手段を備え、
前記固定取込手段の操作により前記映写手段に表示された前記情報の画像データを取り込むととともに、前記取り込まれた画像データを記憶する映像データ記憶手段をさらに備えたことを特徴とする請求項1から請求項3のいずれかに記載の目視視認支援装置。
A fixed capture means for capturing the information displayed on the projection means in a fixed manner;
2. The image data storage means for capturing the image data of the information displayed on the projection means by the operation of the fixed capture means and storing the captured image data. The visual recognition support device according to claim 3.
前記リセット手段を、前記光学機器に設けたことを特徴とする請求項1から請求項4のいずれかに記載の目視視認支援装置。   The visual recognition support device according to claim 1, wherein the reset unit is provided in the optical device. 前記リセット手段を、前記光学機器を保持する基台に設けたことを特徴とする請求項1から請求項4のいずれかに記載の目視視認支援装置。   The visual recognition support device according to claim 1, wherein the reset unit is provided on a base that holds the optical device. 前記基台から前記光学機器に電力及び/又は情報を伝えることを特徴とする請求項6に記載の目視視認支援装置。   The visual recognition support device according to claim 6, wherein power and / or information is transmitted from the base to the optical device. 機器方位記憶手段をさらに備え、
前記機器方位記憶手段では、前記光学機器の前記リセット手段の操作時を前記リセット時として、前記光学機器の前記機器方位の前記変位データを記憶し、
前記方位演算手段では、前記変位データと前記リセット時における前記光学機器の前記基本方位情報に基づいて前記観測ターゲットの前記方位を演算することを特徴とする請求項5に記載の目視視認支援装置。
It further comprises a device orientation storage means,
In the device orientation storage means, the operation time of the reset means of the optical device is set as the reset time, and the displacement data of the device orientation of the optical device is stored.
6. The visual recognition support device according to claim 5, wherein the azimuth calculation means calculates the azimuth of the observation target based on the displacement data and the basic azimuth information of the optical device at the time of reset.
前記光学機器が、船舶に搭載されて周囲環境の観測に用いられる双眼鏡であることを特徴とする請求項1から請求項8のいずれかに記載の目視視認支援装置。 The visual inspection support device according to any one of claims 1 to 8, wherein the optical device is binoculars mounted on a ship and used for observation of an ambient environment. 前記光学機器に、前記機器方位を無線で送信する機器側送信手段をさらに備えたことを特徴とする請求項1から請求項9のいずれかに記載の目視視認支援装置。   The visual recognition support device according to claim 1, further comprising a device-side transmission unit that wirelessly transmits the device orientation to the optical device. 前記機器方位検出手段として姿勢角センサを用いたことを特徴とする請求項1から請求項10のいずれかに記載の目視視認支援装置。   The visual recognition support apparatus according to claim 1, wherein an attitude angle sensor is used as the device orientation detection unit. 前記光学機器が前記観測ターゲットを含む前記観測エリアにある前記周囲環境を撮像する撮像手段をさらに備え、
前記撮像手段で撮像した撮像データを前記画像データとともに前記映像データ記憶手段に記憶したことを特徴とする請求項4に記載の目視視認支援装置。
The optical apparatus further comprises imaging means for imaging the surrounding environment in the observation area including the observation target,
5. The visual recognition support device according to claim 4, wherein the image data captured by the image capturing unit is stored in the video data storage unit together with the image data.
JP2015030281A 2009-12-14 2015-02-19 Visual recognition support device Active JP5867886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015030281A JP5867886B2 (en) 2009-12-14 2015-02-19 Visual recognition support device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009283363 2009-12-14
JP2009283363 2009-12-14
JP2015030281A JP5867886B2 (en) 2009-12-14 2015-02-19 Visual recognition support device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010278512A Division JP5704636B2 (en) 2009-12-14 2010-12-14 Visual recognition support device

Publications (2)

Publication Number Publication Date
JP2015135505A JP2015135505A (en) 2015-07-27
JP5867886B2 true JP5867886B2 (en) 2016-02-24

Family

ID=44460247

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2010278512A Active JP5704636B2 (en) 2009-12-14 2010-12-14 Visual recognition support device
JP2015030281A Active JP5867886B2 (en) 2009-12-14 2015-02-19 Visual recognition support device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2010278512A Active JP5704636B2 (en) 2009-12-14 2010-12-14 Visual recognition support device

Country Status (1)

Country Link
JP (2) JP5704636B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2574375B (en) * 2018-05-23 2023-02-01 The Corp Of Trinity House Of Deptford A positioning system and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2833175B2 (en) * 1990-08-30 1998-12-09 株式会社島津製作所 Remote vision device
JP2563691Y2 (en) * 1992-06-01 1998-02-25 古野電気株式会社 Target monitoring system
JP2002221670A (en) * 2001-01-24 2002-08-09 Kamakura Koki Kk Optical instrument for observation
JP2005175712A (en) * 2003-12-09 2005-06-30 Ricoh Co Ltd Method and program for providing information

Also Published As

Publication number Publication date
JP5704636B2 (en) 2015-04-22
JP2015135505A (en) 2015-07-27
JP2011145287A (en) 2011-07-28

Similar Documents

Publication Publication Date Title
TWI269024B (en) Navigation system
CA2811444C (en) Geodetic survey system having a camera integrated in a remote control unit
US7456847B2 (en) Video with map overlay
KR20090000186A (en) Point of interest displaying apparatus and method for using augmented reality
JPH09210686A (en) Observation device
JP4969053B2 (en) Portable terminal device and display method
US11614546B2 (en) Methods for geospatial positioning and portable positioning devices thereof
JP4077385B2 (en) Global coordinate acquisition device using image processing
US20210217210A1 (en) Augmented reality system and method of displaying an augmented reality image
KR20100060549A (en) Apparatus and method for identifying an object using camera
JP2007256041A (en) Position calculation device by gps positioning
CN112198653A (en) Ship telescope
US20120026324A1 (en) Image capturing terminal, data processing terminal, image capturing method, and data processing method
US8666655B2 (en) Systems and methods for navigation
CN101556154A (en) Positioning and path map generation system and data acquisition analysis method thereof
JP5867886B2 (en) Visual recognition support device
JP4059154B2 (en) Information transmission / reception device, information transmission / reception program
KR20140137233A (en) System and Method for Shipping lookout using the 3D spatial
JP2005233712A (en) Position display system
JP2017181393A (en) Navigation device and navigation method
RU116628U1 (en) DEVICE FOR FIXING ON TOPOGRAPHIC MAP OF SITES OF MAIN OIL PIPELINES WITH DANGEROUS GEOLOGICAL PROCESSES ON THEIR EXTERNAL MANIFESTATIONS
JP2014066595A (en) Navigation apparatus
KR101130857B1 (en) Mobile device for navigating three dimension map and method for building three dimension map using the same
JPH09113815A (en) Special spectacles
JP2011149957A (en) Image display device, image display method, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151225

R150 Certificate of patent or registration of utility model

Ref document number: 5867886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250