JP2011109276A - Camera finder, photographing apparatus, and remote operation support system - Google Patents

Camera finder, photographing apparatus, and remote operation support system Download PDF

Info

Publication number
JP2011109276A
JP2011109276A JP2009260365A JP2009260365A JP2011109276A JP 2011109276 A JP2011109276 A JP 2011109276A JP 2009260365 A JP2009260365 A JP 2009260365A JP 2009260365 A JP2009260365 A JP 2009260365A JP 2011109276 A JP2011109276 A JP 2011109276A
Authority
JP
Japan
Prior art keywords
image
unit
processing
subject
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009260365A
Other languages
Japanese (ja)
Inventor
Tetsuya Noda
哲也 野田
Yasushi Tanijiri
靖 谷尻
Takuya Kishimoto
卓也 岸本
Hiromi Yoshii
洋美 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Opto Inc
Original Assignee
Konica Minolta Opto Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Opto Inc filed Critical Konica Minolta Opto Inc
Priority to JP2009260365A priority Critical patent/JP2011109276A/en
Publication of JP2011109276A publication Critical patent/JP2011109276A/en
Pending legal-status Critical Current

Links

Landscapes

  • Viewfinders (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a camera finder for displaying a video of a subject so that a photography range of the camera is precisely confirmed by a simpler technique without calculating a photography direction of the camera or the like and a photographing apparatus provided with the same, and a remote operation support system. <P>SOLUTION: The camera finder is mounted on, for example, the photography apparatus 1 and includes: a display unit 40 for displaying a video of the subject superimposed on external light; and a discriminating image processing part 63a for performing to the video of the subject discriminating image processing for discriminating the video of the subject from an image by the external light in displaying to the display unit 40 the video of the subject superimposed on the external light. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、カメラによって撮影された被写体の映像を外界光に重ね合わせて表示するカメラファインダに関する。そして、本発明は、このカメラファインダを備え、頭部に装着可能なカメラによって前記被写体の映像を撮影する撮影装置およびこの撮影装置を用いた遠隔作業支援システムに関する。   The present invention relates to a camera finder that displays an image of a subject photographed by a camera so as to be superimposed on external light. The present invention also relates to a photographing apparatus that includes the camera finder and photographs a video of the subject using a camera that can be mounted on the head, and a remote work support system using the photographing apparatus.

従来、観察者の頭部や顔面に着脱自在に装着され、小型のCRTや液晶表示素子等の映像表示手段から得られる映像(画像)を接眼光学系によって観察者の視野内に表示させることで、前記映像を観察者に観察可能に構成したいわゆるHMD(Head Mount Display)が知られている。このようなHMDの一つとして、前記映像を外界光に重畳して表示する光学シースルータイプのHMDがあり、例えば、特許文献1に開示されている。   Conventionally, an image (image) that is detachably mounted on the observer's head or face and obtained from image display means such as a compact CRT or liquid crystal display element is displayed in the observer's field of view by an eyepiece optical system. In addition, a so-called HMD (Head Mount Display) is known in which the video is configured to be observable by an observer. As one of such HMDs, there is an optical see-through type HMD that superimposes and displays the video image on external light, and is disclosed in Patent Document 1, for example.

この特許文献1に開示のビューファインダ手段を備えた着用可能なカメラ・システムは、眼鏡フレームを備えて構成されており、この眼鏡フレームは、そのノーズ・ブリッジ内に隠された広角カメラと、当該眼鏡フレームの上部に隠されたその狭角カメラと、前記広角カメラおよび前記狭角カメラによって得られたビデオ信号によって駆動されるテレビジョン・スクリーンと、その一方または両方の眼鏡レンズ内またはその背面に設けられた、前記テレビジョン・スクリーンによる拡大画像が得られる光学系とを備えている。   The wearable camera system provided with the viewfinder means disclosed in Patent Document 1 includes a spectacle frame, and the spectacle frame includes a wide-angle camera hidden in the nose bridge, The narrow-angle camera hidden at the top of the spectacle frame, a television screen driven by the wide-angle camera and the video signal obtained by the narrow-angle camera, in or on the back of one or both spectacle lenses And an optical system capable of obtaining an enlarged image by the television screen.

このような光学シースルータイプのHMDでは、頭部に装着されるカメラで撮影された前方視野内における被写体の映像が外界光による被写体像に重畳しているため、特に、シースルー性の高い場合には、重なって観察される撮影像と外界像の判別がつき難く、前記映像の範囲、すなわち、前記カメラの撮影範囲を装着者が確認し難い。装着者が撮影範囲を正確に確認したいという要望に対し、例えば、特許文献2に開示の頭部装着型カメラがある。   In such an optical see-through type HMD, the image of the subject in the front field of view taken by the camera mounted on the head is superimposed on the subject image by the external light. It is difficult to discriminate between a captured image and an external image that are observed in an overlapping manner, and it is difficult for the wearer to confirm the range of the video, that is, the shooting range of the camera. For example, there is a head-mounted camera disclosed in Patent Document 2 in response to a request that a wearer wants to accurately check a shooting range.

この特許文献2に開示の頭部装着型カメラは、略メガネ型をなす頭部装着部を備えて構成されており、この頭部装着部は、そのテンプル部に一体的に設けられた被写体像を撮像するための第1撮像部と、メガネの視度補正用のレンズに相当する透明光学部材に設けられたシースルー画像表示部とを備えている。前記シースルー画像表示部は、LEDによって発光され集光レンズで集光された光で、前記第1撮像部で撮像された映像を表示する透光型LCDをその背面から照明することによって映像光を生成し、この映像光を、前記透明光学部材に設けられた体積位相型の反射型ホログラフィー光学素子に導光し、この反射型ホログラフィー光学素子で撮影者の視野方向前方に虚像として表示するものである。このような構成によって前記透明光学部材で外界光を撮影者の眼へ向けて透過させるとともに、この透明光学部材に設けられた前記反射型ホログラフィー光学素子で映像光を撮影者の視野方向前方に虚像として表示させることで、第1撮像部で撮像した被写体の映像と外界光による被写体とを重ね合わせている。そして、この特許文献2に開示の頭部装着型カメラでは、撮影範囲を示す撮影画枠をシースルー画像表示部に表示することで、第1撮像部で撮像された被写体の範囲を表している。   The head-mounted camera disclosed in Patent Document 2 is configured to include a head-mounted unit that is substantially glasses-type, and the head-mounted unit is a subject image that is provided integrally with the temple unit. And a see-through image display unit provided on a transparent optical member corresponding to a lens for correcting the diopter of the glasses. The see-through image display unit emits image light by illuminating a translucent LCD that displays an image captured by the first imaging unit from the back surface with light emitted from an LED and collected by a condenser lens. The image light is generated and guided to a volume phase reflection type holographic optical element provided on the transparent optical member, and displayed as a virtual image in front of the photographer's visual field by the reflection type holographic optical element. is there. With this configuration, the transparent optical member transmits external light toward the photographer's eye, and the reflective holographic optical element provided on the transparent optical member transmits the image light to the front of the photographer in the visual field direction. As a result, the image of the subject imaged by the first imaging unit and the subject caused by external light are superimposed. In the head mounted camera disclosed in Patent Document 2, a shooting image frame indicating a shooting range is displayed on the see-through image display unit, thereby representing the range of the subject imaged by the first imaging unit.

特表2002−508636号公報Special Table 2002-508636 特開2005−223749号公報JP 2005-223749 A

ところで、前記特許文献2に開示の頭部装着型カメラでは、撮影画枠をシースルー画像表示部に表示するために、カメラの撮影方向および撮影範囲と、シースルーの外界光による像との相対関係を正確に求める必要があり、そのための情報処理等のプロセスが複雑になってしまっており、また、外界光による像と撮影画枠とを完全に一致させることは困難である。   By the way, in the head-mounted camera disclosed in Patent Document 2, in order to display the photographic image frame on the see-through image display unit, the relative relationship between the photographing direction and photographing range of the camera and the image of the see-through external light is set. It is necessary to obtain it accurately, and a process such as information processing for that purpose is complicated, and it is difficult to completely match the image by the external light and the photographing image frame.

本発明は、上述の事情に鑑みて為された発明であり、その目的は、カメラの撮影方向等を算出することなくより簡単な手法で、かつ正確にカメラの撮影範囲を確認することができるように、前記被写体の映像を表示することができるカメラファインダを提供することである。そして、本発明は、このカメラファインダを備え、頭部に装着可能なカメラによって前記被写体の映像を撮影する撮影装置およびこの撮影装置を用いた遠隔作業支援システムを提供することである。   The present invention has been made in view of the above circumstances, and its purpose is to be able to confirm the shooting range of the camera accurately by a simpler method without calculating the shooting direction of the camera. Thus, it is to provide a camera finder capable of displaying an image of the subject. The present invention also provides an imaging device that includes the camera finder and that captures an image of the subject using a camera that can be mounted on the head, and a remote operation support system that uses the imaging device.

本発明者は、種々検討した結果、上記目的は、以下の本発明により達成されることを見出した。すなわち、本発明の一態様にかかるカメラファインダは、被写体の映像を外界光に重ね合わせて表示するカメラファインダであって、前記被写体の映像を外界光に重ね合わせて表示する表示部と、前記表示部に前記被写体の映像を外界光に重ね合わせて表示する場合に、前記被写体の映像と前記外界光による像とを区別するための判別化画像処理を前記被写体の映像に施す判別化画像処理部とを備えることを特徴とする。   As a result of various studies, the present inventor has found that the above object is achieved by the present invention described below. That is, a camera finder according to an aspect of the present invention is a camera finder that displays a subject image superimposed on external light, a display unit that displays the subject image superimposed on external light, and the display A discriminating image processing unit for performing discriminating image processing for discriminating between the video of the subject and the image of the external light on the video of the subject when the video of the subject is displayed superimposed on external light It is characterized by providing.

このような構成のカメラファインダでは、被写体の映像を外界光に重ね合わせて表示部に表示する場合に、判別化画像処理部によって前記被写体の映像に判別化画像処理が施される。このように前記構成のカメラファインダは、前記被写体の映像自体に判別化画像処理を施すので、カメラの撮影方向等を算出することなくより簡単な手法で、正確にカメラの撮影範囲を確認することができるように、前記被写体の映像を表示することができる。   In the camera finder having such a configuration, when the subject video is superimposed on the external light and displayed on the display unit, the discriminating image processing unit performs discriminating image processing on the subject video. In this way, the camera finder having the above configuration performs discriminative image processing on the subject video itself, so that it is possible to accurately check the shooting range of the camera with a simpler method without calculating the shooting direction of the camera or the like. So that the image of the subject can be displayed.

また、他の一態様では、上述のカメラファインダにおいて、好ましくは、前記判別化画像処理は、モノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理のうちの少なくとも1つである。   In another aspect, in the above-described camera finder, preferably, the discriminating image processing includes monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, and number of gradation levels. It is at least one of a reduction process and a noise superimposition process.

この構成によれば、モノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理のうちの少なくとも1つを判別化画像処理として用いるので、観察者(ユーザ)は、前記被写体の映像を外界光による像から容易に区別して観察することができる。   According to this configuration, at least one of monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, gradation level number reduction processing, and noise superimposition processing is used as discriminating image processing. Therefore, the observer (user) can easily distinguish and observe the image of the subject from the image of the external light.

また、他の一態様では、上述のカメラファインダにおいて、好ましくは、前記判別化画像処理は、モノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理のうちの少なくとも1つから成る複数のサブ判別化画像処理を備え、前記判別化画像処理部は、前記複数のサブ判別化画像処理のうちのいずれかを選択し、この選択したサブ判別化画像処理を前記被写体の映像に施すことである。   In another aspect, in the above-described camera finder, preferably, the discriminating image processing includes monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, and number of gradation levels. A plurality of sub-discriminant image processes including at least one of a reduction process and a noise superimposition process, wherein the discriminant image processing unit selects any one of the plurality of sub-discriminant image processes; Applying the selected sub-discriminating image processing to the video of the subject.

この構成によれば、複数のサブ判別化画像処理が予め用意されているので、例えば室内や昼間や夜間等の外界光の異なる使用環境に応じて、適宜なサブ判別化画像処理を選択することが可能であり、より正確にカメラの撮影範囲を確認することができるように、前記被写体の映像を表示することができる。   According to this configuration, since a plurality of sub-discriminating image processes are prepared in advance, an appropriate sub-discriminating image process can be selected according to different use environments of external light such as indoors, daytime, and nighttime. The image of the subject can be displayed so that the shooting range of the camera can be confirmed more accurately.

また、他の一態様では、これら上述のカメラファインダにおいて、好ましくは、前記被写体の映像を外界光に重ね合わせて前記表示部に表示するか否かを制御する表示制御部をさらに備えることである。   In another aspect, the above-described camera finder preferably further includes a display control unit that controls whether or not the video of the subject is displayed on the display unit so as to be superimposed on external light. .

この構成によれば、前記表示制御部をさらに備えるので、前記被写体の映像を外界光に重ね合わせて前記表示部に表示する場合に、必要に応じて、前記被写体の映像に判別化画像処理を施すことができる。特に、被写体の映像ではない映像を表示部に表示する場合には、この映像は、外界光による像と異なるため、判別化画像処理が本来的に必要ではなく、前記構成は、例えば、このような場合に効果的に対応することができる。   According to this configuration, since the display control unit is further provided, when the subject image is superimposed on the external light and displayed on the display unit, discriminating image processing is performed on the subject image as necessary. Can be applied. In particular, when a video that is not a subject video is displayed on the display unit, since this video is different from an image by external light, discriminating image processing is not inherently necessary. It is possible to effectively cope with such cases.

また、他の一態様では、これら上述のカメラファインダにおいて、好ましくは、前記表示部における外界光の可視光透過率は、70%以上である。   In another aspect, in the above-described camera finder, the visible light transmittance of external light in the display unit is preferably 70% or more.

外界光の可視光透過率が70%以上である場合には、被写体の映像と外界光による像との判別が難しくなるが、前記構成によれば、被写体の映像に判別化画像処理が施されるので、被写体の映像と外界光による像との判別が可能となる。このように外界光の可視光透過率が70%以上である場合に、本発明は、より効果的である。   When the visible light transmittance of the external light is 70% or more, it becomes difficult to distinguish between the subject image and the image by the external light. However, according to the above configuration, the subject image is subjected to discriminative image processing. Therefore, it is possible to discriminate between a subject image and an image by external light. Thus, when the visible light transmittance of external light is 70% or more, the present invention is more effective.

また、他の一態様では、これら上述のカメラファインダにおいて、好ましくは、前記表示部は、前記被写体の映像光を生成する映像光生成部と、前記映像光生成部で生成された前記被写体の映像光を複数回全反射して導光する導光部と、前記導光部によって導光された前記被写体の映像光を前記導光部の外部へ反射する反射部とを備えることである。   According to another aspect, in the above-described camera finder, preferably, the display unit includes a video light generation unit that generates video light of the subject, and an image of the subject generated by the video light generation unit. A light guide unit that guides the light by totally reflecting the light a plurality of times; and a reflection unit that reflects the video light of the subject guided by the light guide unit to the outside of the light guide unit.

この構成によれば、被写体の映像光を複数回全反射して導光するので、表示部を小型化(コンパクト化)することができる。   According to this configuration, since the image light of the subject is totally reflected and guided a plurality of times, the display unit can be downsized (compact).

また、他の一態様では、上述のカメラファインダにおいて、好ましくは、前記反射部は、反射型ホログラム光学素子である。   In another aspect, in the above-described camera finder, preferably, the reflection unit is a reflection type hologram optical element.

この構成によれば、反射部に反射型ホログラム光学素子を用いるので、外界光の可視光透過率が比較的高くなり、観察者は、外界光による像をより良好に観察することが可能となり、表示部を介して外界を観察して作業する場合に、その作業性が向上する。   According to this configuration, since the reflective hologram optical element is used for the reflecting portion, the visible light transmittance of the external light becomes relatively high, and the observer can observe the image by the external light better. When working by observing the outside world through the display unit, the workability is improved.

また、他の一態様では、上述のカメラファインダにおいて、好ましくは、前記反射型ホログラム光学素子は、前記被写体の映像光を拡大反射する正の光学的パワーを持つ反射面を備えることである。   In another aspect, in the above-described camera finder, it is preferable that the reflective hologram optical element includes a reflective surface having a positive optical power that magnifies and reflects the image light of the subject.

この構成によれば、反射型ホログラム光学素子が正の光学的パワーを持つ反射面を有して、この反射型ホログラム光学素子が接眼光学系を兼ねるので、表示部を小型化することができる。   According to this configuration, the reflection hologram optical element has a reflection surface having a positive optical power, and the reflection hologram optical element also serves as an eyepiece optical system. Therefore, the display unit can be reduced in size.

そして、本発明の他の一態様にかかる撮影装置(カメラ)は、頭部に装着する装着部と、前記装着部に設けられた、被写体を撮影する撮影部と、前記撮影部によって撮影された被写体の映像を表示するカメラファインダとを備え、前記カメラファインダは、これら上述のいずれかのカメラファインダであることを特徴とする。   And the imaging device (camera) according to another aspect of the present invention was photographed by the mounting unit to be mounted on the head, the shooting unit for shooting the subject provided in the mounting unit, and the shooting unit. A camera finder for displaying an image of a subject, and the camera finder is any one of the above-described camera finder.

このような構成の撮影装置では、撮影部が装着部に設けられるので、被写体を撮影する際に、ハンズフリーとなって、両手の使用が可能となる。したがって、装着者(ユーザ)は、被写体を撮影しつつ別の作業を行うこともできる。   In the photographing apparatus having such a configuration, since the photographing unit is provided in the mounting part, when photographing a subject, the hands become free and both hands can be used. Therefore, the wearer (user) can perform another work while photographing the subject.

また、他の一態様では、上述の撮影装置において、好ましくは、前記撮影部が撮影する領域は、装着者の視野内の領域であることである。   In another aspect, in the above-described imaging device, it is preferable that the area captured by the imaging unit is an area within the visual field of the wearer.

このような構成では、撮影部によって装着者の視野内の領域が撮影され、外界光による像に映像が重なると区別しにくいため、本発明は、より効果的である。   In such a configuration, since the region within the field of view of the wearer is photographed by the photographing unit and it is difficult to distinguish when an image is superimposed on an image by external light, the present invention is more effective.

また、他の一態様では、上述の撮影装置において、好ましくは、前記表示部は、前記装着部に設けられることである。   In another aspect, in the above-described imaging device, preferably, the display unit is provided in the mounting unit.

この構成によれば、表示部も装着部に設けられるので、装着者は、撮影部によって撮影された被写体を認識することができる。   According to this configuration, since the display unit is also provided in the mounting unit, the wearer can recognize the subject imaged by the imaging unit.

また、他の一態様では、これら上述の撮影装置において、好ましくは、通信信号を送受信する通信部と、前記通信部の送受信を制御する通信制御部とをさらに備え、前記通信制御部は、前記撮影部によって撮影された前記被写体の映像を前記通信部に送信させることである。   Further, in another aspect, in the above-described imaging device, preferably, the imaging apparatus further includes a communication unit that transmits and receives a communication signal, and a communication control unit that controls transmission and reception of the communication unit, The image of the subject photographed by the photographing unit is transmitted to the communication unit.

この構成によれば、通信部によって撮影部で撮影された被写体の映像を外部へ送信することができるので、第三者が装着者の視点での被写体の映像を観察することが可能となる。   According to this configuration, since the video of the subject photographed by the photographing unit can be transmitted to the outside by the communication unit, a third party can observe the video of the subject from the viewpoint of the wearer.

そして、本発明の他の一態様にかかる遠隔作業支援システムは、撮影装置と、通信網を介して前記撮影装置と通信可能に接続される遠隔作業支援装置とを備える遠隔作業支援システムであって、前記撮影装置は、これら上述のいずれかの撮影装置であり、前記遠隔作業支援装置は、前記通信網を介して受信され、前記撮影部によって撮影された被写体の映像を表示する第2表示部と、指示者の指示を受け付けて該指示を前記通信網を介して前記撮影装置へ送信する指示受付部とを備えることを特徴とする。   A remote operation support system according to another aspect of the present invention is a remote operation support system including an imaging device and a remote operation support device that is communicably connected to the imaging device via a communication network. The imaging device is any one of the above-described imaging devices, and the remote operation support device displays a video of a subject received by the imaging unit and received through the communication network. And an instruction receiving unit that receives an instruction from the instructor and transmits the instruction to the photographing apparatus via the communication network.

このような構成の遠隔作業支援システムは、これら上述のいずれかの撮影装置を備えるので、カメラの撮影方向等を算出することなくより簡単な手法で、正確にカメラの撮影範囲を確認することができるように、前記被写体の映像を表示することができ、撮影者は、遠隔作業支援装置のユーザ(指示者)に送信する、撮影された映像の範囲を正確に認識することができる。   Since the remote operation support system having such a configuration includes any of the above-described imaging apparatuses, it is possible to accurately check the imaging range of the camera with a simpler method without calculating the imaging direction of the camera. The video of the subject can be displayed so that the photographer can accurately recognize the range of the photographed video to be transmitted to the user (instructor) of the remote operation support device.

本発明にかかるカメラファインダ、撮影装置および遠隔作業支援システムは、カメラの撮影方向等を算出することなくより簡単な手法で、正確にカメラの撮影範囲を確認することができるように、前記被写体の映像を表示することができる。   The camera finder, the photographing apparatus, and the remote operation support system according to the present invention are configured so that the photographing range of the subject can be accurately confirmed by a simpler method without calculating the photographing direction of the camera. Video can be displayed.

実施形態にかかる遠隔作業支援システムの構成を示す図である。It is a figure which shows the structure of the remote operation assistance system concerning embodiment. 実施形態にかかる遠隔作業支援システムにおける撮影装置の構成を示す外観斜視図である。It is an external appearance perspective view which shows the structure of the imaging device in the remote operation assistance system concerning embodiment. 実施形態にかかる遠隔作業支援システムの撮影装置における表示ユニットの側断面図である。It is a sectional side view of the display unit in the imaging device of the remote operation support system according to the embodiment. 実施形態にかかる遠隔作業支援システムの撮影装置における反射型ホログラム光学素子による拡大投影を説明するための図である。It is a figure for demonstrating the expansion projection by the reflection type hologram optical element in the imaging device of the remote operation assistance system concerning embodiment. 実施形態にかかる遠隔作業支援システムにおける撮影装置の電気的な構成を示すブロック図である。It is a block diagram which shows the electrical structure of the imaging device in the remote operation assistance system concerning embodiment. 実施形態の遠隔作業支援システムにおける撮影装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the imaging device in the remote operation assistance system of embodiment. 実施形態の遠隔作業支援システムにおける撮影装置によって実施される判別化画像処理の一例を説明するための図である。It is a figure for demonstrating an example of the discriminating image process implemented by the imaging device in the remote operation assistance system of embodiment.

以下、本発明にかかる実施の一形態を図面に基づいて説明する。なお、各図において同一の符号を付した構成は、同一の構成であることを示し、適宜、その説明を省略する。   Hereinafter, an embodiment according to the present invention will be described with reference to the drawings. In addition, the structure which attached | subjected the same code | symbol in each figure shows that it is the same structure, The description is abbreviate | omitted suitably.

図1は、実施形態にかかる遠隔作業支援システムの構成を示す図である。図2は、実施形態にかかる遠隔作業支援システムにおける撮影装置の構成を示す外観斜視図である。図3は、実施形態にかかる遠隔作業支援システムの撮影装置における表示ユニットの側断面図である。図4は、実施形態にかかる遠隔作業支援システムの撮影装置における反射型ホログラム光学素子による拡大投影を説明するための図である。図4(A)は、反射型ホログラム光学素子の作製方法を説明するための図であり、図4(B)は、図4(A)に示す作製方法によって作製された反射型ホログラム光学素子による映像を説明するための図である。図5は、実施形態にかかる遠隔作業支援システムにおける撮影装置の電気的な構成を示すブロック図である。   FIG. 1 is a diagram illustrating a configuration of a remote operation support system according to the embodiment. FIG. 2 is an external perspective view illustrating a configuration of the imaging device in the remote operation support system according to the embodiment. FIG. 3 is a side sectional view of the display unit in the photographing apparatus of the remote operation support system according to the embodiment. FIG. 4 is a diagram for explaining an enlarged projection by the reflection hologram optical element in the photographing apparatus of the remote operation support system according to the embodiment. FIG. 4A is a diagram for explaining a manufacturing method of a reflective hologram optical element, and FIG. 4B is a diagram of a reflective hologram optical element manufactured by the manufacturing method shown in FIG. It is a figure for demonstrating an image | video. FIG. 5 is a block diagram illustrating an electrical configuration of the imaging apparatus in the remote operation support system according to the embodiment.

実施形態にかかる遠隔作業支援システムは、作業者における所定の方向の被写体を撮影し、この撮影した被写体の映像を前記作業者とは離れた別の場所に居る指示者が観察することができるように表示し、この被写体の映像を参照した前記指示者の指示を前記作業者に提供するシステムである。このような遠隔作業支援システムSは、例えば、図1ないし図5に示すように、作業者Wに使用され、作業者Wにおける所定の方向、例えば作業者Wの視線方向の例えば作業対象物等の被写体を撮影し、この撮影した被写体の映像を送信する撮影装置1と、ネットワーク(通信網)NTを介してこの撮影装置1によって撮影された被写体の映像を受信し、指示者Aが見ることができるようにこの受信した被写体の映像を表示し、この被写体の映像を参照した指示者Aの指示を受け付け、この受け付けた指示者Aの指示を撮影装置1から出力させるべく、この受け付けた指示者Aの指示をネットワークNTを介して撮影装置1へ送信する遠隔支援装置5とを備えて構成されている。   The remote operation support system according to the embodiment images a subject in a predetermined direction of the worker so that an instructor in a different place away from the worker can observe the image of the photographed subject. The instruction of the instructor referring to the image of the subject is provided to the worker. For example, as shown in FIGS. 1 to 5, such a remote work support system S is used by a worker W, for example, a work object in a predetermined direction of the worker W, for example, the line of sight of the worker W, etc. The instructor A receives the image of the subject photographed by the photographing device 1 via the network (communication network) NT, and the photographing device 1 that shoots the subject and transmits the image of the photographed subject. The received instruction is displayed so that the received image of the subject is displayed, the instruction of the instructor A referring to the image of the object is received, and the instruction of the received instruction A is output from the photographing apparatus 1. And a remote support device 5 that transmits an instruction of the person A to the photographing device 1 via the network NT.

遠隔支援装置5は、撮影装置1から離れた場所に設けられ、撮影装置1と互いにデータを交換することができるように、ネットワークNTを介して通信可能に撮影装置1と接続され、例えば、図1に示すように、メインサーバコンピュータ装置(以下、「メインサーバPC」と略記する。)6と、支援記録サーバコンピュータ装置(以下、「支援記録サーバPC」と略記する。)7と、コンテンツサーバコンピュータ装置(以下、「コンテンツサーバPC」と略記する。)8とを備えて構成される。   The remote support device 5 is provided at a location distant from the photographing device 1 and is connected to the photographing device 1 through the network NT so as to be able to exchange data with the photographing device 1. 1, a main server computer device (hereinafter abbreviated as “main server PC”) 6, a support record server computer device (hereinafter abbreviated as “support record server PC”) 7, and a content server. And a computer device (hereinafter abbreviated as “content server PC”) 8.

ネットワークNTは、例えば、電話網、ディジタル通信網および無線通信網等の通信網であり、所定の通信プロトコルを用いてデータが伝送される。本実施形態では、ネットワークNTは、例えば公衆電話網(固定電話網)、ISDN等のディジタル通信網および移動体電話網(携帯電話網)等の公衆ネットワークNTaと、例えばイーサネット(登録商標)等のローカル・エリア・ネットワーク(LAN;プライベートネットワーク)NTbとを備えて構成される。公衆ネットワークNTaは、例えば、通信プロトコルにFTP(File Transfer Protocol)やTCP/IP(Transmission Control Protocol/Internet Protocol)等のインターネットプロトコルが用いられてインターネットを構成し、プライベートネットワークNTbは、例えば、前記インターネットプロトコルが用いられてイントラネットを構成する。撮影装置1は、公衆ネットワークNTaと通信可能に接続され、遠隔支援装置5のメインサーバPC6、支援記録サーバPC7およびコンテンツサーバPC7の各サーバPCは、互いにデータを交換することができるように、プライベートネットワークNTbと通信可能に接続され、そして、公衆ネットワークNTaとプライベートネットワークNTbとは、通信可能に接続されている。   The network NT is, for example, a communication network such as a telephone network, a digital communication network, and a wireless communication network, and data is transmitted using a predetermined communication protocol. In the present embodiment, the network NT is a public network NTa such as a public telephone network (fixed telephone network), a digital communication network such as ISDN, and a mobile telephone network (cellular phone network), and an Ethernet (registered trademark), for example. And a local area network (LAN; private network) NTb. The public network NTa configures the Internet by using an Internet protocol such as FTP (File Transfer Protocol) or TCP / IP (Transmission Control Protocol / Internet Protocol) as a communication protocol, and the private network NTb is, for example, the Internet A protocol is used to construct an intranet. The photographing apparatus 1 is communicably connected to the public network NTa, and the main server PC 6, the support recording server PC 7, and the content server PC 7 of the remote support apparatus 5 are private so that they can exchange data with each other. The network NTb is communicably connected, and the public network NTa and the private network NTb are communicably connected.

メインサーバPC6は、ネットワークNTを介して撮影装置1から受信した被写体の映像を表示するとともに、この被写体の映像を参照した指示者Aの指示を受け付け、この受け付けた指示者Aの指示をネットワークNTを介して撮影装置1へ送信するサーバコンピュータであり、例えば、メインサーバPC6の全体制御を司るコンピュータ161と、指示者Aの指示を受け付け、入力するための例えばキーボード162aやマウス162b等の入力装置162と、例えば映像を表示するディスプレイ163a等の出力装置163とを備えて構成される。   The main server PC 6 displays the video of the subject received from the photographing apparatus 1 via the network NT, accepts the instruction of the instructor A referring to the video of the subject, and sends the received instruction of the instructor A to the network NT. Is a server computer that transmits to the imaging device 1 via, for example, a computer 161 that controls the entire main server PC 6 and an input device such as a keyboard 162a or a mouse 162b for receiving and inputting an instruction from the instructor A 162 and an output device 163 such as a display 163a for displaying an image, for example.

なお、本明細書において、総称する場合には添え字を省略した参照符号で示し、個別の構成を指す場合には添え字を付した参照符号で示す。   In the present specification, when referring generically, it is indicated by a reference symbol without a suffix, and when referring to an individual configuration, it is indicated by a reference symbol with a suffix.

このコンピュータ161は、ネットワークNT(プライベートネットワークNTb)と通信可能に接続するための、撮影装置1における後述のネットワークインタフェース部68と同様の通信インタフェース回路(ネットワークカード)を備えており、撮影装置1からネットワークNTを介して受信した被写体の映像をディスプレイ163aに表示するとともに、キーボード162aやマウス162bから受け付けた(入力された)指示者Aの指示をネットワークNTを介して撮影装置1へ送信する制御を行う。この指示者Aの指示は、撮影装置1にネットワークNTを介して受信され、撮影装置1における後述の表示ユニット40に表示される。   The computer 161 includes a communication interface circuit (network card) similar to a network interface unit 68 (to be described later) in the photographing apparatus 1 for communicably connecting to the network NT (private network NTb). Control of displaying the image of the subject received via the network NT on the display 163a and transmitting the instruction of the instructor A received (input) from the keyboard 162a and the mouse 162b to the photographing apparatus 1 via the network NT. Do. The instruction from the instructor A is received by the photographing apparatus 1 via the network NT and displayed on a display unit 40 described later in the photographing apparatus 1.

支援記録サーバPC7は、撮影装置1と遠隔支援装置5との間でやり取りされた支援データを記憶して記録し、クライアント装置の要求に従ってこの要求に対応する支援データをクライアント装置に提供するサーバコンピュータである。支援記憶サーバPC7は、コンピュータ161の制御に従って、あるいは、プライベートネットワークNTbを伝送する通信信号を監視(モニタ)することによって独自に、撮影映像装置1による被写体の映像を日付や時刻等の日時情報と対応付けて支援データとして記録するとともに遠隔支援装置5による作業者Aの指示を日付や時刻等の日時情報と対応付けて支援データとして記録する。このように支援記録サーバPC7は、遠隔作業支援システムSの履歴として支援データを保存し、記録する。   The support recording server PC 7 stores and records support data exchanged between the photographing apparatus 1 and the remote support apparatus 5 and provides support data corresponding to the request to the client apparatus according to the request of the client apparatus. It is. The support storage server PC7 independently displays the video of the subject by the photographic video apparatus 1 with date / time information such as date and time under the control of the computer 161 or by monitoring (monitoring) the communication signal transmitted through the private network NTb. The support data is recorded in association with each other, and the instruction of the worker A by the remote support device 5 is recorded as support data in association with date / time information such as date and time. As described above, the support record server PC 7 stores and records support data as a history of the remote work support system S.

そして、本実施形態の遠隔作業支援システムSは、映像だけでなく、例えば音声等の音も撮影装置1と遠隔支援装置5との間で互いに交換することができるように構成されており、撮影装置1には、後述するように、音入出力ユニット50としてイヤホン51L、51Rとマイクロホン52とを備えており、メインサーバPC6には、入力装置162としてマイクロホン162cをさらに備え、出力装置163としてスピーカ163bをさらに備えている。そして、コンピュータ161は、撮影装置1からネットワークNTを介して受信した音声等の音(マイクロホン52で集音した音)をスピーカ163bから出力するとともに、マイクロホン162cから受け付けた(入力された)指示者Aの指示(音声指示)をネットワークNTを介して撮影装置1へ送信する制御を行う。この指示者Aの音声指示は、撮影装置1にネットワークNTを介して受信され、撮影装置1における前記イヤホン51L、51Rから出力される。また、支援記録サーバPC7は、コンピュータ161の制御に従って、あるいは、独自に、撮影装置1による前記音を日時情報と対応付けて支援データとして記録するとともに遠隔支援装置5による作業者Aの音声指示を日時情報と対応付けて支援データとして記録する。   The remote operation support system S of the present embodiment is configured so that not only video but also sound such as voice can be exchanged between the image capturing device 1 and the remote support device 5. As will be described later, the device 1 includes earphones 51L and 51R as a sound input / output unit 50 and a microphone 52. The main server PC6 further includes a microphone 162c as an input device 162, and a speaker as an output device 163. 163b is further provided. Then, the computer 161 outputs a sound such as a sound received from the photographing apparatus 1 via the network NT (a sound collected by the microphone 52) from the speaker 163b and receives (inputs) the instruction from the microphone 162c. Control is performed to transmit the instruction A (voice instruction) to the photographing apparatus 1 via the network NT. The voice instruction of the instructor A is received by the photographing apparatus 1 via the network NT and output from the earphones 51L and 51R in the photographing apparatus 1. Further, the support recording server PC7 records the sound from the photographing apparatus 1 as support data in association with date / time information according to the control of the computer 161 or independently, and also gives the voice instruction of the worker A by the remote support apparatus 5 It is recorded as support data in association with date and time information.

そして、本実施形態における遠隔作業支援システムSでは、指示者Aの指示には、作業者Wが遠隔支援装置5へ直接入力した例えばテキストデータや音声指示等のデータだけでなく、例えば作業対象物を表す参照映像や、作業手順を示す作業マニュアルや、製品の取り扱い方を示す取り扱い説明書等の、作業者Wが作業を行う際にその作業の支援となる映像や音声等の支援コンテンツ(支援情報)も含まれる。コンテンツサーバPC8は、この支援コンテンツを格納し、クライアント装置の要求に従ってこの要求に対応する支援コンテンツをクライアント装置に提供するサーバコンピュータである。メインサーバPC6のコンピュータ161は、キーボード162aやマウス162bから指示者Aの支援コンテンツを選択する指示(コンテンツ選択指示)を受け付け、このコンテンツ選択指示に対応する支援コンテンツをネットワークNTを介して撮影装置1へ送信するようにコンテンツサーバPC8を制御する。コンテンツサーバPC8は、コンピュータ161の制御に従って、コンテンツ選択指示に対応する支援コンテンツをネットワークNTを介して撮影装置1へ送信し、撮影装置1に支援コンテンツを提供する。   In the remote work support system S according to the present embodiment, the instruction from the instructor A includes not only data such as text data and voice instructions directly input to the remote support device 5 by the worker W, but also work objects, for example. Support content such as video and audio that assists the work when the worker W performs work, such as a reference video representing work, a work manual showing work procedures, and an instruction manual showing how to handle the product. Information). The content server PC 8 is a server computer that stores the support content and provides support content corresponding to the request to the client device according to the request of the client device. The computer 161 of the main server PC 6 receives an instruction (content selection instruction) for selecting support content of the instructor A from the keyboard 162a and the mouse 162b, and sends support content corresponding to the content selection instruction via the network NT. The content server PC8 is controlled so as to be transmitted to. Under the control of the computer 161, the content server PC8 transmits support content corresponding to the content selection instruction to the image capturing device 1 via the network NT, and provides the support content to the image capturing device 1.

このような遠隔支援装置5と組み合わせて好適に使用される撮影装置1は、作業者Wの頭部に装着され、作業者W(装着者)の視線方向に略沿った被写体を撮影し、この撮影した被写体の映像をネットワークNTを介して遠隔支援装置5へ送信する頭部装着式の撮影装置(カメラ)であり、例えば、図2ないし図5に示すように、装着ユニット10と、撮影ユニット20と、表示ユニット40と、音入出力ユニット50と、制御ユニット60とを備えて構成される。   An imaging device 1 that is preferably used in combination with such a remote support device 5 is worn on the head of the worker W, photographs a subject that is substantially along the line of sight of the worker W (wearer), and A head-mounted imaging device (camera) that transmits a photographed subject image to the remote support device 5 via the network NT. For example, as shown in FIGS. 2 to 5, the mounting unit 10 and the imaging unit 20, a display unit 40, a sound input / output unit 50, and a control unit 60.

装着ユニット10は、作業者Wの頭部に装着するための装置であり、本実施形態では、視力矯正用のメガネを模した構造で構成されている。すなわち、本実施形態の装着ユニット10は、左右一対のテンプル11L、11Rと、ブリッジ12と、左右一対の鼻パッド13L、13Rと、左右一対の透明部材14L、14Rとを備えて構成されている。   The mounting unit 10 is a device for mounting on the head of the worker W, and in the present embodiment, has a structure imitating glasses for correcting vision. That is, the mounting unit 10 of the present embodiment includes a pair of left and right temples 11L and 11R, a bridge 12, a pair of left and right nose pads 13L and 13R, and a pair of left and right transparent members 14L and 14R. .

テンプル11L、11Rは、例えば弾性素材等から構成される長尺棒状の部材であり、その一方端部には装着者(ここでは作業者W)の耳に掛けられる耳掛け部分を有し、その他方端部には回動部11La、11Raを介して透明部材14L、14Rに固定されて保持する保持部分を有しており、作業者Wの耳や側頭部に掛け止められ、作業者Wの頭部への保持および装着位置を調整するためのものである。テンプル11L、11Rと透明部材14L、14Rとの固定には、例えば接着剤による接着やねじによるねじ留め等の固定手段が用いられる。また、撮影装置1は、回動部11La、11Raによる回動により、テンプル11L、11Rを互いに回転方向の異なる矢印P、Q方向へ回動させて、テンプル11L、11Rを透明部材14L、14Rに沿わせることによって、不使用時にコンパクトに折り畳めるようになっている。   The temples 11L and 11R are elongate rod-shaped members made of, for example, an elastic material, and have an ear-hook portion that is hung on the ear of the wearer (here, worker W) at one end. The end portion has a holding portion that is fixed to and held by the transparent members 14L and 14R via the rotating portions 11La and 11Ra, and is hooked on the ear or the temporal region of the worker W. This is for adjusting the holding position on the head and the mounting position. For fixing the temples 11L, 11R and the transparent members 14L, 14R, for example, fixing means such as bonding with an adhesive or screwing with screws is used. In addition, the photographing apparatus 1 rotates the temples 11L and 11R in the directions of arrows P and Q having different rotation directions by the rotation of the rotation units 11La and 11Ra, so that the temples 11L and 11R become the transparent members 14L and 14R. By keeping it along, it can be folded compactly when not in use.

ブリッジ12は、左右一対の透明部材14L、14Rを互いに連結するための短尺棒状の部材であり、テンプル11L、11Rの固定手段と同様の手段によって、その両端で透明部材14L、14Rに固定される。左右一対の透明部材14L、14Rは、このブリッジ12によって一定の間隔を空けた相対位置関係で保持される。   The bridge 12 is a short bar-like member for connecting the pair of left and right transparent members 14L and 14R to each other, and is fixed to the transparent members 14L and 14R at both ends by means similar to the means for fixing the temples 11L and 11R. . The pair of left and right transparent members 14 </ b> L and 14 </ b> R are held by the bridge 12 in a relative positional relationship with a predetermined interval.

鼻パッド13L、13Rは、装着ユニット10の装着者(ここでは作業者W)に対する顔面への保持を行うための部材であり、各脚部を介してブリッジ12に接続されている。   The nose pads 13 </ b> L and 13 </ b> R are members for holding the mounting unit 10 on the face of the wearer (here, the worker W), and are connected to the bridge 12 through each leg.

透明部材14L、14Rは、例えばポリカーボネートやポリメチルメタクリレート等の樹脂やガラス等の可視光線に対し透明な素材等から構成され、視力矯正用のメガネレンズの外形形状のような、角を丸く縁取りした長方形状の板状部材である。もちろん、透明部材14L、14Rは、撮影装置1の本来の機能の観点において視力矯正用の調整度数を備える必要はないが、視力矯正用の調整度数を備えていても良い。透明部材14L、14Rの一方には、本実施形態では、右眼に対応する透明部材14Rに表示ユニット40の接眼光学系41を嵌め込むための略U字形状の切り欠き部14Rsが形成されている。   The transparent members 14L and 14R are made of a material that is transparent to visible light, such as a resin such as polycarbonate or polymethyl methacrylate, or glass, and have rounded corners such as the outer shape of a spectacle lens for correcting vision. It is a rectangular plate-shaped member. Of course, the transparent members 14L and 14R do not have to have an adjustment power for correcting vision from the viewpoint of the original function of the photographing apparatus 1, but may have an adjustment power for correcting vision. In this embodiment, a substantially U-shaped cutout portion 14Rs for fitting the eyepiece optical system 41 of the display unit 40 to the transparent member 14R corresponding to the right eye is formed on one of the transparent members 14L and 14R. Yes.

これらテンプル11L、11R、ブリッジ12および鼻パッド13L、13Rによっていわゆるメガネフレームが構成され、このメガネフレームが装着者に対し掛け止められ、透明部材14L、14Rが装着者の眼に対し所定の状態(所定の距離、所定の位置)で装着される。   These temples 11L and 11R, the bridge 12 and the nose pads 13L and 13R constitute a so-called spectacle frame. The spectacle frame is hooked on the wearer, and the transparent members 14L and 14R are in a predetermined state (see FIG. It is mounted at a predetermined distance and a predetermined position.

なお、本実施形態では、装着ユニット10は、テンプル11L、11Rおよびブリッジ12によって透明部材14L、14Rを固定、保持するように構成されたが、左右一対のリムを備え、この各リムを介して透明部材14L、14Rを固定、保持するように構成されてもよい。この各リムは、例えば内溝を持った環状または半環状の部材であり、この環または半環に透明部材14L、14Rの外周部分を嵌め込むことによって透明部材14L、14Rを固定、保持するものである。   In the present embodiment, the mounting unit 10 is configured to fix and hold the transparent members 14L and 14R by the temples 11L and 11R and the bridge 12, but includes a pair of left and right rims, and through these rims. The transparent members 14L and 14R may be configured to be fixed and held. Each rim is, for example, an annular or semi-annular member having an inner groove, and the transparent members 14L and 14R are fixed and held by fitting the outer peripheral portions of the transparent members 14L and 14R into the ring or semi-ring. It is.

撮影ユニット20は、例えば作業物体や装着者(ここでは作業者W)の周囲の外界情景等の被写体を撮影する装置であり、装着者(作業者W)に装着され前記装着者が前方略水平方向を見た場合に、その光軸が装着者の視線方向に略一致するように、装着ユニット10に対し固定的に保持される。これによって撮影ユニット20は、装着者の前方視野内を撮影することが可能となる。本実施形態では、撮影ユニット20は、表示ユニット本体45の一方端部に外付けされており、表示ユニット本体45が接眼光学系41を介して装着ユニット10の透明部材14Rに固定的に取り付けられることによって、装着ユニット10に対し固定的に保持される。このように撮影ユニット20は、本実施形態では、装着者(ここでは作業者W)の視野内撮影カメラとして機能し、また装着ユニット10に保持されるので、撮影装置1がコンパクトに構成され、また作業者Wは、ハンズフリーとなって、両手を使った作業が可能となる。したがって、作業者Wは、前方視野内の被写体を撮影しつつ別の作業を行うこともできる。なお、撮影ユニット20を装着ユニット10に前記光軸と前記視線方向に略一致するように固定的に保持する機構は、撮影ユニット20が脱着可能な構造であってもよい。このように構成することによって撮影ユニット20を適宜に変えることができる。   The photographing unit 20 is a device that photographs a subject such as a work object or an external scene around the wearer (worker W in this case), and is attached to the wearer (worker W) so that the wearer is substantially horizontal in front. When viewed in the direction, the optical axis is fixedly held with respect to the mounting unit 10 so that the optical axis substantially coincides with the line of sight of the wearer. As a result, the photographing unit 20 can photograph within the wearer's front visual field. In the present embodiment, the photographing unit 20 is externally attached to one end of the display unit main body 45, and the display unit main body 45 is fixedly attached to the transparent member 14R of the mounting unit 10 via the eyepiece optical system 41. Thus, the mounting unit 10 is fixedly held. Thus, in this embodiment, the imaging unit 20 functions as a camera within the field of view of the wearer (here, worker W) and is held by the mounting unit 10, so that the imaging device 1 is configured in a compact manner. Also, the operator W becomes hands-free and can perform work using both hands. Therefore, the worker W can perform another work while photographing the subject in the front visual field. Note that the mechanism that holds the photographing unit 20 fixedly to the mounting unit 10 so as to substantially coincide with the optical axis may be a structure that allows the photographing unit 20 to be detachable. With this configuration, the photographing unit 20 can be appropriately changed.

撮影ユニット20は、例えば、図5に示すように、撮影光学系21と、撮像素子22と、アナログフロントエンド23と、映像制御部24とを備えて構成される。   For example, as illustrated in FIG. 5, the photographing unit 20 includes a photographing optical system 21, an imaging element 22, an analog front end 23, and a video control unit 24.

撮影光学系21は、被写体の光学像(光像)を撮像素子22の受光面に結像するための光学系である。撮影光学系21は、単焦点光学系であってもよく、またズーミングすべくズーム機能を備えた変倍光学系であってもよい。また撮影光学系21は、オートフォーカス(AF)機能を備えて構成されてよい。   The photographing optical system 21 is an optical system for forming an optical image (light image) of a subject on the light receiving surface of the image sensor 22. The photographing optical system 21 may be a single focus optical system or a variable magnification optical system having a zoom function for zooming. Further, the photographing optical system 21 may be configured to have an autofocus (AF) function.

撮像素子22は、この撮影光学系21によって受光面上に形成された被写体の光学像における光量に応じてR(赤)、G(緑)、B(青)の各成分の画像信号に光電変換してアナログフロントエンド23へ出力する装置である。撮像素子22には、例えば、CCD型カラーイメージセンサやCMOS型カラーイメージセンサ等が用いられる。本実施形態では、CMOS型カラーイメージセンサが用いられ、このCMOS型カラーイメージセンサは、例えば、R(赤)光、G(緑)光、B(青)光の各光に対応した各色透過フィルタをピクセル単位(画素単位)で市松模様に配置されたカラーエリア撮影センサであって、撮影光学系21により結像された被写体光像を、R(赤)光、G(緑)光、B(青)光の各成分の画像信号(各画素単位で受光された画素信号の信号列から成る信号)に光電変換するものである。   The image sensor 22 performs photoelectric conversion into image signals of R (red), G (green), and B (blue) components in accordance with the amount of light in the optical image of the subject formed on the light receiving surface by the photographing optical system 21. And output to the analog front end 23. For example, a CCD type color image sensor, a CMOS type color image sensor, or the like is used for the imaging element 22. In the present embodiment, a CMOS color image sensor is used, and the CMOS color image sensor is, for example, each color transmission filter corresponding to each light of R (red) light, G (green) light, and B (blue) light. Is a color area photographing sensor arranged in a checkered pattern in pixel units (pixel units), and subject light images formed by the photographing optical system 21 are R (red) light, G (green) light, B ( Blue) This is photoelectrically converted into an image signal of each component of light (a signal composed of a signal sequence of pixel signals received in units of pixels).

アナログフロントエンド23は、所定の基準クロックに基づいて撮像素子22の駆動を制御し、撮像素子22で得られた画像信号に周知のアナログ信号処理を施した後にディジタル映像信号に変換し、映像制御部24へ出力する回路である。   The analog front end 23 controls the driving of the image sensor 22 based on a predetermined reference clock, performs a known analog signal process on the image signal obtained by the image sensor 22, converts the image signal into a digital video signal, and controls the video. It is a circuit that outputs to the unit 24.

映像制御部24は、アナログフロントエンド23から入力された映像信号に、例えば黒レベル補正処理、画素補間処理、ホワイトバランス調整処理、ガンマ(γ)補正処理、シェーディング補正処理等の、周知の画像処理を施す回路である。映像制御部24は、アナログフロントエンド23から入力された映像信号を、CMOS型カラーイメージセンサにおける画像信号の読み出しクロックに同期して、制御ユニット60内の画像メモリ61に書き込む。すなわち、映像信号は、アナログフロントエンド23から一旦画像メモリ61に書き込まれ、所定の各画像処理が施される際に、画像メモリ61から映像制御部24に読み込まれ、各画像処理が施される。そして、これら各画像処理の施された映像信号は、再度、画像メモリ61に書き込まれ、記憶(格納)される。   The video control unit 24 performs well-known image processing such as black level correction processing, pixel interpolation processing, white balance adjustment processing, gamma (γ) correction processing, shading correction processing, and the like on the video signal input from the analog front end 23. It is the circuit which applies. The video control unit 24 writes the video signal input from the analog front end 23 in the image memory 61 in the control unit 60 in synchronization with the image signal readout clock in the CMOS type color image sensor. That is, the video signal is once written from the analog front end 23 to the image memory 61, and when predetermined image processing is performed, the video signal is read from the image memory 61 to the video control unit 24 and subjected to each image processing. . Then, the video signals subjected to these image processes are written again in the image memory 61 and stored (stored).

表示ユニット40は、所定の画像(映像)を表示する装置であり、遠隔支援装置5からネットワークNTを介して送信されてきた指示者Aの指示を表示するものである。前記指示者Aの指示には、上述したように、指示者Aが遠隔支援装置5へ直接入力した例えばテキストデータ等のデータだけでなく、作業者Wが作業を行う際にその作業の支援となる映像や音声等のコンテンツサーバPC8による支援コンテンツも含まれる。そして、本実施形態では、表示ユニット40は、撮影ユニット20の電子ファインダの機能を兼ねており、撮影ユニット20によって撮影された映像も表示することができるようにされている。撮影ユニット20によって撮影された被写体の映像が別体の表示装置に表示される場合には、作業者Wは、撮影ユニット20によって撮影されている領域(被写体)を見るために前記表示装置の方に向かなければならないが、本実施形態の撮影装置1では、表示ユニット40が撮影ユニット20のカメラファインダとして機能し、これによって撮影ユニット20の撮影者である作業者Wは、撮影ユニット20によって撮影されている領域(被写体)を見るために、その頭部の方向を変える必要がなく、視線をそらせる必要もなく、作業者W自信が撮影ユニット20によって撮影している領域(被写体)を正確に認識することができる。   The display unit 40 is a device that displays a predetermined image (video), and displays the instruction of the instructor A transmitted from the remote support device 5 via the network NT. As described above, the instruction by the instructor A includes not only data such as text data directly input by the instructor A directly to the remote support device 5, but also support of the work when the worker W performs the work. Supporting content by the content server PC 8 such as video and audio is also included. In the present embodiment, the display unit 40 also functions as an electronic viewfinder of the photographing unit 20 and can display an image photographed by the photographing unit 20. When an image of a subject photographed by the photographing unit 20 is displayed on a separate display device, the operator W can use the display device to view a region (subject) photographed by the photographing unit 20. However, in the photographing apparatus 1 of the present embodiment, the display unit 40 functions as a camera finder of the photographing unit 20, so that a worker W who is a photographer of the photographing unit 20 can use the photographing unit 20. It is not necessary to change the direction of the head to view the area (subject) being photographed, and it is not necessary to deflect the line of sight. Can be recognized.

表示ユニット40は、装着ユニット10に取り付けられることなく別体で構成されてもよいが、上述のように作業者W自信が撮影ユニット20によって撮影している領域(被写体)を正確に認識することができるように、あるいは、作業者Wの視界内に指示者Aの指示を表示し、作業者Wが指示者Aの指示を参照しながら作業を行うことができるように、本実施形態では、装着ユニット10に、しかも一方の透明部材14Rに取り付けられている。このような表示ユニット40は、例えば、図2ないし図5に示すように、接眼光学系41と、映像生成部42と、照明光学系43と、光源部44と、これら映像生成部42、照明光学系43および光源部44を収容するとともに接眼光学系41に取り付けられる筐体である表示ユニット本体45とを備えて構成される。表示ユニット本体45には、上述したように、その一方端に撮影ユニット20が外付けされており、そして、底面から外部に接眼光学系41が延びている。さらに、表示ユニット本体45の他方端から、ケーブル46が延び、撮影ユニット20、表示ユニット40および音入出力ユニット50と制御ユニット60とは、相互にデータを交換することができるようにこのケーブル46によって電気的に接続されている。   The display unit 40 may be configured as a separate body without being attached to the mounting unit 10. However, as described above, the worker W self-confidence accurately recognizes the area (subject) captured by the imaging unit 20. In the present embodiment, the instruction of the instructor A is displayed in the field of view of the worker W so that the worker W can perform the work while referring to the instruction of the instructor A. The mounting unit 10 is attached to one transparent member 14R. 2 to 5, for example, such a display unit 40 includes an eyepiece optical system 41, an image generation unit 42, an illumination optical system 43, a light source unit 44, the image generation unit 42, and an illumination. The optical system 43 and the light source unit 44 are accommodated, and a display unit main body 45 that is a casing attached to the eyepiece optical system 41 is provided. As described above, the imaging unit 20 is externally attached to one end of the display unit main body 45, and the eyepiece optical system 41 extends from the bottom surface to the outside. Further, a cable 46 extends from the other end of the display unit main body 45, and the cable 46 so that the photographing unit 20, the display unit 40, the sound input / output unit 50, and the control unit 60 can exchange data with each other. Are electrically connected.

光源部44は、所定波長の光を発光する装置であり、例えば、所定波長色を含む白色発光ダイオード(以下、「白色LED」と略記する)から成る点光源である。   The light source unit 44 is a device that emits light of a predetermined wavelength, and is, for example, a point light source composed of a white light emitting diode (hereinafter abbreviated as “white LED”) including a predetermined wavelength color.

照明光学系43は、光源部44の発光光が入射され、この入射された発光光から映像生成部42を照明する照明光を生成する装置であり、例えば、本実施形態では、方向により拡散度が異なり、前記入射された発光光を一方向に拡散する一方向拡散板43aと、一方向拡散板43aで拡散された光を集光する集光レンズ43bとを備えて構成される。より具体的には、例えば、本実施形態では、一方向拡散板43aは、光源部44から入射された発光光を図3の紙面に垂直な方向に約40度で拡散するとともに図3の紙面に平行な方向に約0.2度で拡散する。   The illumination optical system 43 is a device that receives the light emitted from the light source unit 44 and generates illumination light that illuminates the image generation unit 42 from the incident light emitted. For example, in this embodiment, the diffusivity depends on the direction. Is different, and includes a unidirectional diffuser plate 43a that diffuses the incident emitted light in one direction, and a condenser lens 43b that condenses the light diffused by the unidirectional diffuser plate 43a. More specifically, for example, in the present embodiment, the unidirectional diffusion plate 43a diffuses the emitted light incident from the light source unit 44 at about 40 degrees in a direction perpendicular to the paper surface of FIG. 3 and the paper surface of FIG. It diffuses at about 0.2 degree in the direction parallel to the.

映像生成部42は、照明光学系43の照明光が入射され、各画素において、この照明光をRGBごとにVRAM64の映像信号に応じて強度変調することによって映像を生成する装置であり、例えば、透過型LCD装置(透過型液晶表示装置)を備えて構成される。   The image generation unit 42 is an apparatus that generates the image by illuminating the illumination light of the illumination optical system 43 and modulating the intensity of the illumination light for each RGB in accordance with the image signal of the VRAM 64 in each pixel. A transmissive LCD device (transmissive liquid crystal display device) is provided.

接眼光学系41は、映像生成部42で生成された映像を装着者(作業者W)の眼に導くための装置であり、例えば、光学プリズム41aと、反射部41bとを備えて構成される。   The eyepiece optical system 41 is a device for guiding the image generated by the image generation unit 42 to the eyes of the wearer (worker W), and includes, for example, an optical prism 41a and a reflection unit 41b. .

光学プリズム41aは、例えばガラスや透明樹脂等の可視光に対して透明な材料より成る部材であって、互いに対向する一対の主面が略平行となるように形成された平行平板である。光学プリズム41aの上端部(上面部)は、上面が映像生成部42で生成された映像光の入射面であり、映像光の大部分を内部に採光することができるように、肉厚部411が形成されている。この肉厚部411は、上方に向かってより肉厚となるように前面側(接眼面と反対側)が突き出るくさび形状に形成される。そして、光学プリズム41aの下端部(底面部)は、斜めにカットされた傾斜部412が形成されており、この傾斜部412に反射部41bが設けられている。光学プリズム41aは、その上端部から入射された映像光をその内部で複数回の反射を行わせ、前記映像光を反射部41bへ導光する。より具体的には、光学プリズム41aは、その上端部から入射された映像光を前記一対の主面で交互に全反射を繰り返し、前記映像光を反射部41bへ導光する。   The optical prism 41a is a member made of a material transparent to visible light such as glass or transparent resin, for example, and is a parallel flat plate formed such that a pair of main surfaces facing each other are substantially parallel. The upper end portion (upper surface portion) of the optical prism 41a is the incident surface of the image light generated by the image generation unit 42 on the upper surface, and the thick portion 411 so that most of the image light can be collected inside. Is formed. The thick portion 411 is formed in a wedge shape with the front side (opposite to the eyepiece surface) protruding so as to become thicker upward. The lower end portion (bottom surface portion) of the optical prism 41a is formed with an inclined portion 412 that is cut obliquely, and the inclined portion 412 is provided with a reflecting portion 41b. The optical prism 41a causes the image light incident from the upper end portion thereof to be reflected a plurality of times therein, and guides the image light to the reflection portion 41b. More specifically, the optical prism 41a repeats total reflection of the image light incident from the upper end portion thereof alternately on the pair of main surfaces, and guides the image light to the reflection portion 41b.

反射部41bは、光学プリズム41aによって導光された映像光を、光学プリズム41aの傾斜部412と協働して光学プリズム41aの外部の後面側(接眼面側)へ反射する光学素子であり、例えば、ハーフミラー、多層膜およびホログラム光学素子等である。本実施形態では、反射部41bは、ホログラムを生成するホログラム光学素子(HOE)であり、例えば、波長選択性および角度選択性がともに比較的高いことから、感光材料の厚さにより位相差で情報を記録する体積位相型の反射型ホログラム光学素子である。この反射型ホログラム光学素子は、本実施形態では、被写体の映像光を拡大反射する、光学的に軸非対称ないわゆる自由曲面で構成されて正の光学的パワーを有する。このように本実施形態では、反射型ホログラム光学素子が、正の光学的パワーを持つ反射面を有して被写体の映像光を拡大反射し、接眼光学系を兼ねるので、表示ユニット40を小型化することができる。そして、反射部41bの反射面は、軸非対象であるので、所定の収差を補正するように反射型ホログラム光学素子を構成することができ、作業者W(装着者、観察者)は、収差補正された被写体の映像を観察することが可能となる。このように反射部41bの反射面は、所定の収差を補正することができるように適宜に設計される。   The reflection part 41b is an optical element that reflects the image light guided by the optical prism 41a to the rear side (eyepiece side) outside the optical prism 41a in cooperation with the inclined part 412 of the optical prism 41a. For example, a half mirror, a multilayer film, a hologram optical element, and the like. In the present embodiment, the reflecting portion 41b is a hologram optical element (HOE) that generates a hologram. For example, since both wavelength selectivity and angle selectivity are relatively high, information is obtained by phase difference depending on the thickness of the photosensitive material. Is a volume phase reflection hologram optical element. In the present embodiment, the reflection type hologram optical element is constituted by a so-called free-form surface that is optically axisymmetric and magnifies and reflects image light of a subject, and has a positive optical power. As described above, in the present embodiment, the reflective hologram optical element has a reflecting surface having a positive optical power and magnifies and reflects the image light of the subject, and also serves as an eyepiece optical system. can do. Since the reflecting surface of the reflecting portion 41b is non-axial, the reflection hologram optical element can be configured to correct a predetermined aberration, and the operator W (wearer, observer) It is possible to observe the corrected subject image. As described above, the reflecting surface of the reflecting portion 41b is appropriately designed so that a predetermined aberration can be corrected.

また、この反射型ホログラム光学素子は、所定波長の映像光を回折反射するように構成されており、前記光源部44は、この反射型ホログラム光学素子の回折波長に応じた所定波長の光を発光するように構成される。より具体的には、本実施形態では、反射型ホログラム光学素子は、RGB(赤緑青)に対応した各波長465nm±10nm、520nm±10nmおよび635nm±10nmの映像光を回折するように製作され、これに応じて、光源部44は、中心波長465nm、520nmおよび635nmのRGB一体型の白色LEDを備えて構成される。この反射型ホログラム光学素子の感光材料として、例えば、フォトポリマ、銀塩材料、重クロム酸ゼラチン等を挙げることができ、特に、ドライプロセスで製造することができることから、フォトポリマが好ましい。   The reflection hologram optical element is configured to diffract and reflect image light having a predetermined wavelength, and the light source unit 44 emits light having a predetermined wavelength corresponding to the diffraction wavelength of the reflection hologram optical element. Configured to do. More specifically, in the present embodiment, the reflection type hologram optical element is manufactured so as to diffract image lights having wavelengths of 465 nm ± 10 nm, 520 nm ± 10 nm, and 635 nm ± 10 nm corresponding to RGB (red, green, and blue), In response to this, the light source unit 44 includes an RGB integrated white LED having center wavelengths of 465 nm, 520 nm, and 635 nm. Examples of the photosensitive material for the reflection type hologram optical element include a photopolymer, a silver salt material, gelatin dichromate, and the like. In particular, a photopolymer is preferable because it can be manufactured by a dry process.

そして、前記透明部材14Rの切り欠き部14Rsは、光学プリズム41aが隙間無く嵌め込まれるように、光学プリズム41aの形状に対応した形状とされており、透明部材14Rの切り欠き部14Rsに接眼光学系41が嵌め込まれた場合に、透明部材14Rと接眼光学系41とは1枚の板状に一体化され、傾斜部412に設けられた反射部41bは、光学プリズム41aと透明部材14Rとに挟まれて埋設する。このように透明部材14Rと光学プリズム41aとは、反射部41bを2つの透明材料に埋設した接合光学プリズムを構成している。このため、反射部41bが外気に触れることが無く、反射部41bがホログラム光学素子である場合に、ホログラムを安定にその性能を保つことが可能となる。   The cutout portion 14Rs of the transparent member 14R has a shape corresponding to the shape of the optical prism 41a so that the optical prism 41a can be fitted without any gap, and the cutout portion 14Rs of the transparent member 14R has an eyepiece optical system. When 41 is fitted, the transparent member 14R and the eyepiece optical system 41 are integrated into a single plate, and the reflecting portion 41b provided on the inclined portion 412 is sandwiched between the optical prism 41a and the transparent member 14R. Buried. Thus, the transparent member 14R and the optical prism 41a constitute a cemented optical prism in which the reflecting portion 41b is embedded in two transparent materials. For this reason, when the reflection part 41b does not touch external air and the reflection part 41b is a hologram optical element, it becomes possible to maintain the performance of a hologram stably.

光学プリズム41aによって導光された映像光は、反射部41bで反射し、より具体的には、本実施形態では、反射型ホログラム光学素子によって回折され、虚像として光学瞳Eに導かれる。装着者(作業者W)は、この光学瞳Eの映像光をその瞳に入射することで、映像を見ることができる。このように表示ユニット40では、VRAM64の映像信号による映像が映像生成部42の透過型LCD装置に表示され、この映像生成部42の透過型LCD装置によって得られた映像が、接眼光学系41によって装着者(作業者W)の眼球に直接投影され、あたかも該映像が空中に拡大投影されているかのような虚像の観察が可能になっている。   The image light guided by the optical prism 41a is reflected by the reflecting portion 41b. More specifically, in this embodiment, the image light is diffracted by the reflective hologram optical element and guided to the optical pupil E as a virtual image. The wearer (worker W) can view the image by causing the image light of the optical pupil E to enter the pupil. As described above, in the display unit 40, the video based on the video signal of the VRAM 64 is displayed on the transmissive LCD device of the video generation unit 42, and the video obtained by the transmissive LCD device of the video generation unit 42 is displayed by the eyepiece optical system 41. A virtual image can be observed as if it was projected directly onto the eyeball of the wearer (worker W) and as if the image was magnified and projected in the air.

ここで、このホログラム光学素子における波面再現性について簡単な例を挙げて説明すると、図4(A)に示すように、平行光を凹面ミラー(Concave mirror)で反射して瞳Eに集光する光束とし、凹面ミラーの前にホログラム材料を配置する。もとの平行光と、収束する光とを、それぞれ、ホログラムにおける参照光と物体光と考えれば、凹面に相当するホログラム光学素子(HOE)が作製できる。そして、再生時において、例えば透過型LCD装置のような映像生成手段(Display panel)からの光は、ホログラムによって瞳Eへ集光する光に変換されるので、図4(B)に示すように、集光点の位置から観察すれば、映像生成手段が拡大されて見える(Virtual image)。   Here, the wavefront reproducibility of the hologram optical element will be described with a simple example. As shown in FIG. 4A, parallel light is reflected by a concave mirror and condensed on the pupil E. A holographic material is placed in front of the concave mirror. Considering the original parallel light and the convergent light as reference light and object light in the hologram, respectively, a hologram optical element (HOE) corresponding to a concave surface can be produced. At the time of reproduction, the light from the image generation means (Display panel) such as a transmissive LCD device is converted into the light condensed on the pupil E by the hologram, so as shown in FIG. When viewed from the position of the condensing point, the image generation means appears to be enlarged (Virtual image).

また、透明部材14Rは、光学プリズム41aの傾斜部412での屈折をキャンセル(相殺)するので、装着者(作業者W)は、外界光を略歪むことなく見ることができる。また、体積位相型の反射型ホログラム光学素子は、上述のように、特定入射角の特定波長の光のみを回折するので、外界光にはほとんど影響せず、外界光は、透明部材14R、反射部41bの反射型ホログラム光学素子および光学プリズム41aを透過し、装着者(作業者W)は、略通常通り、外界を見ることができる。このように体積位相型の反射型ホログラム光学素子は、特定波長域の反射光とそれ以外の波長域の透過光とを合成するコンバイナ光学素子として機能している。このような構成によって表示ユニット40における外界光の可視光透過率を比較的高く、例えば約70%以上に、好ましくは約85%に、確保することが可能となり、外界光の透過率が高く、装着者(作業者W)がシースルーで外界を良好に見ることができ、装着者(作業者W)の作業性を向上することが可能となる。そして、本実施形態では、接眼光学系41は、右眼に対応する透明部材14Rに配設され、表示ユニット40に表示される映像を右眼で観察することができると同時に外界を右眼でも観察することができる(もちろん、左眼は、外界を観察することができる。   Further, since the transparent member 14R cancels (cancels) refraction at the inclined portion 412 of the optical prism 41a, the wearer (worker W) can see the external light without being substantially distorted. Further, as described above, the volume phase type reflection type hologram optical element diffracts only light having a specific wavelength at a specific incident angle, and therefore hardly affects external light. The wearer (worker W) can see the outside world almost as usual through the reflection type hologram optical element and the optical prism 41a of the portion 41b. As described above, the volume phase type reflection hologram optical element functions as a combiner optical element that synthesizes reflected light in a specific wavelength region and transmitted light in other wavelength regions. With such a configuration, the visible light transmittance of the external light in the display unit 40 can be relatively high, for example, about 70% or more, preferably about 85%, and the external light transmittance is high. The wearer (worker W) can see through the outside well through see-through, and the workability of the wearer (worker W) can be improved. In the present embodiment, the eyepiece optical system 41 is disposed on the transparent member 14R corresponding to the right eye so that an image displayed on the display unit 40 can be observed with the right eye, and at the same time, the outside world can be viewed with the right eye. Can be observed (of course, the left eye can observe the outside world).

ここで、外界光の可視光透過率が70%以上である場合には、被写体の映像と外界光による像との判別が難しくなるが、本実施形態では、後述するように、被写体の映像に判別化画像処理が施されるので、被写体の映像と外界光による像との判別が可能となる。このように外界光の可視光透過率が70%以上である場合に、本実施形態の遠隔作業支援システムSおよび撮影装置1は、より効果的である。   Here, when the visible light transmittance of the external light is 70% or more, it becomes difficult to distinguish between the subject image and the image by the external light. However, in the present embodiment, as will be described later, Since the discriminating image processing is performed, it is possible to discriminate between the image of the subject and the image by external light. Thus, when the visible light transmittance of external light is 70% or more, the remote operation support system S and the imaging device 1 of the present embodiment are more effective.

また、接眼光学系41は、本実施形態では、映像光を光学プリズム41aの内部で反射するとともに反射部41bの体積位相型の反射型ホログラム光学素子によって光学瞳Eに導くように構成されているので、透明部材14Rの厚みは、通常のメガネレンズと略同程度の厚み(例えば3mm程度)とすることができ、小型(コンパクト)で軽量となる。そして、前記反射は、本実施形態では、全反射であるので、装着者(作業者W)は、透明部材14Rの一対の両主面を通して外界光の透過率を略落とすことなく、外界を見ることができる。   In the present embodiment, the eyepiece optical system 41 is configured to reflect the image light inside the optical prism 41a and guide it to the optical pupil E by the volume phase type reflection hologram optical element of the reflection portion 41b. Therefore, the thickness of the transparent member 14R can be approximately the same as a normal eyeglass lens (for example, about 3 mm), and is small (compact) and lightweight. Since the reflection is total reflection in the present embodiment, the wearer (operator W) views the outside world without substantially reducing the transmittance of outside light through the pair of main surfaces of the transparent member 14R. be able to.

音入出力ユニット50は、音を入出力するための回路であり、音を出力する左右一対のイヤホン51L、51Rと、音を集音するマイクロホン52とを備えて構成される。マイクロホン52は、装着ユニット10を作業者Wが装着した場合に、作業者Wの音声を集音すべく、装着ユニット10のテンプル11Lから延びる略L字状のアーム53の先端に取り付けられている。この音入力ユニット50のマイクロホン52によって作業者Wの音声が集音され、この音声の音声データが撮影装置1からネットワークNTを介して遠隔支援装置5へ送信され、遠隔支援装置5のメインサーバPC6におけるスピーカ163bからこの音声データの音声が出力される。一方、この遠隔支援装置5のメインサーバPC6におけるマイクロホン162cによって指示者Aの音声が集音され、この音声の音声データが遠隔支援装置5からネットワークNTを介して撮影装置1へ送信され、撮影装置1のイヤホン51L、51Rからこの音声データの音声が出力される。あるいは、コンテンツサーバPC8から音声の支援コンテンツがネットワークNTを介して撮影装置1へ送信され、撮影装置1のイヤホン51L、51Rからこの音声の支援コンテンツが出力される。なお、撮影装置1のイヤホン51L、51Rは、一方のみであっても良い。これによって本実施形態の遠隔作業支援システムSは、音声指示を作業者Wに与えることができ、また、例えば音声等の音も撮影装置1と遠隔支援装置5との間で互いに交換することができ、作業者Wと指示者Aとは、音声によってコミュニケーションを図ることができる。   The sound input / output unit 50 is a circuit for inputting and outputting sound, and includes a pair of left and right earphones 51L and 51R that output sound, and a microphone 52 that collects sound. The microphone 52 is attached to the tip of a substantially L-shaped arm 53 extending from the temple 11L of the mounting unit 10 to collect the voice of the worker W when the mounting unit 10 is mounted by the worker W. . The voice of the operator W is collected by the microphone 52 of the sound input unit 50, and the voice data of the voice is transmitted from the photographing apparatus 1 to the remote support apparatus 5 via the network NT. The main server PC 6 of the remote support apparatus 5 The sound of the sound data is output from the speaker 163b. On the other hand, the voice of the instructor A is collected by the microphone 162c in the main server PC6 of the remote support device 5, and the voice data of this voice is transmitted from the remote support device 5 to the photographing device 1 via the network NT. The sound of this sound data is output from one earphone 51L, 51R. Alternatively, audio support content is transmitted from the content server PC8 to the image capturing apparatus 1 via the network NT, and the audio support content is output from the earphones 51L and 51R of the image capture apparatus 1. Note that the earphones 51L and 51R of the photographing apparatus 1 may be only one. Thus, the remote work support system S of the present embodiment can give a voice instruction to the worker W, and for example, sound such as voice can be exchanged between the photographing apparatus 1 and the remote support apparatus 5. The worker W and the instructor A can communicate by voice.

制御ユニット60は、撮影装置1の全体制御を司る回路である。制御ユニット60は、撮影ユニット20および表示ユニット40のように装着ユニット10に取り付けられても良いが、撮影装置1における作業者Wの頭部に装着される部分の重量を軽減するために、本実施形態では、装着ユニット10に取り付けられることなく装着ユニット10とは別体に設けられており、上述したように、ケーブル46によって撮影ユニット20、表示ユニット40および音入出力ユニット50と電気的に接続されている。制御ユニット60は、例えば、図1、図2および図5に示すように、画像メモリ61と、制御部162と、VRAM64と、音入力処理部65と、音出力処理部66と、電源スイッチ67aと、選択スイッチ67bと、ネットワークIF部68とを備えて構成され、これら画像メモリ61、制御部162、VRAM64、音入力処理部65、音出力処理部66、電源スイッチ67a、選択スイッチ67bおよびネットワークIF部68は、略直方体形状の筐体69に収容されている。なお、電源スイッチ67aおよび選択スイッチ67bは、その操作部分が筐体69の外部に臨むように筐体69内に配設され、ネットワークIF部68は、そのコネクタ部分が筐体69の外部に臨むように筐体69内に配設される。   The control unit 60 is a circuit that governs overall control of the photographing apparatus 1. The control unit 60 may be attached to the mounting unit 10 like the photographing unit 20 and the display unit 40. However, in order to reduce the weight of the portion attached to the head of the operator W in the photographing device 1, In the embodiment, it is provided separately from the mounting unit 10 without being attached to the mounting unit 10, and is electrically connected to the photographing unit 20, the display unit 40, and the sound input / output unit 50 by the cable 46 as described above. It is connected. For example, as shown in FIGS. 1, 2, and 5, the control unit 60 includes an image memory 61, a control unit 162, a VRAM 64, a sound input processing unit 65, a sound output processing unit 66, and a power switch 67a. And a selection switch 67b and a network IF unit 68. These image memory 61, control unit 162, VRAM 64, sound input processing unit 65, sound output processing unit 66, power switch 67a, selection switch 67b and network The IF unit 68 is accommodated in a substantially rectangular parallelepiped housing 69. The power switch 67a and the selection switch 67b are disposed in the housing 69 so that their operation portions face the outside of the housing 69, and the network IF section 68 has its connector portion facing the outside of the housing 69. In this manner, the housing 69 is disposed.

画像メモリ61は、例えば、RAM(Random Access Memory)等の揮発性の記憶素子およびその周辺回路を備えて構成され、上述したように、撮影ユニット20における映像制御部24の作業領域として用いられる。   The image memory 61 includes, for example, a volatile storage element such as a RAM (Random Access Memory) and its peripheral circuits, and is used as a work area of the video control unit 24 in the photographing unit 20 as described above.

VRAM64は、RAMおよびその周辺回路を備えて構成される、いわゆるビデオラム(Video RAM)であり、表示ユニット40における映像生成部42の画素数に対応した映像信号の記憶容量を少なくとも有し、映像生成部42で再生表示される映像を構成する映像信号をバッファするためのバッファメモリである。   The VRAM 64 is a so-called video RAM that includes a RAM and its peripheral circuits, and has at least a video signal storage capacity corresponding to the number of pixels of the video generation unit 42 in the display unit 40. This is a buffer memory for buffering a video signal that constitutes a video to be reproduced and displayed by the generation unit.

音入力処理部65は、音入出力ユニット50におけるマイクロホン52から入力されてきた音信号に対し、例えば、増幅やノイズカット等の所定の信号処理を行って制御部62へ出力する回路である。   The sound input processing unit 65 is a circuit that performs predetermined signal processing such as amplification and noise cut on the sound signal input from the microphone 52 in the sound input / output unit 50 and outputs the signal to the control unit 62.

音出力処理部66は、制御部62から入力されてきた音信号に対し、例えば、増幅やノイズカット等の所定の信号処理を行って音入出力ユニット50におけるイヤホン51L、51Rへ出力する回路である。   The sound output processing unit 66 is a circuit that performs predetermined signal processing such as amplification and noise cut on the sound signal input from the control unit 62 and outputs the signal to the earphones 51L and 51R in the sound input / output unit 50. is there.

電源スイッチ67aは、撮影装置1を稼動するために、撮影装置1を起動するスイッチ回路である。電源スイッチ67の投入(スイッチオン)により、例えば電池等の電源から、撮影装置1における電力を必要とする各部へ電力が供給される。   The power switch 67 a is a switch circuit that activates the photographing apparatus 1 in order to operate the photographing apparatus 1. When the power switch 67 is turned on (switched on), for example, power is supplied from a power source such as a battery to each unit that requires power in the photographing apparatus 1.

選択スイッチ67bは、後述する複数のサブ判別化画像処理のうちからいずれかを選択するために、サブ判別化画像処理の切り換えを指示する切り換え指示をユーザから受け付け、撮影装置1の制御部62に入力するためのスイッチ回路である。選択スイッチ67bは、例えば、押しボタンスイッチを備えて構成され、サブ判別化画像処理の選択に関し撮影装置1は、スイッチ操作を受け付けるたびに、複数のサブ判別化画像処理をサイクリックに順次に切り換え、複数のサブ判別化画像処理のうちから1つのサブ判別化画像処理を選択するように構成されてよい。また例えば、選択スイッチ67bは、複数のスイッチを備えて構成され、これら複数のスイッチのそれぞれに、互いに異なるサブ判別化画像処理が1つずつ割り当てられており、サブ判別化画像処理の選択に関し撮影装置1は、スイッチ操作されてオンされたスイッチに対応するサブ判別化画像処理を選択するように構成されてよい。また例えば、選択スイッチ67bは、複数のスイッチ接点を持つロータリスイッチを備えて構成され、このロータリスイッチにおける複数のスイッチ接点のそれぞれに、互いに異なるサブ判別化画像処理が1つずつが割り当てられており、サブ判別化画像処理の選択に関し撮影装置1は、スイッチ操作されてオンされたスイッチ接点に対応するサブ判別化画像処理を選択するように構成されてよい。   The selection switch 67b receives a switching instruction for instructing switching of the sub-discriminated image processing from the user in order to select one of a plurality of sub-discriminated image processing described later, and sends it to the control unit 62 of the photographing apparatus 1. It is a switch circuit for inputting. The selection switch 67b is configured to include, for example, a push button switch, and the imaging apparatus 1 sequentially switches a plurality of sub-discrimination image processes cyclically every time a switch operation is received regarding selection of sub-discrimination image processing. The sub-discrimination image processing may be selected from among the plurality of sub-discrimination image processings. In addition, for example, the selection switch 67b is configured to include a plurality of switches, and each of the plurality of switches is assigned one different sub-discrimination image process, and photographing regarding selection of the sub-discrimination image processing is performed. The apparatus 1 may be configured to select a sub-discriminating image process corresponding to a switch that is switched on and turned on. Further, for example, the selection switch 67b is configured to include a rotary switch having a plurality of switch contacts, and one different sub-discriminating image process is assigned to each of the plurality of switch contacts in the rotary switch. Regarding the selection of the sub-discrimination image processing, the photographing apparatus 1 may be configured to select the sub-discrimination image processing corresponding to the switch contact that is switched on and turned on.

ネットワークIF部68は、ネットワークNTを介して撮影装置1と遠隔支援装置5との間で通信を行うための通信インタフェース回路であり、制御部62から入力されてきたデータをネットワークNTの通信プロトコルに対応した通信信号に収容し、この収容した通信信号をネットワークNTへ送信するとともに、ネットワークNTから撮影装置1宛ての通信信号を受信し、この受信した通信信号に収容されているデータを取り出して制御部62で処理可能な形式に変換し、この変換したデータを制御部62へ出力するものである。   The network IF unit 68 is a communication interface circuit for performing communication between the imaging device 1 and the remote support device 5 via the network NT, and uses the data input from the control unit 62 as a communication protocol of the network NT. It accommodates in the corresponding communication signal, transmits the accommodated communication signal to the network NT, receives the communication signal addressed to the photographing apparatus 1 from the network NT, extracts the data accommodated in the received communication signal, and controls it. The data is converted into a format that can be processed by the unit 62, and the converted data is output to the control unit 62.

制御部62は、撮影装置1の各部を当該機能に応じて制御する回路であり、例えば、撮影装置1の各部を当該機能に応じて制御するための制御プログラム等の各種の所定のプログラムや前記所定のプログラムの実行に必要なデータ等の各種の所定のデータ等を記憶する、不揮発性の記憶素子であるROM(Read Only Memory)、前記所定のプログラムを読み出して実行することによって所定の演算処理や制御処理を行うCPU(Central Processing Unit)、前記所定のプログラムの実行中に生じるデータ等を記憶するいわゆる前記CPUのワーキングメモリとなるRAM、および、これらの周辺回路を備えたマイクロコンピュータ等によって構成される。なお、この制御部62は、例えば、EEPROM(Electrically Erasable Programmable Read Only Memory)等の書き換え可能な不揮発性の記憶素子を備えても良い。制御部62は、機能的に、判別化画像処理部63aと、表示制御部63bとを備えている。   The control unit 62 is a circuit that controls each unit of the imaging device 1 according to the function. For example, the control unit 62 may be various predetermined programs such as a control program for controlling the units of the imaging device 1 according to the function. ROM (Read Only Memory) that is a nonvolatile storage element that stores various kinds of predetermined data such as data necessary for execution of the predetermined program, and predetermined arithmetic processing by reading and executing the predetermined program And a CPU (Central Processing Unit) that performs control processing, a RAM that serves as a working memory of the CPU that stores data generated during the execution of the predetermined program, and a microcomputer that includes these peripheral circuits Is done. The control unit 62 may include a rewritable nonvolatile memory element such as an EEPROM (Electrically Erasable Programmable Read Only Memory). The control unit 62 functionally includes a discriminating image processing unit 63a and a display control unit 63b.

判別化画像処理部63aは、表示ユニット40に、撮影ユニット20によって撮影された被写体の映像を外界光に重ね合わせて表示する場合に、前記被写体の映像と前記外界光による像とを区別するための判別化画像処理を前記被写体の映像に施すものである。この判別化画像処理は、撮影ユニット20によって撮影されたカラーの被写体の映像とは当該判別化画像処理後の映像が一目瞭然で異なる映像となる処理であることが好ましい。このように本実施形態の撮影装置1では、被写体の映像自体に判別化画像処理が施され、表示ユニット40に、撮影ユニット20によって撮影された被写体の映像を外界光に重ね合わせて表示する場合に、撮影ユニット20によって撮影された被写体の映像を外界光による像から区別することができるようになっている。特に、撮影ユニット20が作業者Wの視野内の領域を撮影する場合には、外界光による像に映像が重なると区別しにくいため、より効果的である。   The discriminating image processing unit 63a distinguishes between the image of the subject and the image of the external light when displaying the video of the subject photographed by the photographing unit 20 on the display unit 40 so as to be superimposed on the external light. The discriminating image processing is applied to the video of the subject. The discriminating image processing is preferably processing in which the video after the discriminating image processing is clearly different from the video of the color subject photographed by the photographing unit 20. As described above, in the photographing apparatus 1 of the present embodiment, the discriminating image processing is performed on the subject image itself, and the subject image photographed by the photographing unit 20 is displayed on the display unit 40 so as to be superimposed on the external light. In addition, the image of the subject photographed by the photographing unit 20 can be distinguished from the image by the external light. In particular, when the imaging unit 20 captures an area within the field of view of the worker W, it is more effective because it is difficult to distinguish when an image overlaps an image of external light.

この判別化画像処理として、モノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理のうちの少なくとも1つが採用される。判別化画像処理部63aは、モノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理のうちの1つを単独で前記被写体の映像に施しても良く、また、判別化画像処理部63aは、モノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理のうちから複数を選択して、この選択した複数の画像処理をそれぞれ前記被写体の映像に施しても良い。例えば、モノトーン処理およびエッジ強調処理のそれぞれが前記被写体の映像に施される。また例えば、エッジ強調処理およびエッジ抽出処理のそれぞれが前記被写体の映像に施される。このため、作業者W(装着者、観察者)は、前記被写体の映像を外界光による像から容易に区別して観察することが可能である。   As the discriminating image processing, at least one of monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, gradation level number reduction processing, and noise superimposition processing is employed. The discriminating image processing unit 63a independently performs one of monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, gradation level number reduction processing, and noise superimposition processing on the subject. In addition, the discriminating image processing unit 63a may perform monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, gradation level number reduction processing, and noise superimposition processing. A plurality of images may be selected, and the selected plurality of image processes may be performed on the video of the subject. For example, monotone processing and edge enhancement processing are each performed on the video of the subject. Further, for example, each of the edge enhancement processing and the edge extraction processing is performed on the video of the subject. For this reason, the operator W (wearer, observer) can easily distinguish and observe the image of the subject from the image of the external light.

モノトーン処理は、被写体の映像を単色の映像に変換する処理である。モノトーン処理は、例えば、各画素の階調を維持しつつ各画素の色を単色に色変換する処理や、被写体の映像信号におけるRGB3色の強度バランスを変更する処理や、このRGB3色の信号のうちの1色または2色のみを用いる処理等の公知の常套手段によって実行される。モノトーン処理には、色調変更処理や、被写体の映像を白黒の映像に変換するモノクロ化処理(白黒化処理)や、被写体の映像を所定の閾値を境界として互いに異なる2つの階調レベルに変換する二値化処理も含む。被写体の映像信号における明度(輝度)のみを用いることによって容易にモノクロ化処理が実行可能である。このようなモノトーン処理によって、表示ユニット40に表示される映像の表示像の色調が異なるので、作業者W(装着者、観察者)は、撮影ユニット20によって撮影された被写体の映像を外界光による像から容易に区別して観察することが可能である。   The monotone process is a process for converting a subject image into a monochrome image. Monotone processing is, for example, processing for converting the color of each pixel to a single color while maintaining the gradation of each pixel, processing for changing the intensity balance of the three RGB colors in the video signal of the subject, and processing of the RGB three-color signal. It is executed by a known conventional means such as processing using only one or two colors. Monotone processing includes color tone change processing, monochrome processing (monochrome processing) for converting a subject video to black and white, and conversion of the subject video to two different gradation levels with a predetermined threshold as a boundary. Also includes binarization processing. By using only the brightness (luminance) in the video signal of the subject, the monochrome process can be easily performed. Since the color tone of the display image of the image displayed on the display unit 40 is different due to such monotone processing, the worker W (wearer, observer) can view the image of the subject photographed by the photographing unit 20 by external light. It can be easily distinguished from the image and observed.

エッジ強調処理は、映像における明るい部分と暗い部分との境界であるエッジを強調する処理であり、例えば、注目画素近傍の階調値の微分または差分を用いた演算によってエッジを強調するフィルタを用いる等の公知の常套手段によって実行される。このようなエッジ強調処理によって、表示ユニット40に表示される映像のエッジが強調されるので、作業者W(装着者、観察者)は、撮影ユニット20によって撮影された被写体の映像を外界光による像から容易に区別して観察することが可能である。   The edge enhancement process is a process for enhancing an edge that is a boundary between a bright part and a dark part in an image. For example, a filter that emphasizes an edge by calculation using a differential or difference of a gradation value near a target pixel is used. It implements by well-known conventional means, such as. The edge of the image displayed on the display unit 40 is emphasized by such edge enhancement processing, so that the worker W (wearer, observer) can view the image of the subject photographed by the photographing unit 20 by external light. It can be easily distinguished from the image and observed.

エッジ抽出処理は、前記エッジのみを取り出す処理であり、前記エッジ強調処理と同様の処理によって実行可能である。このようなエッジ抽出処理によって、表示ユニット40に表示される映像のエッジが抽出され、外界光による像と異なるものとなるので、作業者W(装着者、観察者)は、撮影ユニット20によって撮影された被写体の映像を外界光による像から容易に区別して観察することが可能である。   The edge extraction process is a process for extracting only the edge, and can be executed by the same process as the edge enhancement process. The edge of the video displayed on the display unit 40 is extracted by such an edge extraction process, which is different from the image by the external light. Therefore, the operator W (wearer, observer) takes a picture with the photographing unit 20. It is possible to easily distinguish the observed subject image from the image of the external light and observe it.

コントラスト強調処理は、コントラストを強調する処理であり、明暗の乏しい映像がコントラスト強調処理によってメリハリのある映像に変換される。このコントラスト強調処理は、例えば、予め設定された所定の演算式によって各画素の階調レベルが、暗い場合はより暗く明るい場合はより明るくなるように、変換される等の、公知の常套手段によって実行される。このようなコントラスト処理によって、メリハリのある映像となるので、作業者W(装着者、観察者)は、撮影ユニット20によって撮影された被写体の映像を相対的にコントラストの低い外界光による像から容易に区別して観察することが可能である。   The contrast enhancement process is a process for enhancing the contrast, and an image with poor contrast is converted into a sharp image by the contrast enhancement process. This contrast enhancement processing is performed by a known conventional means such as, for example, conversion so that the gradation level of each pixel is darker when it is darker and brighter when it is brighter by a predetermined arithmetic expression set in advance. Executed. By such contrast processing, a sharp image is obtained, so that the worker W (wearer, observer) can easily view the image of the subject photographed by the photographing unit 20 from an image of ambient light having a relatively low contrast. It is possible to observe separately.

ネガポジ反転処理は、ネガ画像をポジ画像に、あるいは、ポジ画像をネガ画像に変換する処理であり、例えば、ネガ画像(ポジ画像)をポジ画像(ネガ画像)に変換する場合では、各画素の色を、ネガ(ポジ)の色からポジ(ネガ)の色へ変換する等の公知の常套手段によって実行される。なお、モノクロの場合には、ネガポジ反転処理によって、白黒が反転される。このようなネガポジ反転処理によって、表示ユニット40に表示される映像がネガポジ反転され、外界光による像と全く異なるものとなるので、作業者W(装着者、観察者)は、撮影ユニット20によって撮影された被写体の映像を外界光による像から容易に区別して観察することが可能である。   The negative / positive inversion processing is processing for converting a negative image into a positive image or a positive image into a negative image. For example, when converting a negative image (positive image) into a positive image (negative image), The color is performed by known conventional means such as converting the color from negative (positive) to positive (negative). In the case of monochrome, black and white are reversed by negative / positive reversal processing. By such negative / positive inversion processing, the image displayed on the display unit 40 is negative / positive-inverted and completely different from the image by the external light. Therefore, the operator W (wearer, observer) takes an image with the imaging unit 20. It is possible to easily distinguish the observed subject image from the image of the external light and observe it.

モザイク処理は、映像をモザイク様にぼかす処理であり、例えば、隣接する複数の画素の画素値を予め設定された所定の演算式によって1つの画素値に統合する等の公知の常套手段によって実行される。モザイク処理する際、実際に観察者がモザイクとして感じるレベルは、観察時の画面サイズ(観察画角)に依存する。すなわち、同じ画素数のモザイク画像を観察者が観察しても、観察画面(観察画角)が大きければ荒い画像として観察され、逆に観察画面(観察画角)が小さければ細かい画像(モザイクとは感じない画像)として観察される。このため、モザイク化する程度(モザイクの大きさ)は、カメラファインダとして観察する表示ユニット40の観察画面サイズ(観察画角)を考慮する必要があるが、一般的なHMDでの観察画角は、約14〜35度程度であるので、本実施形態では、モザイク化は、画素数で2500(一辺約50ピクセル)〜14400(一辺約120ピクセル)程度の画像となるよう処理する。もちろん、縦横比は、表示画像の縦横比に応じて変化される。約6400画素(正方形とすると一辺約80ピクセル)程度が、最も外界像と判別が容易であるので、好ましい。このようなモザイク処理によって、表示ユニット40に表示される映像がモザイク化されて解像度が落ちるので、外界光による像と異なるものとなるから、作業者W(装着者、観察者)は、撮影ユニット20によって撮影された被写体の映像を外界光による像から容易に区別して観察することが可能である。モザイク化の画素数が上記範囲より少ない場合には、表示画像が粗くなり過ぎて被写体の認識が困難となる。モザイク化の画素数が上記範囲より多い場合には、モザイク化のメリットが少ない。   Mosaic processing is processing that blurs a video like a mosaic, and is executed by a known conventional means such as integrating pixel values of a plurality of adjacent pixels into one pixel value by a predetermined arithmetic expression. The When mosaic processing is performed, the level that the observer actually feels as a mosaic depends on the screen size (observation angle of view) at the time of observation. That is, even if an observer observes a mosaic image having the same number of pixels, it is observed as a rough image if the observation screen (observation angle of view) is large, and conversely, if the observation screen (observation angle of view) is small, a fine image (mosaic and Is not felt image). For this reason, the degree of mosaicing (the size of the mosaic) needs to consider the observation screen size (observation angle of view) of the display unit 40 observed as a camera finder, but the observation angle of view in a general HMD is Therefore, in this embodiment, the mosaic processing is performed so that an image having about 2500 (about 50 pixels on a side) to about 14400 (about 120 pixels on a side) is obtained. Of course, the aspect ratio is changed according to the aspect ratio of the display image. About 6400 pixels (about 80 pixels on a side if square) is preferable because it is the easiest to distinguish from an external image. By such mosaic processing, the image displayed on the display unit 40 is made into a mosaic and the resolution is lowered, so that the image is different from the image by external light. Therefore, the worker W (wearer, observer) It is possible to easily distinguish and observe the image of the subject photographed by 20 from the image of the external light. When the number of pixels for mosaicing is less than the above range, the display image becomes too coarse and recognition of the subject becomes difficult. When the number of pixels for mosaicing is larger than the above range, the merit of mosaicing is small.

階調レベル数低減処理は、映像の階調レベル数を低減する処理であり、例えば、隣接する複数の階調レベルを1つの階調レベルに統合する等の公知の常套手段によって実行される。このような階調レベル数低減処理によって、表示ユニット40に表示される映像の階調レベル数が落ちて、外界光による像と異なるものとなるので、作業者W(装着者、観察者)は、撮影ユニット20によって撮影された被写体の映像を外界光による像から容易に区別して観察することが可能である。   The gradation level number reduction process is a process for reducing the number of gradation levels of an image, and is executed, for example, by a known conventional means such as integrating a plurality of adjacent gradation levels into one gradation level. By such a gradation level number reduction process, the number of gradation levels of the image displayed on the display unit 40 is reduced and becomes different from the image by the external light. Therefore, the operator W (wearer, observer) can The image of the subject photographed by the photographing unit 20 can be easily distinguished from the image of the external light and observed.

ノイズ重畳処理(ノイズ追加処理)は、正規の撮影画像(撮影ユニット20によって撮影された元の映像)に対して、ある一定割合でランダムなノイズデータを重ねる処理であり、公知の常套手段によって実行される。本実施形態では、ノイズ重畳処理は、実際の正規の撮影画像に対して、全画素の15〜50%の割合で画素値をランダムに発生させた画素値に置き換える処理によって実行される。全画素の15%を下回ると、ノイズが少なすぎて外界像との差が小さく判別が困難となってしまい、好ましくない。全画素の50%を上回ると、撮影された被写体の輪郭や領域のノイズに埋もれてしまい、判別が困難となってしまい、好ましくない。全画素の30%程度が最も好ましい。このようなノイズ重畳処理によって、表示ユニット40に表示される映像にノイズが重畳され、外界光による像と異なるものとなるので、作業者W(装着者、観察者)は、撮影ユニット20によって撮影された被写体の映像を外界光による像から容易に区別して観察することが可能である。   The noise superimposition process (noise addition process) is a process of superimposing random noise data at a certain ratio on a regular photographed image (original video photographed by the photographing unit 20), and is executed by a known conventional means. Is done. In the present embodiment, the noise superimposition process is executed by a process of replacing pixel values with randomly generated pixel values at a rate of 15 to 50% of all pixels with respect to an actual regular captured image. If it is less than 15% of all pixels, there is too little noise, and the difference from the external image becomes small, making it difficult to distinguish. If it exceeds 50% of all pixels, it will be buried in the noise of the contour and area of the photographed subject, making discrimination difficult, and this is not preferable. About 30% of all pixels is most preferable. By such noise superimposition processing, noise is superimposed on the image displayed on the display unit 40 and becomes different from the image by the external light. Therefore, the operator W (wearer, observer) takes a picture with the photographing unit 20. It is possible to easily distinguish the observed subject image from the image of the external light and observe it.

これらモノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理の各画像処理は、上述のように公知の常套手段によって実現可能であるが、本実施形態の遠隔支援作業システムSおよび撮影装置1では、これら各画像処理は、その本来的な用途だけでなく、撮影ユニット20によって撮影された被写体の映像を外界光に重ね合わせて表示する場合に、前記被写体の映像と前記外界光による像とを区別するため、という全く新規で思いも寄らない発想で用いられている。   These monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, gradation level number reduction processing, and noise superimposition processing can be realized by known conventional means as described above. However, in the remote support work system S and the photographing apparatus 1 of the present embodiment, each of these image processings is not limited to its original use, but the subject image photographed by the photographing unit 20 is superimposed on the external light. In order to distinguish between the image of the subject and the image of the external light, it is used in a completely new and unexpected idea.

さらに、本実施形態では、判別化画像処理部63aは、複数のサブ判別化画像処理のうちのいずれかを選択し、この選択したサブ判別化画像処理を前記被写体の映像に施すものである。   Furthermore, in this embodiment, the discriminating image processing unit 63a selects any one of a plurality of sub-discriminating image processes, and applies the selected sub-discriminating image process to the video of the subject.

サブ判別化画像処理は、上述のモノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理のうちの少なくとも1つから成る。例えば、モノトーン処理およびエッジ強調処理がサブ判別化画像処理の1つとして設定される。また例えば、エッジ強調処理およびエッジ抽出処理がサブ判別化画像処理の1つとして設定される。このように複数のサブ判別化画像処理が予め用意されているので、例えば室内や昼間や夜間等の外界光の異なる使用環境に応じて、適宜なサブ判別化画像処理を選択することができ、より正確にカメラの撮影範囲を確認することができるように、前記被写体の映像を表示することができる。   The sub-discriminated image processing includes at least one of the above-described monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, gradation level number reduction processing, and noise superimposition processing. For example, monotone processing and edge enhancement processing are set as one of the sub-discrimination image processing. Further, for example, edge enhancement processing and edge extraction processing are set as one of the sub-discrimination image processing. Thus, since a plurality of sub-discrimination image processing is prepared in advance, appropriate sub-discrimination image processing can be selected according to different use environments of outside light such as indoors, daytime, and nighttime, The image of the subject can be displayed so that the shooting range of the camera can be confirmed more accurately.

より具体的には、本実施形態では、判別化画像処理部63aは、機能的に、判別化処理部631と、判別化処理選択部632とを備えて構成されている。判別化処理選択部632は、選択スイッチ67bのスイッチ操作に応じて複数のサブ判別化画像処理のうちのいずれか1つのサブ判別化画像処理を選択し、この選択したサブ判別化画像処理を前記被写体の映像に施す判別化画像処理として判別化処理部631へ通知するものである。判別化処理部631は、表示ユニット40に、撮影ユニット20によって撮影された被写体の映像を外界光に重ね合わせて表示する場合に、判別化処理選択部632から通知されたサブ判別化画像処理を前記被写体の映像に施すものである。   More specifically, in the present embodiment, the discriminating image processing unit 63 a is functionally configured to include a discriminating processing unit 631 and a discriminating process selection unit 632. The discriminating process selecting unit 632 selects any one of the plurality of sub-discriminating image processes according to the switch operation of the selection switch 67b, and the selected sub-discriminating image process is selected as the sub-discriminating image process. The discriminating processing unit 631 is notified as discriminating image processing to be performed on the video of the subject. The discriminating processing unit 631 performs the sub-discriminating image processing notified from the discriminating processing selecting unit 632 when displaying the video of the subject imaged by the imaging unit 20 on the display unit 40 so as to be superimposed on the external light. It is applied to the image of the subject.

表示制御部63bは、被写体の映像を外界光に重ね合わせて表示ユニット40に表示するか否かを制御するものである。本実施形態では、例えば、表示制御部63bは、撮影ユニット20によって撮影された被写体の映像とは異なる別の映像がある場合(例えば、遠隔支援装置5からネットワークNTを介してネットワークIF部68で受信した映像がある場合)に、撮影ユニット20によって撮影された被写体の映像を外界光に重ね合わせて表示ユニット40に表示することを停止し、前記別の映像を外界光に重ね合わせて表示ユニット40に表示するものである。このように表示制御部63bを備えるので、撮影ユニット20によって撮影された被写体の映像を外界光に重ね合わせて表示ユニット40に表示する場合に、必要に応じて、前記被写体の映像に判別化画像処理を施すことができる。特に、被写体の映像ではない前記別の映像を表示ユニット40に表示する場合には、この別の映像は、外界光による像と本来的に異なるため、判別化画像処理が必要ではなく、このような構成は、例えば、このような場合に効果的に対応することができる。   The display control unit 63b controls whether or not the image of the subject is displayed on the display unit 40 while being superimposed on the external light. In the present embodiment, for example, when there is another video different from the video of the subject captured by the imaging unit 20 (for example, the network IF unit 68 from the remote support device 5 via the network NT). When there is a received image), the display unit 40 stops displaying the image of the subject imaged by the image capturing unit 20 on the external light and superimposing the other image on the external light. 40 is displayed. Since the display control unit 63b is provided in this way, when the video of the subject imaged by the imaging unit 20 is displayed on the display unit 40 so as to be superimposed on the external light, the discriminating image is included in the video of the subject as necessary. Processing can be performed. In particular, when the other video that is not the video of the subject is displayed on the display unit 40, this different video is inherently different from the image by the external light, and thus discriminating image processing is not necessary. Such a configuration can effectively cope with such a case, for example.

次に、本実施形態の動作について説明する。図6は、本実施形態の遠隔作業支援システムにおける撮影装置の動作を示すフローチャートである。図7は、実施形態の遠隔作業支援システムにおける撮影装置によって実施される判別化画像処理の一例を説明するための図である。   Next, the operation of this embodiment will be described. FIG. 6 is a flowchart showing the operation of the photographing apparatus in the remote operation support system of this embodiment. FIG. 7 is a diagram for explaining an example of discriminating image processing performed by the imaging device in the remote operation support system according to the embodiment.

本実施形態の遠隔作業支援システムSにおける撮影装置1は、判別化画像処理に関し、図6に示すように動作している。すなわち、図6において、ステップS11では、制御部62によって、撮影ユニット20で被写体を撮影するか否かが判断される。この判断の結果、撮影ユニット20で被写体を撮影しない場合(N)には、ステップS20が実行され、一方、この判断の結果、撮影ユニット20で被写体を撮影する場合(Y)には、ステップS12が実行される。   The imaging device 1 in the remote operation support system S of the present embodiment operates as shown in FIG. 6 for discriminating image processing. That is, in FIG. 6, in step S <b> 11, the control unit 62 determines whether to shoot a subject with the shooting unit 20. As a result of this determination, when the subject is not photographed by the photographing unit 20 (N), step S20 is executed. On the other hand, when the subject is photographed by the photographing unit 20 as a result of this judgment (Y), step S12 is executed. Is executed.

ステップS12では、撮影ユニット20によって被写体が撮影され、制御部62によって、画像メモリ61に格納されている被写体の映像が制御部62に取り込まれる。   In step S <b> 12, the subject is shot by the shooting unit 20, and the video of the subject stored in the image memory 61 is taken into the control unit 62 by the control unit 62.

続いて、ステップS13では、この撮影ユニット20によって撮影された被写体の映像を遠隔支援装置5へ送信するか否かが判断される。この判断の結果、撮影ユニット20によって撮影された被写体の映像を送信する場合(Y)には、ステップS14が実行され、一方、この判断の結果、撮影ユニット20によって撮影された被写体の映像を送信しない場合(N)には、ステップS14がスキップされてステップS15が実行される。   Subsequently, in step S <b> 13, it is determined whether or not to transmit the video of the subject photographed by the photographing unit 20 to the remote support device 5. As a result of this determination, when the video of the subject photographed by the photographing unit 20 is transmitted (Y), step S14 is executed. On the other hand, as a result of this determination, the subject image photographed by the photographing unit 20 is transmitted. If not (N), step S14 is skipped and step S15 is executed.

ステップS14では、制御部62によって、ネットワークIF部68を用いてネットワークNTを介して遠隔支援装置5へ、撮影ユニット20によって撮影された被写体の映像が送信される。すなわち、判別化画像処理の施されていない、撮影ユニット20によって撮影されたそのままの被写体の映像が遠隔支援装置5へ送信される。なお、この送信の際に、通信負荷の低減や通信時間の短縮のために、制御部62によって、前記被写体の映像は、画像圧縮されてもよい。   In step S <b> 14, the image of the subject photographed by the photographing unit 20 is transmitted by the control unit 62 to the remote support apparatus 5 via the network NT using the network IF unit 68. That is, an image of the subject as it is captured by the imaging unit 20 that has not been subjected to discriminating image processing is transmitted to the remote support device 5. In this transmission, the video of the subject may be image-compressed by the control unit 62 in order to reduce the communication load and the communication time.

続いて、ステップS15では、制御部62によって、撮影ユニット20によって撮影された被写体の映像を表示ユニット40に表示するか否かが判断される。この判断の結果、撮影ユニット20によって撮影された被写体の映像を表示ユニット40に表示する場合(Y)には、ステップS16が実行され、一方、この判断の結果、撮影ユニット20によって撮影された被写体の映像を表示ユニット40に表示しない場合(N)には、ステップS20が実行される。   Subsequently, in step S <b> 15, the control unit 62 determines whether or not to display an image of the subject imaged by the imaging unit 20 on the display unit 40. As a result of this determination, when the video of the subject photographed by the photographing unit 20 is displayed on the display unit 40 (Y), step S16 is executed. On the other hand, as a result of this judgment, the subject photographed by the photographing unit 20 Is not displayed on the display unit 40 (N), step S20 is executed.

ステップS16では、制御部62の判別化画像処理部63aにおける判別化処理部631によって、撮影ユニット20によって撮影された被写体の映像が、判別化処理選択部632から通知されたサブ判別化画像処理で画像処理される。なお、判別化処理選択部632によって、上述したように、選択スイッチ67bのスイッチ操作に応じたサブ判別化画像処理が判別化処理選択部632から判別化処理部631へ通知される。   In step S <b> 16, the video of the subject photographed by the photographing unit 20 by the discriminating processing unit 631 in the discriminating image processing unit 63 a of the control unit 62 is sub-discriminated image processing notified from the discriminating process selection unit 632. Image processing is performed. Note that, as described above, the discriminating process selection unit 632 notifies the discriminating process selection unit 632 of the sub-discriminating image process corresponding to the switch operation of the selection switch 67b.

続いて、ステップS17では、制御部62によって、この判別化画像処理部63aの判別化処理部631で判別化画像処理された被写体の映像が表示ユニット40に表示される。このため、作業者W(装着者)は、この判別化画像処理の実行により、撮影ユニット20によって撮影された被写体の映像と外界光による像とを容易に区別することができ、正確に撮影ユニット20の撮影範囲を確認することができる。しかも、このために特許文献2のようにカメラの撮影方向等を算出する必要もなく、より簡単な手法で、前記作用効果を達成することができる。   Subsequently, in step S <b> 17, the control unit 62 displays on the display unit 40 the video of the subject that has been subjected to the discrimination image processing by the discrimination processing unit 631 of the discrimination image processing unit 63 a. For this reason, the operator W (wearer) can easily distinguish between the image of the subject photographed by the photographing unit 20 and the image of the external light by executing this discriminating image processing, and accurately. Twenty shooting ranges can be confirmed. In addition, for this reason, it is not necessary to calculate the shooting direction of the camera as in Patent Document 2, and the effects can be achieved with a simpler method.

撮影ユニット20によって撮影された被写体の映像が、例えば図7(C)に示すように、前記被写体の映像と外界光による像との区別が難しい映像である場合に、例えばモノトーン処理およびエッジ強調処理の組合せからなるサブ判別化画像処理で判別化画像処理されると、図7(A)に示すようにモノトーン化されるとともにエッジが強調された映像となり、前記被写体の映像と外界光による像との区別が容易となる。あるいは例えば、エッジ抽出処理およびエッジ強調処理の組合せからなるサブ判別化画像処理で判別化画像処理されると、図7(B)に示すようにエッジが抽出されるとともに強調された映像となり、前記被写体の映像と外界光による像との区別が容易となる。   When the video of the subject photographed by the photographing unit 20 is a video in which it is difficult to distinguish between the subject video and the image by external light, for example, as shown in FIG. 7C, for example, monotone processing and edge enhancement processing When the discriminating image processing is performed by the sub-discriminating image processing including the combination of the above, the image is monotoned and the edge is emphasized as shown in FIG. Is easy to distinguish. Or, for example, when discriminating image processing is performed by sub-discriminating image processing including a combination of edge extraction processing and edge enhancement processing, an edge is extracted and enhanced as shown in FIG. It is easy to distinguish between a subject image and an image by external light.

続いて、ステップS18では、作業者W(装着者)によって、撮影ユニット20によって撮影された被写体の映像と外界光による像とが区別することができるか否かの視認性が判断され、視認性が良い場合(Y)には、作業者Wによって選択スイッチ67bがスイッチ操作されることなく、制御部62は、本処理を終了し、一方、視認性が良くない場合(N)には、作業者Wによって選択スイッチ67bがスイッチ操作され、ステップS19が実行される。   Subsequently, in step S18, the visibility of whether or not the image of the subject photographed by the photographing unit 20 and the image by the external light can be distinguished by the operator W (wearer) is determined. When the condition is good (Y), the selection switch 67b is not operated by the operator W, and the control unit 62 ends this process. On the other hand, when the visibility is not good (N), The selection switch 67b is operated by the operator W, and step S19 is executed.

ステップS19では、この選択スイッチ67bのスイッチ操作によって、判別化処理選択部632によって、サブ判別化画像処理が切り換えられ、選択スイッチ67bのスイッチ操作に応じたサブ判別化画像処理が判別化処理選択部632から判別化処理部631へ通知され、処理がステップS16に戻される。このように本実施形態では、外界光の異なる使用環境に応じて、適宜なサブ判別化画像処理を選択することができる。   In step S19, by the switch operation of the selection switch 67b, the sub-discriminating image processing is switched by the discriminating process selection unit 632, and the sub-discrimination image processing corresponding to the switch operation of the selection switch 67b is performed. The discrimination processing unit 631 is notified from 632, and the process returns to step S16. As described above, in the present embodiment, an appropriate sub-discrimination image process can be selected according to different use environments of external light.

一方、ステップS20では、制御部62の表示制御部63bによって、撮影ユニット20によって撮影された被写体の映像と異なる別の映像を表示するか否かが判断される。この判断の結果、前記別の映像を表示しない場合には、表示制御部63bによって、表示ユニット40の映像生成部42がオフされ、本処理が終了される。一方、この判断の結果、前記別の映像を表示する場合には、表示制御部63bによって、表示ユニット40に前記別の映像が判別化画像処理されることなく、表示され、本処理が終了される。このように本実施形態では、表示ユニット40に表示される映像に必要に応じて判別化画像処理を施すことができ、撮影ユニット20によって撮影された被写体の映像を外界光に重ね合わせて表示ユニット40に表示する場合のみ、前記被写体の映像に判別化画像処理を施すことができる。   On the other hand, in step S20, the display control unit 63b of the control unit 62 determines whether or not to display another image different from the image of the subject imaged by the imaging unit 20. As a result of this determination, when the other video is not displayed, the video control unit 63b of the display unit 40 is turned off by the display control unit 63b, and this process is ended. On the other hand, as a result of this determination, when the other video is displayed, the display control unit 63b displays the other video on the display unit 40 without being subjected to discriminating image processing, and this processing is terminated. The As described above, in this embodiment, the image displayed on the display unit 40 can be subjected to discriminating image processing as necessary, and the image of the subject photographed by the photographing unit 20 is superimposed on the external light to be displayed on the display unit. Only when the image is displayed on 40, the image of the subject can be subjected to discriminating image processing.

なお、上述のステップS11、ステップS13、ステップS15およびステップS20の各判断を行うために、作業者W(装着者)からスイッチ操作を受け付ける複数のスイッチを制御ユニット60が備えても良い。これらスイッチのスイッチ操作に応じて各判断の成否が判断される。   Note that the control unit 60 may include a plurality of switches that accept switch operations from the worker W (wearer) in order to make the above-described determinations of step S11, step S13, step S15, and step S20. The success or failure of each determination is determined according to the switch operation of these switches.

このように動作するので、本実施形態にかかる遠隔作業支援システムSおよび撮影装置1(カメラファインダを含む)では、被写体の映像を外界光に重ね合わせて表示ユニット40に表示する場合に、判別化画像処理部63aによって前記被写体の映像に判別化画像処理が施される。このため、本実施形態にかかる遠隔作業支援システムSおよび撮影装置1(カメラファインダを含む)は、前記被写体の映像自体に判別化画像処理を施すので、撮影ユニット20の撮影方向等を算出することなくより簡単な手法で、正確に撮影ユニット20の撮影範囲を確認することができるように、前記被写体の映像を表示することができる。   Since it operates in this way, the remote work support system S and the photographing apparatus 1 (including the camera finder) according to the present embodiment discriminates when the subject image is displayed on the display unit 40 while being superimposed on the external light. The image processing unit 63a applies discriminating image processing to the video of the subject. For this reason, the remote operation support system S and the photographing apparatus 1 (including the camera finder) according to the present embodiment performs discriminating image processing on the subject image itself, and thus calculates the photographing direction and the like of the photographing unit 20. The image of the subject can be displayed so that the photographing range of the photographing unit 20 can be accurately confirmed by a simpler method.

また、本実施形態では、撮影装置1は、作業者W(装着者)の視野内撮影カメラとして機能する撮影ユニット20を備え、撮影装置1および遠隔支援装置5は、ネットワークIF部を備え、ネットワークNTを介して相互に通信を行うことができる。このように撮影装置1は、撮影ユニット20で撮影された被写体の映像を外部へ送信することができるので、作業者Wとは遠隔に存在する外部の指示者Aは、作業者Wの視点での被写体の映像を観察することができる。   In the present embodiment, the photographing apparatus 1 includes a photographing unit 20 that functions as a photographing camera within the field of view of the worker W (wearer). The photographing apparatus 1 and the remote support apparatus 5 include a network IF unit, and a network It is possible to communicate with each other via NT. As described above, since the photographing apparatus 1 can transmit the image of the subject photographed by the photographing unit 20 to the outside, the external instructor A that exists remotely from the worker W can be viewed from the viewpoint of the worker W. The video of the subject can be observed.

そして、本実施形態では、判別化画像処理によって、作業者W(装着者)は、カメラファインダとして機能する表示ユニット40の表示を参照することで、撮影ユニット20によって撮影された撮影範囲を容易に確認することができるので、例えば指示を得たい作業対象物を適宜なアングルで撮した映像等の作業者Wの意図した映像や、例えば指示者Aから撮影対象の指示を受けた場合等の指示者Aの意図した映像を、作業者Wとは遠隔に存在する外部の指示者Aに、適切に送信することが可能となる。   In the present embodiment, the discriminating image processing allows the worker W (wearer) to easily refer to the display of the display unit 40 that functions as a camera finder, thereby easily capturing the photographing range photographed by the photographing unit 20. Since it can be confirmed, for example, an image intended by the operator W, such as a video obtained by photographing the work object to be instructed at an appropriate angle, or an instruction when receiving an instruction to shoot from the instructor A, for example. The video intended by the operator A can be appropriately transmitted to the external instructor A that is remote from the worker W.

また、本実施形態において、撮影装置1は、図5に破線で示すように、撮影ユニット20によって撮影され、制御部62の判別化画像処理部63aによって判別化画像処理を施す前の被写体の映像を記録する記録部70をさらに備えて構成されてもよい。記録部70は、例えば、ハードディスク、フラッシュメモリ等のメモリカード等を備えて構成される。本実施形態では、画像メモリ61には、判別化画像処理を施す前の被写体の映像が記憶されているので、このような構成を容易に実現することが可能である。このように構成することによって、判別化画像処理を施す前の被写体の映像が記録部70に記録されるので、より正確な被写体の映像を記録することができる。   In the present embodiment, as shown by a broken line in FIG. 5, the photographing apparatus 1 is photographed by the photographing unit 20 and the subject image before being subjected to the discriminating image processing by the discriminating image processing unit 63 a of the control unit 62. The recording unit 70 may be further provided. The recording unit 70 includes, for example, a memory card such as a hard disk or a flash memory. In this embodiment, since the image of the subject before the discriminating image processing is stored in the image memory 61, such a configuration can be easily realized. With this configuration, the subject image before the discriminating image processing is recorded in the recording unit 70, so that a more accurate subject image can be recorded.

本発明を表現するために、上述において図面を参照しながら実施形態を通して本発明を適切且つ十分に説明したが、当業者であれば上述の実施形態を変更および/または改良することは容易に為し得ることであると認識すべきである。したがって、当業者が実施する変更形態または改良形態が、請求の範囲に記載された請求項の権利範囲を離脱するレベルのものでない限り、当該変更形態または当該改良形態は、当該請求項の権利範囲に包括されると解釈される。   In order to express the present invention, the present invention has been properly and fully described through the embodiments with reference to the drawings. However, those skilled in the art can easily change and / or improve the above-described embodiments. It should be recognized that this is possible. Therefore, unless the modifications or improvements implemented by those skilled in the art are at a level that departs from the scope of the claims recited in the claims, the modifications or improvements are not covered by the claims. To be construed as inclusive.

S 遠隔作業支援システム
1 撮影装置
5 遠隔支援装置
6 メインサーバコンピュータ装置
7 支援記録サーバコンピュータ装置
8 コンテンツサーバコンピュータ装置
10 装着ユニット
20 撮影ユニット
40 表示ユニット
41 接眼光学系
41a 光学プリズム
41b 反射部
50 音入出力ユニット
60 制御ユニット
63a 判別化画像処理部
63b 表示制御部
631 判別化処理部
632 判別化処理選択部
70 記録部
S Remote Work Support System 1 Imaging Device 5 Remote Support Device 6 Main Server Computer Device 7 Support Recording Server Computer Device 8 Content Server Computer Device 10 Mounting Unit 20 Imaging Unit 40 Display Unit 41 Eyepiece Optical System 41a Optical Prism 41b Reflector 50 Sound Input Output unit 60 Control unit 63a Discrimination image processing unit 63b Display control unit 631 Discrimination processing unit 632 Discrimination processing selection unit 70 Recording unit

Claims (13)

被写体の映像を外界光に重ね合わせて表示するカメラファインダにおいて、
前記被写体の映像を外界光に重ね合わせて表示する表示部と、
前記表示部に前記被写体の映像を外界光に重ね合わせて表示する場合に、前記被写体の映像と前記外界光による像とを区別するための判別化画像処理を前記被写体の映像に施す判別化画像処理部とを備えること
を特徴とするカメラファインダ。
In the camera finder that displays the subject image superimposed on the external light,
A display unit that displays an image of the subject superimposed on external light;
A discriminating image in which discriminating image processing for discriminating between the video of the subject and the image of the external light is applied to the video of the subject when the video of the subject is displayed on the display unit so as to be superimposed on the external light. A camera finder comprising a processing unit.
前記判別化画像処理は、モノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理のうちの少なくとも1つであること
を特徴とする請求項1に記載のカメラファインダ。
The discriminating image processing is at least one of monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, gradation level number reduction processing, and noise superimposition processing. The camera finder according to claim 1.
前記判別化画像処理は、モノトーン処理、エッジ強調処理、エッジ抽出処理、コントラスト強調処理、ネガポジ反転処理、モザイク処理、階調レベル数低減処理およびノイズ重畳処理のうちの少なくとも1つから成る複数のサブ判別化画像処理を備え、
前記判別化画像処理部は、前記複数のサブ判別化画像処理のうちのいずれかを選択し、この選択したサブ判別化画像処理を前記被写体の映像に施すこと
を特徴とする請求項1に記載のカメラファインダ。
The discriminating image processing includes a plurality of sub-processes including at least one of monotone processing, edge enhancement processing, edge extraction processing, contrast enhancement processing, negative / positive inversion processing, mosaic processing, gradation level number reduction processing, and noise superimposition processing. With discriminating image processing,
2. The discriminating image processing unit selects any one of the plurality of sub-discriminating image processes, and applies the selected sub-discriminating image process to the video of the subject. Camera finder.
前記被写体の映像を外界光に重ね合わせて前記表示部に表示するか否かを制御する表示制御部をさらに備えること
を特徴とする請求項1ないし請求項3のいずれか1項に記載のカメラファインダ。
The camera according to any one of claims 1 to 3, further comprising a display control unit that controls whether or not the video of the subject is displayed on the display unit so as to be superimposed on external light. finder.
前記表示部における外界光の可視光透過率は、70%以上であること
を特徴とする請求項1ないし請求項4のいずれか1項に記載のカメラファインダ。
The camera viewfinder according to any one of claims 1 to 4, wherein a visible light transmittance of external light in the display unit is 70% or more.
前記表示部は、
前記被写体の映像光を生成する映像光生成部と、
前記映像光生成部で生成された前記被写体の映像光を複数回全反射して導光する導光部と、
前記導光部によって導光された前記被写体の映像光を前記導光部の外部へ反射する反射部とを備えること
を特徴とする請求項1ないし請求項5のいずれか1項に記載のカメラファインダ。
The display unit
An image light generator for generating image light of the subject;
A light guide unit for guiding the image light of the subject generated by the image light generation unit by total reflection a plurality of times;
The camera according to claim 1, further comprising: a reflection unit that reflects the image light of the subject guided by the light guide unit to the outside of the light guide unit. finder.
前記反射部は、反射型ホログラム光学素子であること
を特徴とする請求項6に記載のカメラファインダ。
The camera finder according to claim 6, wherein the reflection unit is a reflection hologram optical element.
前記反射型ホログラム光学素子は、前記被写体の映像光を拡大反射する正の光学的パワーを持つ反射面を備えること
を特徴とする請求項7に記載のカメラファインダ。
The camera finder according to claim 7, wherein the reflective hologram optical element includes a reflective surface having a positive optical power that magnifies and reflects the image light of the subject.
頭部に装着する装着部と、
前記装着部に設けられた、被写体を撮影する撮影部と、
前記撮影部によって撮影された被写体の映像を表示するカメラファインダとを備え、
前記カメラファインダは、請求項1ないし請求項8のいずれか1項に記載のカメラファインダであること
を特徴とする撮影装置。
A wearing part to be worn on the head;
A photographing unit for photographing a subject provided in the mounting unit;
A camera finder for displaying an image of a subject photographed by the photographing unit,
The camera finder according to any one of claims 1 to 8, wherein the camera finder is a camera finder.
前記撮影部が撮影する領域は、装着者の視野内の領域であること
を特徴とする請求項9に記載の撮影装置。
The image capturing apparatus according to claim 9, wherein the region captured by the image capturing unit is a region within the field of view of the wearer.
前記表示部は、前記装着部に設けられること
を特徴とする請求項9に記載の撮影装置。
The photographing apparatus according to claim 9, wherein the display unit is provided in the mounting unit.
通信信号を送受信する通信部と、前記通信部の送受信を制御する通信制御部とをさらに備え、
前記通信制御部は、前記撮影部によって撮影された前記被写体の映像を前記通信部に送信させること
を特徴とする請求項9ないし請求項11のいずれか1項に記載の撮影装置。
A communication unit that transmits and receives communication signals; and a communication control unit that controls transmission and reception of the communication unit;
The photographing apparatus according to any one of claims 9 to 11, wherein the communication control unit causes the communication unit to transmit a video of the subject photographed by the photographing unit.
撮影装置と、通信網を介して前記撮影装置と通信可能に接続される遠隔作業支援装置とを備える遠隔作業支援システムであって、
前記撮影装置は、請求項9ないし請求項12のいずれか1項に記載の撮影装置であり、
前記遠隔作業支援装置は、前記通信網を介して受信され、前記撮影部によって撮影された被写体の映像を表示する第2表示部と、指示者の指示を受け付けて該指示を前記通信網を介して前記撮影装置へ送信する指示受付部とを備えること
を特徴とする遠隔作業支援システム。
A remote work support system comprising a photographing device and a remote work support device communicably connected to the photographing device via a communication network,
The imaging device is the imaging device according to any one of claims 9 to 12,
The remote work support device receives a command from an instructor by receiving a second display unit that displays an image of a subject that is received through the communication network and photographed by the photographing unit, and transmits the command through the communication network. A remote operation support system, comprising: an instruction receiving unit that transmits the image to the photographing apparatus.
JP2009260365A 2009-11-13 2009-11-13 Camera finder, photographing apparatus, and remote operation support system Pending JP2011109276A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009260365A JP2011109276A (en) 2009-11-13 2009-11-13 Camera finder, photographing apparatus, and remote operation support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009260365A JP2011109276A (en) 2009-11-13 2009-11-13 Camera finder, photographing apparatus, and remote operation support system

Publications (1)

Publication Number Publication Date
JP2011109276A true JP2011109276A (en) 2011-06-02

Family

ID=44232312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009260365A Pending JP2011109276A (en) 2009-11-13 2009-11-13 Camera finder, photographing apparatus, and remote operation support system

Country Status (1)

Country Link
JP (1) JP2011109276A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014072803A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Work support system and program
JP2018528452A (en) * 2015-07-03 2018-09-27 エシロール アンテルナショナルEssilor International Methods and systems for augmented reality

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014072803A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Work support system and program
JP2018528452A (en) * 2015-07-03 2018-09-27 エシロール アンテルナショナルEssilor International Methods and systems for augmented reality

Similar Documents

Publication Publication Date Title
JP4635572B2 (en) Video display device
CA2316473A1 (en) Covert headworn information display or data display or viewfinder
JP2005252732A (en) Imaging device
JP5193404B2 (en) Information equipment
JP2011101300A (en) Photographing device and remote operation support system
JP4931693B2 (en) Information equipment
JP2009075610A (en) See-through type display device with hazard prevention function and hazard prevention method when see-through type display device is used
JP5199156B2 (en) Camera and wearable image display device
JP2008123257A (en) Remote operation support system and display control method
WO2011058707A1 (en) Imaging device and remote operations support system
JP2007122340A (en) Image display system
JP2011109276A (en) Camera finder, photographing apparatus, and remote operation support system
JP2011109462A (en) Image transmission device, imaging device, and remote work support system
JP2008113317A (en) Remote operation support system
JP4952204B2 (en) Remote work support system and display method thereof
JP2011109463A (en) Photographing apparatus and remote operation support system
JP2007219069A (en) Image display
JP5529303B2 (en) Information equipment
JP2010193287A (en) Camera
JP4315773B2 (en) Cameras and accessories
JP2000184245A (en) Camera device
JP2005303842A (en) Head-mounting camera
JP5053655B2 (en) Video apparatus and image communication apparatus
JP2005252734A (en) Head-mounted camera
JP2005110162A (en) Camera