JP7023022B1 - Neck-mounted device and remote work support system - Google Patents

Neck-mounted device and remote work support system Download PDF

Info

Publication number
JP7023022B1
JP7023022B1 JP2021016986A JP2021016986A JP7023022B1 JP 7023022 B1 JP7023022 B1 JP 7023022B1 JP 2021016986 A JP2021016986 A JP 2021016986A JP 2021016986 A JP2021016986 A JP 2021016986A JP 7023022 B1 JP7023022 B1 JP 7023022B1
Authority
JP
Japan
Prior art keywords
unit
arm portion
neck
light
mounted device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021016986A
Other languages
Japanese (ja)
Other versions
JP2022119684A (en
Inventor
淳 久池井
真人 藤野
雄一郎 竹崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fairy Devices Inc
Original Assignee
Fairy Devices Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fairy Devices Inc filed Critical Fairy Devices Inc
Priority to JP2021016986A priority Critical patent/JP7023022B1/en
Priority to PCT/JP2022/002803 priority patent/WO2022168689A1/en
Application granted granted Critical
Publication of JP7023022B1 publication Critical patent/JP7023022B1/en
Publication of JP2022119684A publication Critical patent/JP2022119684A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/02Illuminating scene
    • G03B15/03Combinations of cameras with lighting apparatus; Flash units
    • G03B15/05Combinations of cameras with electronic flash apparatus; Electronic flash units
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/06Roll-film cameras adapted to be loaded with more than one film, e.g. with exposure of one or the other at will
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B19/00Cameras
    • G03B19/02Still-picture cameras
    • G03B19/04Roll-film cameras
    • G03B19/07Roll-film cameras having more than one objective
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

【課題】遠隔作業支援システムに利用可能な小型の作業者用端末を提供する。【解決手段】ユーザの首元に装着される首掛け型装置100であって、首元を挟んだ位置に配置可能な第1腕部10及び第2腕部20と、少なくとも第1腕部10又は第2腕部20に設けられユーザの正面側を撮影可能な撮像部41,51と、少なくとも第1腕部又は第2腕部に設けられ撮像部41,51の撮影範囲内に光を照射可能な投光部42,52とを備える。【選択図】図1PROBLEM TO BE SOLVED: To provide a small worker terminal that can be used for a remote work support system. SOLUTION: The neck-mounted device 100 is attached to a user's wrist, and has a first arm portion 10 and a second arm portion 20 which can be arranged at positions sandwiching the neck portion, and at least the first arm portion 10. Alternatively, the imaging unit 41, 51 provided on the second arm portion 20 and capable of photographing the front side of the user, and the imaging unit 41, 51 provided on at least the first arm portion or the second arm portion, irradiate light within the imaging range. It is provided with possible floodlights 42 and 52. [Selection diagram] Fig. 1

Description

本発明は、首掛け型装置や、それを利用した遠隔作業支援システムに関する。 The present invention relates to a neck-mounted device and a remote work support system using the neck-mounted device.

従来から、カメラ及びレーザポインタ等を有する作業者端末と、この端末とインターネットを通じて接続された支援者端末とを備える遠隔作業支援システムが知られている(特許文献1)。このシステムでは、作業者端末が、カメラによって撮影した画像を支援者端末に送信すると、支援者端末にその画像が表示される。また、オペレーター等の支援者が、例えばその画像を見ながら支援者端末にマウスポインタ等で画像内の一部を指定すると、その指定情報がインターネットを通じて作業者端末に送信される。そして、作業者端末は、この指定情報に基づいて、レーザポインタの照射方向や角度を制御する。これにより、支援者が作業の現場から遠隔地にいる場合であっても、この現場の作業者に対して作業者端末が備えるレーザポインタ等を介して支援情報を伝達できる。 Conventionally, a remote work support system including a worker terminal having a camera, a laser pointer, and the like and a supporter terminal connected to the terminal via the Internet has been known (Patent Document 1). In this system, when the worker terminal sends an image taken by the camera to the supporter terminal, the image is displayed on the supporter terminal. Further, when a supporter such as an operator designates a part of the image to the supporter terminal with a mouse pointer or the like while looking at the image, the designated information is transmitted to the worker terminal via the Internet. Then, the worker terminal controls the irradiation direction and angle of the laser pointer based on this designated information. As a result, even when the supporter is located at a remote location from the work site, support information can be transmitted to the worker at this site via a laser pointer or the like provided in the worker terminal.

また、上記のような遠隔作業支援システムにおいて、作業者端末を小型化して、作業者が装着可能な装置(ウェアラブルデバイス)とすることも提案されている(特許文献2)。 Further, in the remote work support system as described above, it has been proposed to miniaturize the worker terminal to make it a device (wearable device) that can be worn by the worker (Patent Document 2).

特開2000-125024号公報Japanese Unexamined Patent Publication No. 2000-12502 特開2004-219847号公報Japanese Unexamined Patent Publication No. 2004-219847

ところで、特許文献2に開示された小型携帯端末は、ユーザの肩部に装着して使用するものであるが、ユーザの頭部の半分程度のサイズであり、まだ小型化の余地がある。特に、この小型携帯端末は、レーザ光源とカメラとが一体にして固定されたものである。このため、この端末では、カメラの画角範囲内にレーザ光源からレーザ光を照射できるように構成するために、比較的大型の回転台を用いてレーザ光の照射方向を制御することとしており、このことが端末の小型化の障害となっている。また、回転台が大型化すると、それに電力を供給するバッテリーも大型のものを搭載する必要が生じるため、このことも端末の小型化の障害の要因の一つとなる。 By the way, the small mobile terminal disclosed in Patent Document 2 is used by being attached to the shoulder of the user, but it is about half the size of the head of the user, and there is still room for miniaturization. In particular, in this small mobile terminal, the laser light source and the camera are integrally fixed. Therefore, in this terminal, in order to be configured to irradiate the laser beam from the laser light source within the angle of view range of the camera, the irradiation direction of the laser beam is controlled by using a relatively large turntable. This is an obstacle to the miniaturization of terminals. In addition, as the size of the rotary table increases, it becomes necessary to mount a large battery for supplying power to the rotary table, which is also one of the factors that hinder the miniaturization of terminals.

そこで、本発明は、遠隔作業支援システムに利用可能な作業者用の端末をより小型化することを主な目的とする。 Therefore, the main object of the present invention is to make the terminal for workers that can be used in the remote work support system smaller.

本発明の第1の側面は、ユーザの首元に装着される首掛け型装置に関する。首掛け型装置は、首元を挟んだ位置に配置可能な第1腕部及び第2腕部を持つ。第1腕部と第2腕部のどちらか一方又は両方には、ユーザの正面側を撮影可能な撮像部(カメラ等)が設けられる。また、第1腕部と第2腕部のどちらか一方又は両方には、撮像部の撮影範囲内に光を照射可能な投光部(レーザ光源、プロジェクタ等)が設けられる。本発明に係る首掛け型装置は、投光部から照射される光を利用して特定箇所の指示(ポインティング)を行うこともできるし、またこの光によって図形、文字、数字、記号、又は画像を含むメッセージ情報を物体上に投影することも可能である。このように、首掛け型装置の腕部に撮像部と投光部を設けることで、遠隔作業支援システムに利用可能な作業者用の端末をより小型化することができる。その結果、作業者用端末の携行性を向上させることができる。 A first aspect of the present invention relates to a neck-mounted device worn around the user's neck. The neck-mounted device has a first arm portion and a second arm portion that can be arranged at positions sandwiching the neck. An image pickup unit (camera or the like) capable of photographing the front side of the user is provided on either one or both of the first arm portion and the second arm portion. Further, one or both of the first arm portion and the second arm portion are provided with a light projecting unit (laser light source, projector, etc.) capable of irradiating light within the photographing range of the imaging unit. The neck-mounted device according to the present invention can also give an instruction (pointing) at a specific location by using the light emitted from the light projecting unit, and the light can be used to give a figure, a letter, a number, a symbol, or an image. It is also possible to project message information including on an object. In this way, by providing the image pickup unit and the light projecting unit on the arm portion of the neck-mounted device, the terminal for workers that can be used for the remote work support system can be further miniaturized. As a result, the portability of the worker terminal can be improved.

本発明に係る首掛け型装置において、撮像部は、第1腕部と第2腕部の少なくとも一方に設けられ、投光部は、第1腕部と第2腕部の少なくとも他方に設けられていることが好ましい。このように、撮像部と投光部を別々の腕部に設けることで、端末をさらに小型化できる。具体的に説明すると、例えば第1腕部に撮像部を設け、第2腕部に投光部を設けた場合、撮像部と投光部の間に一定距離があり、また両者の光軸に一定の角度差をつけることができる。このため、撮像部の撮影範囲に対して投光部から光を照射するにあたり、投光部の光の照射方向を制御する駆動部(アクチュエータ等)の駆動量を小さくできる。駆動量が小さくなれば駆動部の構成自体も小型化できる。さらに、駆動部が小型化できれば、それに電力を供給するためのバッテリーも小型化できる。その結果、装置全体をコンパクトにすることが可能となる。なお、撮像部を第1腕部と第2腕部のどちらか一方に設けて、投光部を第1腕部と第2腕部の両方に設けることも可能である。また、撮像部を第1腕部と第2腕部の両方に設けて、投光部を第1腕部と第2腕部のどちらか一方に設けることも可能である。 In the neck-mounted device according to the present invention, the imaging unit is provided on at least one of the first arm portion and the second arm portion, and the light projecting portion is provided on at least one of the first arm portion and the second arm portion. Is preferable. In this way, by providing the imaging unit and the light projecting unit on separate arms, the terminal can be further miniaturized. Specifically, for example, when an imaging unit is provided on the first arm and a light projecting unit is provided on the second arm, there is a certain distance between the imaging unit and the light projecting unit, and the optical axes of both are set. You can make a certain angle difference. Therefore, when irradiating light from the light projecting unit with respect to the shooting range of the image pickup unit, the drive amount of the drive unit (actuator or the like) that controls the light irradiation direction of the light projecting unit can be reduced. If the amount of drive is small, the configuration of the drive unit itself can be miniaturized. Further, if the drive unit can be miniaturized, the battery for supplying electric power to the drive unit can also be miniaturized. As a result, the entire device can be made compact. It is also possible to provide the imaging unit on either the first arm portion or the second arm portion and provide the light projecting portion on both the first arm portion and the second arm portion. It is also possible to provide the imaging unit on both the first arm and the second arm and provide the light projecting unit on either the first arm or the second arm.

本発明に係る首掛け型装置において、撮像部と投光部は、それぞれ第1腕部と第2腕部の両方に設けられていることが好ましい。このように、撮像部を両方の腕部に設けることで、ユーザの正面側を2つの撮像部によって広く撮影できる。特に水平方向の撮影範囲(水平画角)が広がる。同様に、撮像部を両方の腕部に設けることで、その投光部からの光を広い範囲に照射できる。また、投光部を2か所以上に設置することで、例えば一方の投光部からの光で特定箇所の指示を行いつつ、他方の投光部によって文字情報や図形情報等を出力することができるため、ユーザに与える情報量を格段に向上させることができる。また、1つの投光部によって、特定箇所の指示点(ポインティング)と文字情報等の表示を同時に行おうとすると、この投光部から広い範囲に亘って光を照射する必要があることから、例えば指示点の照度が低下する懸念がある。この点、2以上の投光部によって、特定箇所の指示点と文字情報等の表示を別々に行うことで、指示点の照度を強く維持すると同時に、文字情報等を効果的に表示できるようになる。 In the neck-mounted device according to the present invention, it is preferable that the image pickup unit and the light projecting unit are provided on both the first arm portion and the second arm portion, respectively. In this way, by providing the imaging unit on both arms, the front side of the user can be widely photographed by the two imaging units. In particular, the shooting range in the horizontal direction (horizontal angle of view) is widened. Similarly, by providing the imaging unit on both arms, the light from the projection unit can be irradiated over a wide range. In addition, by installing the floodlights in two or more places, for example, while instructing a specific place with the light from one floodlight, character information, graphic information, etc. can be output by the other floodlights. Therefore, the amount of information given to the user can be significantly improved. Further, if one light projecting unit attempts to simultaneously display a pointing point (pointing) at a specific location and character information, etc., it is necessary to irradiate light over a wide range from this light projecting unit, for example. There is a concern that the illuminance at the indicated point will decrease. In this regard, by separately displaying the designated point and the text information at a specific location by two or more floodlights, the illuminance of the designated point can be kept strong and the text information can be displayed effectively. Become.

本発明に係る首掛け型装置において、第1腕部の投光部は、第2腕部の撮像部の撮影範囲内に光を照射可能に構成されていることが好ましい。また、第2腕部の投光部は、第1腕部の撮像部の撮影範囲内に光を照射可能に構成されていることが好ましい。このように、第1腕部の投光部から第2の撮像部の撮影範囲内に光を照射し、第2腕部の投光部から第1の撮像部の撮影範囲内に光を照射するように、各投光部と各撮像部を配置することで、前述したように投光部の照射方向を制御する駆動部の構成を小型化できる。 In the neck-mounted device according to the present invention, it is preferable that the light projecting portion of the first arm portion is configured to be able to irradiate light within the photographing range of the imaging portion of the second arm portion. Further, it is preferable that the light projecting portion of the second arm portion is configured to be able to irradiate light within the photographing range of the imaging portion of the first arm portion. In this way, the light is irradiated from the light projecting portion of the first arm to the shooting range of the second imaging unit, and the light is irradiated from the light projecting portion of the second arm to the shooting range of the first imaging unit. By arranging each light projecting unit and each imaging unit as described above, the configuration of the drive unit that controls the irradiation direction of the light projecting unit can be miniaturized as described above.

本発明に係る首掛け型装置では、平面視において、第1腕部及び第2腕部の撮像部の撮影方向が外向きに傾き、かつ、第1腕部及び第2腕部の投光部の投光方向が内向きに傾くように構成されていることが好ましい。なお、「外向き」とは、第1腕部の撮像部の撮影方向が第2腕部が存在する方向とは反対の方向を向いており、同様に第2腕部の撮像部の撮影方向が第1腕部が存在する方向とは反対の方向を向いていることを意味する。また、「内向き」とは、第1腕部の投光部の投光方向が第2腕部が存在する方向を向いており、同様に第2腕部の投光部の投光方向が第1腕部が存在する方向を向いていることを意味する。このように、各腕部の撮像部の撮影方向を外向きとすることにより、2つの撮像部によって撮影された画像を統合したときに、この統合画像の水平方向の画角を広くすることができる。また、各腕部の投光部の投光方向を内向きとすることにより、一方の腕部の投光部によって他方の腕部の撮像部の撮影範囲内に光を照射しやすくなる。さらに、撮像部による撮影方向と投光部による投光方向を反対向きとすることで、同じ腕部に配置された投光部からの光が撮像部に入射しにくくなる。これにより、撮像部によって取得した画像に、いわゆる白飛びといった現象が発生しにくくなる。 In the neck-mounted device according to the present invention, in a plan view, the imaging direction of the imaging unit of the first arm portion and the second arm portion is tilted outward, and the light projecting portion of the first arm portion and the second arm portion. It is preferable that the light projection direction of the light is inclined inward. In addition, "outward" means that the imaging direction of the imaging unit of the first arm is opposite to the direction in which the second arm is present, and similarly, the imaging direction of the imaging unit of the second arm. Means that is facing in the direction opposite to the direction in which the first arm is present. Further, "inward" means that the light projecting direction of the light projecting portion of the first arm is the direction in which the second arm portion exists, and similarly, the light projecting direction of the light projecting portion of the second arm portion is It means that the first arm is facing the direction in which it exists. In this way, by setting the shooting direction of the imaging unit of each arm to be outward, when the images captured by the two imaging units are integrated, the horizontal angle of view of the integrated image can be widened. can. Further, by setting the light emitting direction of the light projecting portion of each arm to be inward, it becomes easy for the light projecting portion of one arm to irradiate light within the photographing range of the imaging unit of the other arm. Further, by making the shooting direction by the imaging unit and the projection direction by the projection unit opposite to each other, the light from the projection unit arranged on the same arm portion is less likely to be incident on the imaging unit. As a result, a phenomenon such as so-called overexposure is less likely to occur in the image acquired by the image pickup unit.

本発明に係る首掛け型装置は、さらに、投光部を制御する制御部と、第1腕部又は第2腕部に設けられた一又は複数の集音部を備えることとしてもよい。この場合、制御部は、集音部によって取得された音に関する情報に基づいて、その音が発せられた方向を光によって指し示すように投光部を制御することができる。これにより、ユーザは、音が発生した方向を視覚によって理解できるようになる。 The neck-mounted device according to the present invention may further include a control unit for controlling the light projecting unit and one or more sound collecting units provided on the first arm portion or the second arm portion. In this case, the control unit can control the floodlight unit so that the light indicates the direction in which the sound is emitted, based on the information regarding the sound acquired by the sound collection unit. This allows the user to visually understand the direction in which the sound is generated.

本発明の第2の側面は、前述した第1の側面に係る首掛け型装置を利用した遠隔作業支援システムに関する。本発明に係る遠隔作業支援システムは、ユーザの首周りに装着される首掛け型装置と、支援者により操作される支援者装置とが、情報通信回線を介して相互に接続されることによって構成されている。首掛け型装置は、ユーザの首元を挟んだ位置に配置可能な第1腕部及び第2腕部と、少なくとも第1腕部又は第2腕部に設けられユーザの正面側を撮影可能な撮像部と、少なくとも第1腕部又は第2腕部に設けられ撮像部の撮影範囲内に光を照射可能な投光部と、投光部を制御する制御部とを備える。支援者装置は、首掛け型装置の撮像部によって取得された撮影画像を表示可能な表示部と、表示部の表示画面上における座標の指定を入力可能な操作部とを備える。支援者装置は、表示画面に表示された撮影画像内の座標が操作部により指定された場合に、撮影画像内の座標情報を作業者端末に送信する。首掛け型装置の制御部は、この座標情報に基づいて投光部から発せられる光の照射方向を制御する。これにより、支援者端末から首掛け型装置(作業者端末)に対して、遠隔地から支援情報を送信できる。 The second aspect of the present invention relates to a remote work support system using the neck-mounted device according to the first aspect described above. The remote work support system according to the present invention is configured by connecting a neck-mounted device worn around the user's neck and a supporter device operated by a supporter to each other via an information communication line. Has been done. The neck-mounted device is provided on the first arm portion and the second arm portion that can be arranged at positions sandwiching the user's neck, and at least the first arm portion or the second arm portion, and can photograph the front side of the user. It includes an image pickup unit, a light projecting unit provided on at least the first arm portion or the second arm portion and capable of irradiating light within the photographing range of the image pickup unit, and a control unit for controlling the light projection unit. The supporter device includes a display unit capable of displaying the captured image acquired by the image pickup unit of the neck-mounted device, and an operation unit capable of inputting the designation of coordinates on the display screen of the display unit. When the coordinates in the captured image displayed on the display screen are specified by the operation unit, the supporter device transmits the coordinate information in the captured image to the worker terminal. The control unit of the neck-mounted device controls the irradiation direction of the light emitted from the light projecting unit based on this coordinate information. As a result, support information can be transmitted from a remote location from the supporter terminal to the neck-mounted device (worker terminal).

本発明によれば、遠隔作業支援システムに利用可能な作業者用の端末をより小型化することができる。 According to the present invention, the terminal for workers that can be used for the remote work support system can be further miniaturized.

図1は、首掛け型装置の一例を示した斜視図である。FIG. 1 is a perspective view showing an example of a neck-mounted device. 図2は、首掛け型装置の装着状態を示した平面図であり、各撮像部の撮影範囲と各投光部の投光可能範囲を模式的に表している。FIG. 2 is a plan view showing a mounted state of the neck-mounted device, and schematically shows a shooting range of each imaging unit and a projectable range of each floodlight unit. 図3は、首掛け型装置の機能構成を示したブロック図である。FIG. 3 is a block diagram showing a functional configuration of a neck-mounted device. 図4は、遠隔作業支援システムの一例を示している。FIG. 4 shows an example of a remote work support system. 図5は、遠隔作業支援システムに含まれる作業者端末と支援者端末の処理の一例を示したフロー図である。FIG. 5 is a flow chart showing an example of processing of a worker terminal and a supporter terminal included in the remote work support system.

以下、図面を用いて本発明を実施するための形態について説明する。本発明は、以下に説明する形態に限定されるものではなく、以下の形態から当業者が自明な範囲で適宜変更したものも含む。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. The present invention is not limited to the forms described below, and includes those appropriately modified from the following forms to the extent apparent to those skilled in the art.

図1は、本発明に係る首掛け型装置100の一実施形態を示している。また、図2は、装着者が首掛け型装置100を装着した状態を模式的に表している。また、図3は、首掛け型装置100の構成要素を示したブロック図である。図1に示されるように、首掛け型装置100を構成する筐体は、左腕部10、右腕部20、及び本体部30を備える。左腕部10と右腕部20は、それぞれ本体部30の左端と右端から前方に向かって延出しており、首掛け型装置100は、平面視したときに装置全体として略U字をなす構造となっている。首掛け型装置100を装着する際には、図2に示されるように、本体部30を装着者の首裏に接触させ、左腕部10と右腕部20を装着者の首横から胸部側に向かって垂らすようにして、装置全体を首元に引っ掛ければよい。首掛け型装置100の筐体内には、図3に示されるように各種の電子部品が格納されている。 FIG. 1 shows an embodiment of a neck-mounted device 100 according to the present invention. Further, FIG. 2 schematically shows a state in which the wearer wears the neck-mounted device 100. Further, FIG. 3 is a block diagram showing the components of the neck-mounted device 100. As shown in FIG. 1, the housing constituting the neck-mounted device 100 includes a left arm portion 10, a right arm portion 20, and a main body portion 30. The left arm portion 10 and the right arm portion 20 extend forward from the left end and the right end of the main body portion 30, respectively, and the neck-mounted device 100 has a structure in which the device as a whole forms a substantially U shape when viewed in a plan view. ing. When wearing the neck-mounted device 100, as shown in FIG. 2, the main body 30 is brought into contact with the back of the wearer's neck, and the left arm 10 and the right arm 20 are moved from the side of the wearer's neck to the chest side. All you have to do is hang it down and hook the entire device around your neck. As shown in FIG. 3, various electronic components are stored in the housing of the neck-mounted device 100.

本実施形態において、左腕部10及び右腕部20には、それぞれ撮像部(カメラ)41,51が設けられている。具体的には、左腕部10の先端部に第1撮像部41が設けられ、右腕部20の先端部に第2撮像部51が設けられており、これらの撮像部41,51によって装着者の正面側の静止画像や動画像を撮影することができる。各撮像部41,51によって取得された画像は、本体部30内の制御部60に伝達され、所定の加工が行われた後、画像データとして記憶される。第1撮像部41と第2撮像部51の撮影範囲は部分的に重複している。このため、制御部60は、第1撮像部41の撮影画像と第2撮像部51の撮影画像を取得した後、これら2枚の撮影画像を統合して一枚の画像に加工する処理を行うことができる。 In the present embodiment, the left arm portion 10 and the right arm portion 20 are provided with image pickup units (cameras) 41 and 51, respectively. Specifically, a first image pickup unit 41 is provided at the tip of the left arm portion 10, and a second image pickup unit 51 is provided at the tip end portion of the right arm portion 20, and these image pickup units 41 and 51 allow the wearer to use these image pickup units 41 and 51. It is possible to shoot still images and moving images on the front side. The images acquired by the imaging units 41 and 51 are transmitted to the control unit 60 in the main body unit 30, and after performing predetermined processing, they are stored as image data. The shooting ranges of the first imaging unit 41 and the second imaging unit 51 partially overlap. Therefore, after acquiring the captured image of the first imaging unit 41 and the captured image of the second imaging unit 51, the control unit 60 performs a process of integrating these two captured images and processing them into one image. be able to.

また、左腕部10及び右腕部20には、それぞれ投光部42,52がさらに設けられている。具体的には、左腕部10の先端部に第1投光部42が設けられ、右腕部20の先端部に第2投光部52が設けられている。各投光部42,52は、撮像部41,51の撮影範囲内に光を照射できるように構成されている。投光部42,52の例は、公知のレーザ光源やプロジェクタである。例えば、投光部42,52は、レーザ光源から出射されたレーザ光により、装着者の正面側の特定箇所を指示できる。また、レーザ光源から出射されるレーザ光を走査(例えばリサージュ走査)することにより、このレーザ光によって文字や図形を表現することもできる。また、投光部42,52としては、公知のマイクロプロジェクタを採用し、装着者の正面側に向けて映像光を投影することとしてもよい。また、各投光部42,52は、筐体内部に設けられた駆動部(アクチュエータ)43,53(図3参照)により、それぞれ独立して光の照射方向を変えることができるように構成されている。 Further, the left arm portion 10 and the right arm portion 20 are further provided with light projection portions 42 and 52, respectively. Specifically, the first light projecting portion 42 is provided at the tip end portion of the left arm portion 10, and the second light projecting portion 52 is provided at the tip end portion of the right arm portion 20. The light projecting units 42 and 52 are configured to be able to irradiate light within the shooting range of the image pickup units 41 and 51. Examples of the light projecting units 42 and 52 are known laser light sources and projectors. For example, the light projecting units 42 and 52 can indicate a specific location on the front side of the wearer by the laser light emitted from the laser light source. Further, by scanning the laser beam emitted from the laser light source (for example, resage scanning), characters and figures can be expressed by the laser beam. Further, as the light projecting units 42 and 52, a known microprojector may be adopted to project the image light toward the front side of the wearer. Further, each of the light projecting units 42 and 52 is configured so that the light irradiation direction can be changed independently by the drive units (actuators) 43 and 53 (see FIG. 3) provided inside the housing. ing.

図2は、各撮像部41,51と各投光部42,52の各腕部10,20上の配置関係や、各撮像部41,51の撮影範囲と各投光部42,52の投光可能範囲の関係性を示している。なお、図2では、便宜的に、各撮像部41,51の撮影範囲を扇状の破線で示しているが、実際には各撮像部41,51の撮影範囲は、扇状の弧の先にも広がっていることは当然である。また、図2では、各投光部42,52の投光可能範囲を一点鎖線で示している。投光可能範囲とは、前述した駆動部43,53によって各投光部42,52の光(レーザ光等)の照射方向を変動させることによって、各投光部42,52から光を照射することのできる最大限の範囲を意味する。また、図2においては、第1撮像部41の光軸(主軸)を符号L1で示し、第1投光部42の中心軸を符号L2で示している。第1撮像部41の光軸L1とは、この撮像部を構成するレンズの中心を通る対称軸であり、撮影範囲の中心に沿って延びている。また、第1投光部42の中心軸L2とは、この投光部の投光可能範囲の中心に沿って延びる線であり、主にこの投光部の初期位置から照射される光に対応している。なお、図示は省略しているが、第2撮像部51と第2投光部52にも、同様に光軸と中心軸がある。さらに、図2では、着用者の正面側において、首掛け型装置100の先端から1m離間した位置に配置された平面状のオブジェクトを、符号Oで示している。 FIG. 2 shows the arrangement relationship between the image pickup units 41 and 51 and the light projectors 42 and 52 on the arms 10 and 20, the shooting range of the image pickup units 41 and 51, and the projection of the light projectors 42 and 52. It shows the relationship of the lightable range. In FIG. 2, for convenience, the shooting range of each image pickup unit 41, 51 is shown by a fan-shaped broken line, but in reality, the shooting range of each image pickup unit 41, 51 is also at the tip of the fan-shaped arc. It is natural that it is spreading. Further, in FIG. 2, the light projectable range of each of the light projecting units 42 and 52 is shown by a alternate long and short dash line. The light projectable range means that light is emitted from the light projecting units 42, 52 by changing the irradiation direction of the light (laser light, etc.) of the light projecting units 42, 52 by the drive units 43, 53 described above. It means the maximum range that can be done. Further, in FIG. 2, the optical axis (main axis) of the first imaging unit 41 is indicated by the reference numeral L1, and the central axis of the first projection unit 42 is indicated by the reference numeral L2. The optical axis L1 of the first image pickup unit 41 is an axis of symmetry passing through the center of the lens constituting the image pickup unit, and extends along the center of the photographing range. Further, the central axis L2 of the first light projecting unit 42 is a line extending along the center of the light projectable range of the light projecting unit, and mainly corresponds to the light emitted from the initial position of the light projecting unit. is doing. Although not shown, the second imaging unit 51 and the second floodlight unit 52 also have an optical axis and a central axis. Further, in FIG. 2, a planar object arranged at a position 1 m away from the tip of the neck-mounted device 100 on the front side of the wearer is indicated by reference numeral O.

図1及び図2に示されるように、まず、左腕部10と右腕部20の先端部は、それぞれ外向面11,21と内向面12,22とを含む。外向面11,21は、首掛け型装置100の外側を向いた面である。例えば、平面視において、左右の腕部10,20の外向面11,21から法線(面に対して垂直な線)を引いた場合、各法線が交差することはない。他方で、内向面12,22は、首掛け型装置100の内側を向いた面である。例えば、平面視において、左右の腕部10,20の内向面12,22から法線(面に対して垂直な線)を引いた場合、各法線は装着者の正面側で交差することとなる。 As shown in FIGS. 1 and 2, first, the tips of the left arm 10 and the right arm 20 include extroverts 11 and 21 and introverts 12 and 22, respectively. The outward surfaces 11 and 21 are surfaces facing the outside of the neck-mounted device 100. For example, in a plan view, when normals (lines perpendicular to the plane) are drawn from the outward faces 11 and 21 of the left and right arm portions 10 and 20, the normals do not intersect. On the other hand, the inward facing surfaces 12 and 22 are the inward facing surfaces of the neck-mounted device 100. For example, in a plan view, when normals (lines perpendicular to the plane) are drawn from the inward surfaces 12, 22 of the left and right arms 10, 20, the normals intersect on the front side of the wearer. Become.

各撮像部41,51は、各腕部10,20の先端部の外向面11,21に配置される。このため、図2に示されるように、各撮像部41,51の光軸L1は、首掛け型装置100の外向きに傾いている。その結果、各撮像部41,51の撮影方向は外向きに傾くことなる。ただし、図2に示したように、各撮像部41,51の水平方向の画角は、超広角に設計されていることから、2つの撮像部41,51の撮影範囲は、少なくとも部分的に重複する。具体的には、撮像部41,51の撮影範囲は、装着者の正面部分において重複することとなる。例えば、各撮像部41,51の水平画角は、90~180度とすればよく、100度以上、110度以上、又は120度以上とすることが特に好ましい。なお、各撮像部41,51の光軸L1の傾きは特に制限されないが、例えば正面に向かって真っすぐ延びる装着者の視線に対する光軸L1の傾きθ1は、5~45度又は10~30度程度することが好ましい。 The image pickup units 41 and 51 are arranged on the outward surfaces 11 and 21 of the tip portions of the arm portions 10 and 20. Therefore, as shown in FIG. 2, the optical axis L1 of each of the imaging units 41 and 51 is tilted outward of the neck-mounted device 100. As a result, the shooting directions of the imaging units 41 and 51 are inclined outward. However, as shown in FIG. 2, since the horizontal angle of view of each of the image pickup units 41 and 51 is designed to be an ultra-wide angle, the shooting range of the two image pickup units 41 and 51 is at least partially. Duplicate. Specifically, the photographing ranges of the imaging units 41 and 51 overlap in the front portion of the wearer. For example, the horizontal angle of view of each of the imaging units 41 and 51 may be 90 to 180 degrees, and is particularly preferably 100 degrees or more, 110 degrees or more, or 120 degrees or more. The inclination of the optical axis L1 of each of the imaging units 41 and 51 is not particularly limited, but for example, the inclination θ1 of the optical axis L1 with respect to the line of sight of the wearer extending straight toward the front is about 5 to 45 degrees or 10 to 30 degrees. It is preferable to do so.

他方で、各投光部42,52は、各腕部10,20の先端部の内向面12,22に配置される。このため、図2に示されるように、各投光部42,52の中心軸L2は、首掛け型装置100の外向きに傾いている。その結果、各投光部42,52の投光方向は外向きに傾くことなる。また、各投光部42,52の投光方向は、駆動部43,53によって左右角度(ヨー角)と上下角度(ピッチ角)を調整することができるが、これら角度の調整幅(すなわち投光可能範囲)を大きくすると、その分駆動部43,53の構造も大きくなる。このため、駆動部43,53の小型化の観点から、投光部43,52の投光方向の角度の調整幅は、左右角度と上下角度ともに、10度~90度であることが好ましく、15~80度、又は20~60度であることが特に好ましい。さらに、この角度の調整幅は、45度以下とすることもできる。また、図2に示したように、各投光部42,52の投光方向はそれぞれ内向きに傾いているため、各投光部42,52の投光方向(中心軸)は、装着者の正面にて交差することとなる。なお、各投光部42,52の中心軸L2の傾きは特に制限されないが、例えば正面に向かって真っすぐ延びる装着者の視線に対する中心軸L2の傾きθ2は、5~45度又は10~30度程度することが好ましい。ただし、図2に示されるように、装着者の正面側1mの距離にオブジェクトOが位置する想定した場合に、このオブジェクトOの表面上において、各投光部42,52の投光可能範囲は少なくとも部分的に重複することが好ましい。このように、装着者から1m離間したオブジェクトOの表面上で各投光部42,52の投光可能範囲が重なるように、各投光部42,52の投稿可能範囲や、各投光部42,52の中心軸L2の傾きθ2を調整すればよい。これにより、少なくともこのオブジェクトOにおいては、2つの投光部42,52によって隙間なく光を照射できるようになる。 On the other hand, the light projecting portions 42 and 52 are arranged on the inward surfaces 12 and 22 of the tip portions of the arm portions 10 and 20. Therefore, as shown in FIG. 2, the central axis L2 of each of the light projecting portions 42 and 52 is inclined outward from the neck-mounted device 100. As a result, the light projecting directions of the light projecting units 42 and 52 are inclined outward. Further, the light projection direction of each of the light projection units 42 and 52 can be adjusted by the drive units 43 and 53 to adjust the left-right angle (yaw angle) and the vertical angle (pitch angle), and the adjustment range of these angles (that is, the projection angle). The larger the optical range), the larger the structure of the drive units 43 and 53. Therefore, from the viewpoint of miniaturization of the drive units 43 and 53, it is preferable that the adjustment range of the angle of the light projecting units 43 and 52 in the light projecting direction is 10 to 90 degrees for both the left-right angle and the vertical angle. It is particularly preferably 15 to 80 degrees, or 20 to 60 degrees. Further, the adjustment range of this angle can be 45 degrees or less. Further, as shown in FIG. 2, since the light projecting directions of the light projecting units 42 and 52 are inclined inward, the light projecting directions (central axis) of the light projecting units 42 and 52 are the wearer. It will cross in front of. The inclination of the central axis L2 of each of the light projecting portions 42 and 52 is not particularly limited, but for example, the inclination θ2 of the central axis L2 with respect to the line of sight of the wearer extending straight toward the front is 5 to 45 degrees or 10 to 30 degrees. It is preferable to do so. However, as shown in FIG. 2, assuming that the object O is located at a distance of 1 m on the front side of the wearer, the light projectable range of the light projecting portions 42 and 52 is on the surface of the object O. It is preferable that they overlap at least partially. In this way, the postable range of each of the floodlights 42 and 52 and each of the floodlights are such that the floodable ranges of the floodlights 42 and 52 overlap on the surface of the object O 1 m away from the wearer. The inclination θ2 of the central axis L2 of 42 and 52 may be adjusted. As a result, at least in this object O, the two light projecting portions 42 and 52 can irradiate light without a gap.

上記のように、各撮像部41,51の撮影範囲は外向きに傾いているのに対して、各投光部42,52の投稿可能範囲は内向きに傾いている。このため、図2に示したように、左腕部10に設けられた第1投光部42は、右腕部20に設けられた第2撮像部51の撮影範囲に光を照射できる。なお、第1投光部42は、同じく左腕部10に設けられた第1撮像部41の撮影範囲に対しても光を照射できるものであってもよいが、右腕部20に設けられた第2撮像部51の撮影範囲に光を照射することが主な機能となる。同様に、右腕部20に設けられた第2投光部52は、左腕部10に設けられた第1撮像部41の撮影範囲に光を照射できる。第2投光部52も、同じく右腕部20に設けられた第2撮像部51の撮影範囲に対して光を照射できるものであってもよいが、左腕部10に設けられた第1撮像部41の撮影範囲に光を照射することが主な機能となる。このように、本実施形態では、一方の腕部に設けられた投光部は、他方の腕部に設けられた撮像部の撮影範囲に対して主に光を照射するように構成されている。 As described above, the shooting range of each of the imaging units 41 and 51 is inclined outward, while the postable range of each of the light projecting units 42 and 52 is inclined inward. Therefore, as shown in FIG. 2, the first light projecting unit 42 provided on the left arm portion 10 can irradiate the photographing range of the second imaging unit 51 provided on the right arm portion 20 with light. The first light projecting unit 42 may be capable of irradiating light to the photographing range of the first imaging unit 41 also provided on the left arm unit 10, but the first light emitting unit 42 is provided on the right arm unit 20. 2 The main function is to irradiate the imaging range of the imaging unit 51 with light. Similarly, the second light projecting unit 52 provided on the right arm portion 20 can irradiate the photographing range of the first imaging unit 41 provided on the left arm portion 10. The second light projecting unit 52 may also be capable of irradiating the imaging range of the second imaging unit 51 provided on the right arm unit 20, but the first imaging unit provided on the left arm unit 10 may also be capable of irradiating light. The main function is to irradiate the shooting range of 41 with light. As described above, in the present embodiment, the light projecting unit provided on one arm portion is configured to mainly irradiate the photographing range of the imaging unit provided on the other arm portion. ..

本実施形態のように、左腕部10と右腕部20の先端部にそれぞれ外向面11,21と内向面12,22を形成して、外向面11,21に撮像部41,51を設け、内向面12,22に投光部42,52を設けることで、投光部42,52から照射された光が撮像部41,51に直接入射しにくくなる。その結果、撮像部41,51の撮影画像中にいわゆる白飛びと呼ばれる現象が発生しにくくなる。ただし、図示は省略するが、別の実施形態では、各腕部10,20の先端部に外向面11,21や内向面12,22を形成せず、撮像部41,51と投光部42,52とを同じ平面上に設けることも可能である。この場合でも、撮像部41,51の光軸L1が外向きに傾き、投光部42,52の中心軸L1が内向きに傾くように、撮像部41,51と投光部42,52とを設置することが好ましい。 As in the present embodiment, the outward surfaces 11 and 21 and the inward surfaces 12 and 22 are formed on the tips of the left arm portion 10 and the right arm portion 20, respectively, and the imaging portions 41 and 51 are provided on the outward surfaces 11 and 21 to inward. By providing the light projecting units 42 and 52 on the surfaces 12 and 22, the light emitted from the light projecting units 42 and 52 is less likely to be directly incident on the image pickup units 41 and 51. As a result, a phenomenon called overexposure is less likely to occur in the captured images of the image pickup units 41 and 51. However, although not shown, in another embodiment, the outward surfaces 11 and 21 and the inward surfaces 12 and 22 are not formed on the tips of the arm portions 10 and 20, and the imaging units 41 and 51 and the light projecting unit 42 are not formed. , 52 can be provided on the same plane. Even in this case, the image pickup units 41, 51 and the light projection units 42, 52 are arranged so that the optical axis L1 of the image pickup units 41, 51 is tilted outward and the central axis L1 of the light projector units 42, 52 is tilted inward. It is preferable to install.

図1等に示されるように、各腕部10,20の先端部には、投光部42,52とは別に、照明部44,54(フラッシュライト)をさらに設置することもできる。先述したとおり、投光部42,52は、光によって特定箇所の指示や文字・図形等の表示を行うなど、装着者に対して情報を提示することを主たる機能とするものであるが、照明部44,54は、単純に、撮像部41,51の撮影範囲を明るく照明することを目的として設置される。本実施形態において、左腕部10の第1照明部44は、右腕部20の第2撮像部51の撮影範囲を主に照明するように構成されており、右腕部20の第2照明部54は、左腕部10の第1撮像部41の撮影範囲を主に照明するように構成されていることが好ましい。このため、各照明部44,54は、前述した各投光部42,52と同様に、各腕部10,20の先端部の内向面12,22に設置しておくと良い。また、このように設置することで、各照明部44,54から照射された照明光が各撮像部41,51に直接入射することも防止できる。 As shown in FIG. 1 and the like, lighting units 44 and 54 (flashlights) may be further installed at the tips of the arms 10 and 20 in addition to the light projecting units 42 and 52. As described above, the light projecting units 42 and 52 have a main function of presenting information to the wearer, such as instructing a specific place and displaying characters / figures by light, but the lighting is used. The units 44 and 54 are simply installed for the purpose of brightly illuminating the photographing range of the imaging units 41 and 51. In the present embodiment, the first lighting unit 44 of the left arm portion 10 is configured to mainly illuminate the shooting range of the second imaging unit 51 of the right arm portion 20, and the second illumination unit 54 of the right arm portion 20 is configured. It is preferable that the left arm portion 10 is configured to mainly illuminate the photographing range of the first imaging unit 41. Therefore, it is preferable to install the lighting units 44 and 54 on the inward surfaces 12 and 22 of the tips of the arm portions 10 and 20 in the same manner as the above-mentioned floodlight units 42 and 52. Further, by installing in this way, it is possible to prevent the illumination light emitted from the illumination units 44 and 54 from directly incident on the image pickup units 41 and 51.

図1等に示されるように、左腕部10と右腕部20には、それぞれ一又は複数の集音部(マイク)45,55が設けられている。集音部45,55は、主に装着者や、その対話者の音声を取得することを目的として配置されている。図1に示した例では、左腕部10に第1集音部45が3箇所に設けられ、右腕部20にも第2集音部55が3箇所に設けられている。なお、任意の要素として、左腕部10と右腕部20に、一又は複数の集音部を追加で設けることもできる。さらに、図示は省略するが、左腕部10と右腕部20の間に位置する本体部30にも、任意の追加的要素として集音部を設けることも可能である。これらの集音部45,55によって取得した音信号は、本体部30内に設けられた制御部60(図3参照)へ伝達されて所定の解析処理が行われる。 As shown in FIG. 1 and the like, the left arm portion 10 and the right arm portion 20 are provided with one or a plurality of sound collecting portions (microphones) 45 and 55, respectively. The sound collecting units 45 and 55 are arranged mainly for the purpose of acquiring the voices of the wearer and the interlocutor. In the example shown in FIG. 1, the left arm portion 10 is provided with the first sound collecting portion 45 at three locations, and the right arm portion 20 is also provided with the second sound collecting portion 55 at three locations. As an arbitrary element, one or a plurality of sound collecting portions may be additionally provided on the left arm portion 10 and the right arm portion 20. Further, although not shown, the main body portion 30 located between the left arm portion 10 and the right arm portion 20 may also be provided with a sound collecting portion as an optional additional element. The sound signals acquired by these sound collecting units 45 and 55 are transmitted to the control unit 60 (see FIG. 3) provided in the main body unit 30 to perform a predetermined analysis process.

制御部60は、集音部45,55から取得した音信号を解析して、その音の発信源の位置や、首掛け型装置100に対して発生源が存在する方向を特定することとしてもよい。この場合に、制御部60は、その音が発せられた方向を光によって指し示すように投光部42,52を制御することが可能である。例えば、制御部60は、投光部42,52から矢印の形状を物体に投影するための光を出射し、その矢印の向きによって音の発生源を装着者に視覚的に伝達することとしてもよい。また、制御部60は、音の発生源に対して、実際に投光部42,52から光を出射し、その発生源を光で照らすことにより、音の発生源を装着者に視覚的に伝達することとも可能である。 The control unit 60 may analyze the sound signals acquired from the sound collecting units 45 and 55 to specify the position of the sound source and the direction in which the source exists with respect to the neck-mounted device 100. good. In this case, the control unit 60 can control the light projecting units 42 and 52 so as to indicate the direction in which the sound is emitted by light. For example, the control unit 60 may emit light for projecting the shape of an arrow onto an object from the light projecting units 42 and 52, and visually transmit the sound source to the wearer according to the direction of the arrow. good. Further, the control unit 60 actually emits light from the light projecting units 42 and 52 with respect to the sound source, and illuminates the source with the light, thereby visually indicating the sound source to the wearer. It is also possible to communicate.

上記した左腕部10と右腕部20は、首元を挟んだ位置に配置可能である。この左腕部10と右腕部20は、装着者の首裏に当接する位置に設けられた本体部30によって連結されている。この本体部30には、プロセッサやバッテリーなどの電子部品(制御系回路)が内装されている。本体部30を構成する筐体は、図1に示されるように、ほぼ平坦な形状となっており、平面状(板状)の回路基板やバッテリーを格納することができる。また、本体部30は、左腕部10及び右腕部20よりも下方に向かって延出する下垂部31を有する。本体部30に下垂部31を設けることで、制御系回路を内装するための空間を確保している。また、本体部30には制御系回路が集中して搭載されている。この制御系回路には、バッテリーと、バッテリーから電力の供給を受けて駆動するプロセッサなどの各種電子部品が搭載された回路基板とが含まれる。このため、首掛け型装置100の全重量を100%とした場合に、本体部30の重量は40~80%又は50%~70%を占める。このような重量の大きい本体部30を装着者の首裏に配置することで、装着時における安定性が向上する。また、装着者の体幹に近い位置に重量の大きい本体部30を配置することで、装置全体の重量が装着者に与える負荷を軽減できる。 The left arm portion 10 and the right arm portion 20 described above can be arranged at positions sandwiching the neck. The left arm portion 10 and the right arm portion 20 are connected by a main body portion 30 provided at a position where the wearer's neck back abuts. The main body 30 contains electronic components (control system circuits) such as a processor and a battery. As shown in FIG. 1, the housing constituting the main body portion 30 has a substantially flat shape, and can store a flat (plate-shaped) circuit board and a battery. Further, the main body portion 30 has a drooping portion 31 extending downward from the left arm portion 10 and the right arm portion 20. By providing the hanging portion 31 in the main body portion 30, a space for incorporating the control system circuit is secured. Further, the control system circuits are centrally mounted on the main body 30. This control system circuit includes a battery and a circuit board on which various electronic components such as a processor that is driven by receiving electric power from the battery are mounted. Therefore, when the total weight of the neck-mounted device 100 is 100%, the weight of the main body 30 occupies 40 to 80% or 50% to 70%. By arranging such a heavy main body portion 30 on the back of the wearer's neck, the stability at the time of wearing is improved. Further, by arranging the heavy main body portion 30 at a position close to the wearer's trunk, the load given to the wearer by the weight of the entire device can be reduced.

また、本体部30の内側(装着者側)には近接センサ63が設けられている。近接センサ63は、物体の接近を検出するためのものであり、首掛け型装置100が装着者の首元に装着されると、その首元の接近を検出することとなる。このため、近接センサ63が物体の近接を検出している状態にあるときに、各撮像部41,51、各投光部42,52、各照明部44,54、及び各集音部45,55などの機器をオン(駆動状態)とし、近接センサ63が物体の近接を検出していない状態にあるときには、これらの機器をオフ(スリープ状態)、もしくは起動できない状態とすればよい。これにより、バッテリーの電力消費を効率的に抑えることができる。また、近接センサ63が物体の近接を検出していない状態にあるとき、各撮像部41,51や各集音部45,55を起動できなくすることによって、非装着時に意図的あるいは非意図的にデータが記録されてしまうことを防ぐという効果も期待できる。なお、近接センサ63としては公知のものを用いることができるが、光学式のものが用いられる場合には、近接センサ63の検出光を透過するために、本体部30に検出光を透過する透過窓を設けるとよい。 Further, a proximity sensor 63 is provided inside the main body portion 30 (on the wearer side). The proximity sensor 63 is for detecting the approach of an object, and when the neck-mounted device 100 is attached to the neck of the wearer, the proximity sensor 63 detects the approach of the neck. Therefore, when the proximity sensor 63 is in a state of detecting the proximity of an object, each image pickup unit 41, 51, each floodlight unit 42, 52, each illumination unit 44, 54, and each sound collection unit 45, When devices such as 55 are turned on (driving state) and the proximity sensor 63 is in a state where the proximity of an object is not detected, these devices may be turned off (sleep state) or put into a state in which they cannot be started. As a result, the power consumption of the battery can be efficiently suppressed. Further, when the proximity sensor 63 is in a state where the proximity of an object is not detected, the imaging units 41, 51 and the sound collecting units 45, 55 cannot be activated, so that the image pickup unit 41, 51 and the sound collection units 45, 55 cannot be activated, so that the image pickup unit 41, 51 or the sound collection unit 45, 55 cannot be activated, so that the image pickup unit 41, 51 or the sound collection unit 45, 55 cannot be activated, so that the image pickup unit 41, 51 or the sound collection unit 45, 55 cannot be activated. It can also be expected to have the effect of preventing data from being recorded in the data. A known proximity sensor 63 can be used, but when an optical type is used, the detection light is transmitted to the main body 30 in order to transmit the detection light of the proximity sensor 63. It is advisable to provide a window.

また、本体部30の外側(装着者の反対側)には放音部64(スピーカ)が設けられている。放音部64は、本体部30の外側に向かって音を出力するように配置されていることが好ましい。本実施形態では、左腕部10と右腕部20にそれぞれ集音部45,55が設けられているが、放音部64を装着者の首裏に相当する位置に設けておくことで、放音部64と各集音部45,55との物理的な距離を最大限離すことができる。すなわち、集音部45,55にて装着者や対話者の音声を集音している状態において、放音部64から何らかの音が出力されると、収録される装着者等の音声に放音部64からの音(自己出力音)が混入する場合がある。自己出力音が収録音声に混入すると音声認識を妨害することになるため、この自己出力音をエコーキャンセル処理などによって取り除く必要がある。しかし、実際は筐体振動などの影響を受け、エコーキャンセル処理を行ったとしても、完全に自己出力音を取り除くことは困難である。このため、装着者等の音声に混入される自己出力音の音量を最小化するために、上記の通り装着者の首裏に相当する位置に放音部64を設けて、集音部45,55との物理的な距離をとることが好ましい。 Further, a sound emitting portion 64 (speaker) is provided on the outside of the main body portion 30 (opposite side of the wearer). It is preferable that the sound emitting unit 64 is arranged so as to output sound toward the outside of the main body unit 30. In the present embodiment, the left arm portion 10 and the right arm portion 20 are provided with sound collecting portions 45 and 55, respectively, but by providing the sound emitting portion 64 at a position corresponding to the back of the wearer's neck, sound is emitted. The physical distance between the unit 64 and the sound collecting units 45 and 55 can be maximized. That is, when some sound is output from the sound emitting unit 64 while the sound collecting units 45 and 55 are collecting the sounds of the wearer and the interlocutor, the recorded sound of the wearer and the like is emitted. The sound from the unit 64 (self-output sound) may be mixed. If the self-output sound is mixed with the recorded voice, it interferes with voice recognition, so it is necessary to remove this self-output sound by echo cancellation processing or the like. However, in reality, it is difficult to completely remove the self-output sound even if the echo cancellation process is performed due to the influence of the vibration of the housing. Therefore, in order to minimize the volume of the self-output sound mixed in the voice of the wearer or the like, a sound emitting unit 64 is provided at a position corresponding to the back of the wearer's neck as described above, and the sound collecting unit 45, It is preferable to keep a physical distance from 55.

また、首掛け型装置100の構造的特徴として、左腕部10と右腕部20は、図1に示されるように、本体部30との連結部位の近傍にフレキシブル部13,23を有する。フレキシブル部13,23は、ゴムやシリコーンなどの可撓性材料で形成されている。このため、首掛け型装置100の装着時に、左腕部10及び右腕部20が装着者の首元や肩上にフィットしやすくなる。なお、フレキシブル部13,23にも、各腕部10,20に搭載された電子機器と本体部30に設けられた制御部60とを接続する配線が挿通されている。 Further, as a structural feature of the neck-mounted device 100, the left arm portion 10 and the right arm portion 20 have flexible portions 13 and 23 in the vicinity of the connecting portion with the main body portion 30, as shown in FIG. The flexible portions 13 and 23 are made of a flexible material such as rubber or silicone. Therefore, when the neck-mounted device 100 is attached, the left arm portion 10 and the right arm portion 20 are likely to fit on the wearer's neck and shoulders. The flexible portions 13 and 23 are also provided with wiring for connecting the electronic devices mounted on the arm portions 10 and 20 and the control unit 60 provided on the main body portion 30.

図3は、首掛け型装置100の機能構成を示したブロック図である。図3に示されるように、首掛け型装置100は、第1及び第2撮像部41,51、第1及び第2投光部42,52、第1及び第2駆動部43,53、第1及び第2照明部44,54、第1及び第2集音部45,55、操作部46、制御部60、記憶部61、通信部62、近接センサ63、放音部64、及びバッテリー70を有する。本実施形態において、左腕部10には、第1撮像部41、第1投光部42、第1駆動部43、第1照明部44、第1集音部45、及び操作部46が配置されている。また、右腕部20には、第2撮像部51、第2投光部52、第2駆動部53、第2照明部54、及び第2集音部55が配置されている。さらに、本体部30には、制御部60、記憶部61、通信部62、近接センサ63、放音部64、及びバッテリー70が配置されている。なお、首掛け型装置100は、図3に示した機能構成に加えて、ジャイロセンサ、加速度センサ、地磁気センサ、又はGPSセンサなどのセンサ類など、一般的な携帯型情報端末に搭載されているモジュール機器を適宜搭載することができる。 FIG. 3 is a block diagram showing a functional configuration of the neck-mounted device 100. As shown in FIG. 3, in the neck-mounted device 100, the first and second imaging units 41, 51, the first and second floodlight units 42, 52, the first and second drive units 43, 53, and the first 1 and 2 lighting units 44, 54, 1st and 2nd sound collecting units 45, 55, operation unit 46, control unit 60, storage unit 61, communication unit 62, proximity sensor 63, sound emitting unit 64, and battery 70. Has. In the present embodiment, the left arm portion 10 is provided with a first imaging unit 41, a first light emitting unit 42, a first driving unit 43, a first lighting unit 44, a first sound collecting unit 45, and an operating unit 46. ing. Further, a second imaging unit 51, a second light emitting unit 52, a second driving unit 53, a second lighting unit 54, and a second sound collecting unit 55 are arranged on the right arm unit 20. Further, a control unit 60, a storage unit 61, a communication unit 62, a proximity sensor 63, a sound emitting unit 64, and a battery 70 are arranged in the main body unit 30. In addition to the functional configuration shown in FIG. 3, the neck-mounted device 100 is mounted on a general portable information terminal such as a gyro sensor, an acceleration sensor, a geomagnetic sensor, or sensors such as a GPS sensor. Module equipment can be installed as appropriate.

撮像部41,51は、静止画像又は動画像の画像データを取得する。撮像部41,51としては一般的なデジタルカメラを採用すればよい。撮像部41,51は、例えば、撮影レンズ、メカシャッター、シャッタードライバ、CCDイメージセンサユニットなどの光電変換素子、光電変換素子から電荷量を読み出し画像データを生成するデジタルシグナルプロセッサ(DSP)、及びICメモリで構成される。また、撮像部41,51は、撮影レンズから被写体までの距離を測定するオートフォーカスセンサ(AFセンサ)と、このAFセンサが検出した距離に応じて撮影レンズの焦点距離を調整するための機構とを備えることが好ましい。AFセンサの種類は特に限定されないが、位相差センサやコントラストセンサといった公知のパッシブ方式のものを用いればよい。また、AFセンサとして、赤外線や超音波を被写体に向けてその反射光や反射波を受信するアクティブ方式のセンサを用いることもできる。撮像部41,51によって取得された画像データは、制御部60へと供給されて記憶部61に記憶され、所定の画像解析処理や画像加工処理が行われる。あるいは、画像データは、通信部62を介してインターネット経由で別の装置へと送信される。本実施形態において、前述したとおり、2つの撮像部41,51によって、装着者の正面側を撮影する。各撮像部41,51によって取得された2つの撮影画像は、部分的に重複しているため、制御部60では、これらの画像を統合する加工処理を行うと良い。 The image pickup units 41 and 51 acquire image data of a still image or a moving image. A general digital camera may be adopted as the image pickup units 41 and 51. The image pickup units 41 and 51 are, for example, a photoelectric conversion element such as a photographing lens, a mechanical shutter, a shutter driver, a CCD image sensor unit, a digital signal processor (DSP) that reads an electric charge amount from the photoelectric conversion element and generates image data, and an IC. Consists of memory. Further, the imaging units 41 and 51 include an autofocus sensor (AF sensor) that measures the distance from the photographing lens to the subject, and a mechanism for adjusting the focal length of the photographing lens according to the distance detected by the AF sensor. It is preferable to provide. The type of AF sensor is not particularly limited, but a known passive type sensor such as a phase difference sensor or a contrast sensor may be used. Further, as the AF sensor, an active type sensor that directs infrared rays or ultrasonic waves to the subject and receives the reflected light or the reflected wave can also be used. The image data acquired by the image pickup units 41 and 51 is supplied to the control unit 60 and stored in the storage unit 61, and predetermined image analysis processing and image processing processing are performed. Alternatively, the image data is transmitted to another device via the Internet via the communication unit 62. In the present embodiment, as described above, the front side of the wearer is photographed by the two image pickup units 41 and 51. Since the two captured images acquired by the imaging units 41 and 51 partially overlap, it is preferable that the control unit 60 performs a processing process for integrating these images.

投光部42,52は、光の照射によって装着者に情報を提示する。投光部42,52としては、公知のレーザ光源やプロジェクタを採用できるが、ここではレーザ光源を備える画像表示ユニットを例に挙げて説明する。画像表示ユニットは、例えば、レーザ光を出射するレーザ光源と、このレーザ光源に一端が接続された光ファイバと、この光ファイバの他端側に配置された光走査部を含む。なお、画像表示ユニットの構成については、例えば特開2019-133102号に開示されているものを参考にできる。 The light projecting units 42 and 52 present information to the wearer by irradiating with light. A known laser light source or projector can be used as the light projecting units 42 and 52, but here, an image display unit provided with the laser light source will be described as an example. The image display unit includes, for example, a laser light source that emits laser light, an optical fiber having one end connected to the laser light source, and an optical scanning unit arranged on the other end side of the optical fiber. As for the configuration of the image display unit, for example, those disclosed in Japanese Patent Application Laid-Open No. 2019-133102 can be referred to.

レーザ光源は、R(赤色)、G(緑色)、B(青色)の各色のレーザ光を放射するものであり、これら3色のレーザ光をそれぞれ出射する3つの単色レーザダイオードチップを備える。レーザ光源から出射される光は、制御部60により、画像データに基づいて制御される。つまり、制御部60は、表示させる画像を表す複数の画素に対応する画像データを所定の方式で画像信号に変換し、この画像信号に基づいて各色レーザダイオードチップの発光タイミングや、RGBの各色レーザ光の変調を制御する。 The laser light source emits laser light of each color of R (red), G (green), and B (blue), and includes three monochromatic laser diode chips that emit laser light of these three colors. The light emitted from the laser light source is controlled by the control unit 60 based on the image data. That is, the control unit 60 converts the image data corresponding to a plurality of pixels representing the image to be displayed into an image signal by a predetermined method, and based on this image signal, the emission timing of each color laser diode chip and each color laser of RGB. Controls the modulation of light.

レーザ光源の出射端には光ファイバの一端が接続されており、画像信号に応じて変調された各色レーザ光は、光ファイバを通じて伝送される。光ファイバの他端は自由端として開放され、その先端部から光ファイバ中を伝搬されてきた各色レーザ光が出射される。この光ファイバとしては、3色のレーザ光が導波する単一のコアを備える1本の光ファイバを用いるか、各色のレーザ光が導波する単一コアを備える光ファイバを3本束ねたバンドルファイバを用いるか、あるいは各色のレーザ光が導波するコアを3つ備えたマルチコアファイバを用いればよい。 One end of an optical fiber is connected to the emission end of the laser light source, and each color laser light modulated according to the image signal is transmitted through the optical fiber. The other end of the optical fiber is opened as a free end, and each color laser beam propagating in the optical fiber is emitted from the tip end portion. As this optical fiber, one optical fiber having a single core in which laser light of three colors is waveguide is used, or three optical fibers having a single core in which laser light of each color is waveguide are bundled. A bundle fiber may be used, or a multi-core fiber having three cores to which laser light of each color is waveguide may be used.

光走査部は、例えば、光ファイバを片持ち支持する保持部材と、この保持部材に連結されて光ファイバの先端部側に設けられた円筒形圧電素子で構成される。光ファイバを円筒形圧電素子の中心に配置し、円筒形圧電素子を振動させることで、光ファイバをたわみ振動させる。具体的に、円筒形圧電素子は、4分割した電極を有し、制御部60から出力される駆動信号に基づき、これらの隣り合う電極にそれぞれ位相差π/2の電圧を印加して円筒形圧電素子の開放端側の端面を円振動させる。そして、制御部60により所定の周期で振幅が制御されることにより、光走査部は、光ファイバの先端部から出射するレーザ光を例えばスパイラル状に2次元走査させる。この場合、表示画面は円形又は楕円となる。なお、レーザ光を2次元方向に走査させる形態は、これに限定されない。例えば、円筒形圧電素子の各電極に印加する電圧の印加タイミングを調整して、リサージュ走査させてもよい。この場合、表示画面は略矩形に対応する。このように、光ファイバから出射するレーザ光を操作することで、図形、文字、数字、記号、又は画像をある程度自由に描画できる。 The optical scanning unit is composed of, for example, a holding member that cantilevers and supports the optical fiber, and a cylindrical piezoelectric element connected to the holding member and provided on the tip end side of the optical fiber. By arranging the optical fiber in the center of the cylindrical piezoelectric element and vibrating the cylindrical piezoelectric element, the optical fiber is flexed and vibrated. Specifically, the cylindrical piezoelectric element has electrodes divided into four, and based on the drive signal output from the control unit 60, a voltage having a phase difference of π / 2 is applied to each of these adjacent electrodes to form a cylindrical shape. Circularly vibrate the end face of the piezoelectric element on the open end side. Then, the amplitude is controlled by the control unit 60 at a predetermined cycle, so that the optical scanning unit scans the laser beam emitted from the tip of the optical fiber in a spiral shape, for example, in two dimensions. In this case, the display screen is circular or elliptical. The form in which the laser beam is scanned in the two-dimensional direction is not limited to this. For example, the resage scanning may be performed by adjusting the application timing of the voltage applied to each electrode of the cylindrical piezoelectric element. In this case, the display screen corresponds to a substantially rectangular shape. In this way, by manipulating the laser beam emitted from the optical fiber, figures, letters, numbers, symbols, or images can be freely drawn to some extent.

駆動部43,53は、投光部42,52からの光の照射方向を変動させるための機構を備える。例えば、駆動部43,53は、投光部42,52の出射端の向きを左右に回動させるための機構と、投光部42,52の出射端の向きを上下に回動させるための機構とを含む。これらの回動機構としては、公知の回転台などを採用すればよい。また、駆動部43,53としては、投光部42,53からの光を反射するミラーと、このミラーの向きを調整するための調整機構を含むものを採用することもできる。駆動部43,53は、制御部60からの制御信号に基づいて、これらの回転機構あるいは調整機構を駆動させて投光部42,52からの光の照射方向を制御する。 The drive units 43 and 53 include a mechanism for changing the irradiation direction of the light from the light projecting units 42 and 52. For example, the drive units 43 and 53 have a mechanism for rotating the direction of the emission end of the light projecting units 42 and 52 to the left and right, and a mechanism for rotating the direction of the emission end of the light projecting units 42 and 52 up and down. Including the mechanism. As these rotation mechanisms, a known rotary table or the like may be adopted. Further, as the drive units 43 and 53, those including a mirror that reflects the light from the light projecting units 42 and 53 and an adjustment mechanism for adjusting the direction of the mirror can also be adopted. Based on the control signal from the control unit 60, the drive units 43 and 53 drive these rotation mechanisms or adjustment mechanisms to control the irradiation direction of the light from the light projecting units 42 and 52.

照明部44,54は、撮像部41,51の撮影範囲を照明するためのライトである。照明部44,54としては、例えば公知のLED、レーザ光源、又は拡散したレーザ光源などの発光素子を採用できる。例えば、照明部44,54は、白色光を出射できるものが望ましいため、青色LEDとその補色である黄色蛍光体の組合せで白色光を得るタイプのものや、赤色、青色及び緑色の3色のLEDの組み合わせで白色光を得るフルカラータイプのものを用いることができる。なお、照明部44,54は、明度センサ(不図示)により十分な明るさの環境光が検知されているときにはOFFとし、この明度センサにより十分な明るさが検知されていないときにONとしてもよい。 The illumination units 44 and 54 are lights for illuminating the shooting range of the image pickup units 41 and 51. As the illumination units 44 and 54, for example, a known light emitting element such as an LED, a laser light source, or a diffused laser light source can be adopted. For example, since it is desirable that the illumination units 44 and 54 can emit white light, a type that obtains white light by combining a blue LED and a yellow phosphor that is a complementary color thereof, or a type that obtains white light, or three colors of red, blue, and green. A full-color type that obtains white light by combining LEDs can be used. The lighting units 44 and 54 may be turned off when the brightness sensor (not shown) detects sufficient brightness of ambient light, and may be turned on when the brightness sensor does not detect sufficient brightness. good.

集音部45,55としては、ダイナミックマイクやコンデンサマイク、MEMS(Micro-Electrical-Mechanical Systems)マイクなど、公知のマイクロホンを採用すればよい。集音部45,55は、音を電気信号に変換し、その電気信号をアンプ回路によって増幅した上で、A/D変換回路によってデジタル情報に変換して制御部60へと出力する。本実施形態では、集音部45,55により、装着者の音声だけでなく、その周囲に存在する一又は複数の対話者の音声を取得することもできる。このため、装着者周囲で発生した音を広く集音できるように、各集音部45,55としては、全指向性(無指向性)のマイクロホンを採用することが好ましい。 As the sound collecting units 45 and 55, known microphones such as a dynamic microphone, a condenser microphone, and a MEMS (Micro-Electrical-Mechanical Systems) microphone may be adopted. The sound collecting units 45 and 55 convert the sound into an electric signal, amplify the electric signal by the amplifier circuit, convert it into digital information by the A / D conversion circuit, and output it to the control unit 60. In the present embodiment, the sound collecting units 45 and 55 can acquire not only the voice of the wearer but also the voice of one or more interlocutors existing around the wearer. Therefore, it is preferable to use an omnidirectional (omnidirectional) microphone as each of the sound collecting units 45 and 55 so that the sound generated around the wearer can be widely collected.

操作部46は、装着者による操作の入力を受け付ける。操作部46としては、公知のスイッチ回路又はタッチパネルなどを採用することができる。操作部46は、例えば音声入力の開始又は停止を指示する操作や、撮影を開始又は停止を指示する操作、装置の電源のON又はOFFを指示する操作、スピーカの音量の上げ下げを指示する操作、その他首掛け型装置100の機能の実現に必要な操作を受け付ける。操作部46を介して入力された情報は制御部60へと伝達される。 The operation unit 46 receives an operation input by the wearer. As the operation unit 46, a known switch circuit, touch panel, or the like can be adopted. The operation unit 46 is, for example, an operation for instructing the start or stop of voice input, an operation for instructing the start or stop of shooting, an operation for instructing ON or OFF of the power of the device, an operation for instructing raising / lowering the volume of the speaker, and the like. It accepts other operations necessary to realize the functions of the neck-mounted device 100. The information input via the operation unit 46 is transmitted to the control unit 60.

制御部60は、首掛け型装置100が備える他の要素を制御する演算処理を行う。制御部60としては、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサを利用することができる。制御部60は、基本的に、記憶部61に記憶されているプログラムを読み出し、このプログラムに従って所定の演算処理を実行する。また、制御部60は、プログラムに従った演算結果を記憶部61に適宜書き込んだり読み出したりすることができる。 The control unit 60 performs arithmetic processing for controlling other elements included in the neck-mounted device 100. As the control unit 60, a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) can be used. The control unit 60 basically reads a program stored in the storage unit 61 and executes a predetermined arithmetic process according to this program. Further, the control unit 60 can appropriately write and read the calculation result according to the program in the storage unit 61.

記憶部61は、制御部60での演算処理等に用いられる情報やその演算結果を記憶するための要素である。具体的に説明すると、記憶部61は、首掛け型装置100に本発明特有の機能を発揮させるプログラムを記憶している。ユーザからの指示によりこのプログラムが起動されると、制御部60によってプログラムに従った処理が実行される。記憶部61のストレージ機能は、例えばHDD及びSDDといった不揮発性メモリによって実現できる。また、記憶部61は、制御部60による演算処理の途中経過などを書き込む又は読み出すためのメモリとしての機能を有していてもよい。記憶部61のメモリ機能は、RAMやDRAMといった揮発性メモリにより実現できる。また、記憶部61には、それを所持するユーザ固有のID情報が記憶されていてもよい。また、記憶部61には、首掛け型装置100のネットワーク上の識別情報であるIPアドレスが記憶されていてもよい。 The storage unit 61 is an element for storing information used for arithmetic processing and the like in the control unit 60 and the arithmetic result thereof. Specifically, the storage unit 61 stores a program for causing the neck-mounted device 100 to exert a function peculiar to the present invention. When this program is started by an instruction from the user, the control unit 60 executes a process according to the program. The storage function of the storage unit 61 can be realized by a non-volatile memory such as an HDD and an SDD. Further, the storage unit 61 may have a function as a memory for writing or reading the progress of the arithmetic processing by the control unit 60. The memory function of the storage unit 61 can be realized by a volatile memory such as RAM or DRAM. Further, the storage unit 61 may store ID information unique to the user who possesses it. Further, the storage unit 61 may store an IP address which is identification information on the network of the neck-mounted device 100.

通信部62は、クラウド上の別の装置(具体的には後述する支援者端末)や別の首掛け型装置と無線通信するための要素である。通信部62は、インターネットを介して支援者端末や別の首掛け型装置と通信を行うために、例えば、3G(W-CDMA)、4G(LTE/LTE-Advanced)、5Gといった公知の移動通信規格や、Wi-Fi(登録商標)等の無線LAN方式で無線通信するための通信モジュールを採用すればよい。また、通信部62は、別の首掛け型装置と直接的に通信を行うために、Bluetooth(登録商標)やNFC等の方式の近接無線通信用の通信モジュールを採用することもできる。 The communication unit 62 is an element for wireless communication with another device on the cloud (specifically, a supporter terminal described later) or another neck-mounted device. The communication unit 62 communicates with a supporter terminal or another neck-mounted device via the Internet, for example, known mobile communication such as 3G (W-CDMA), 4G (LTE / LTE-Advanced), and 5G. A communication module for wireless communication using a standard or a wireless LAN method such as Wi-Fi (registered trademark) may be adopted. Further, the communication unit 62 can also adopt a communication module for near field communication such as Bluetooth (registered trademark) or NFC in order to directly communicate with another neck-mounted device.

近接センサ63は、主に首掛け型装置100(特に本体部30)と装着者の接近を検知するために用いられる。近接センサ63としては、前述のように光学式、超音波式、磁気式、静電容量式、又は温感式などの公知のものを採用できる。近接センサ63は、本体部30の内側に配置され、装着者の首元が所定範囲内に接近したことを検出する。近接センサ63によって装着者の首元の接近が検出された場合、撮像部41,51や、投光部42,52、照明部44,54、及び/又は集音部45,55を起動することができる。 The proximity sensor 63 is mainly used to detect the proximity of the neck-mounted device 100 (particularly the main body 30) to the wearer. As the proximity sensor 63, known ones such as an optical type, an ultrasonic type, a magnetic type, a capacitance type, and a warmth type can be adopted as described above. The proximity sensor 63 is arranged inside the main body 30, and detects that the wearer's neck has approached within a predetermined range. When the proximity sensor 63 detects that the wearer's neck is approaching, the imaging unit 41, 51, the light projecting unit 42, 52, the lighting unit 44, 54, and / or the sound collecting unit 45, 55 are activated. Can be done.

放音部64は、電気信号を物理的振動(すなわち音)に変換する音響装置である。放音部64の例は、空気振動により音を装着者に伝達する一般的なスピーカである。この場合、前述したように、放音部64を本体部30の外側(装着者と反対側)に設けて、装着者の首裏から離れる方向(水平方向後方)又は首裏に沿う方向(鉛直方向上方)に向かって音を放出するように構成することが好ましい。また、放音部64としては、装着者の骨を振動させることにより音を装着者に伝達する骨伝導スピーカであってもよい。この場合、放音部64を本体部30の内側(装着者側)に設けて、骨伝導スピーカが装着者の首裏の骨(頚椎)に接触するように構成すればよい。 The sound emitting unit 64 is an acoustic device that converts an electric signal into physical vibration (that is, sound). An example of the sound emitting unit 64 is a general speaker that transmits sound to the wearer by air vibration. In this case, as described above, the sound emitting portion 64 is provided on the outside of the main body portion 30 (the side opposite to the wearer), and the direction away from the back of the neck of the wearer (horizontally rearward) or the direction along the back of the neck (vertical). It is preferable to configure the sound so as to emit sound toward (upward in the direction). Further, the sound emitting unit 64 may be a bone conduction speaker that transmits sound to the wearer by vibrating the wearer's bones. In this case, the sound emitting portion 64 may be provided inside the main body portion 30 (on the wearer side) so that the bone conduction speaker comes into contact with the bone (cervical spine) on the back of the wearer's neck.

バッテリー70は、首掛け型装置100に含まれる各種電子部品に対して電力を供給する電池である。バッテリー70としては、充電可能な蓄電池が用いられる。バッテリー70は、リチウムイオン電池、リチウムポリマー電池、アルカリ蓄電池、ニッケルカドミウム電池、ニッケル水素電池、又は鉛蓄電池など公知のものを採用すればよい。 The battery 70 is a battery that supplies electric power to various electronic components included in the neck-mounted device 100. As the battery 70, a rechargeable storage battery is used. As the battery 70, a known battery such as a lithium ion battery, a lithium polymer battery, an alkaline storage battery, a nickel cadmium battery, a nickel hydrogen battery, or a lead storage battery may be adopted.

続いて、図4及び図5を参照して、本発明に係る首掛け型装置100の用途の一例について説明する。これらの図に示されるように、首掛け型装置100は、遠隔作業支援システムを構成する作業者端末として利用することができる。遠隔作業支援システムは、インターネットを介して互いに接続された作業者端末100(首掛け型装置)と支援者端末200を含む。作業者端末100は、現場で作業を行う作業者により装着される。作業者端末100としては、前述した構成の本発明に係る首掛け型装置を利用する。一方で、支援者端末200は、現場の作業者に対して支援情報を提供する支援者(オペレーター等)によって操作される端末である。これにより、支援者は、遠隔地から現場に居る作業者に対して作業指示等を送ることができる。支援者端末200としては、一般的なPCを用いることができる。具体的には、支援者端末200は、プロセッサや通信モジュールなどを含む制御装置210と、ディスプレイ等の表示装置220と、マウスやキーボードなどの入力装置230を備える。 Subsequently, an example of the use of the neck-mounted device 100 according to the present invention will be described with reference to FIGS. 4 and 5. As shown in these figures, the neck-mounted device 100 can be used as a worker terminal constituting a remote work support system. The remote work support system includes a worker terminal 100 (neck-mounted device) and a supporter terminal 200 connected to each other via the Internet. The worker terminal 100 is worn by a worker who works in the field. As the worker terminal 100, the neck-mounted device according to the present invention having the above-described configuration is used. On the other hand, the supporter terminal 200 is a terminal operated by a supporter (operator or the like) who provides support information to workers in the field. As a result, the supporter can send work instructions and the like to the workers at the site from a remote location. As the supporter terminal 200, a general PC can be used. Specifically, the supporter terminal 200 includes a control device 210 including a processor, a communication module, and the like, a display device 220 such as a display, and an input device 230 such as a mouse and a keyboard.

図5は、作業者端末100と支援者端末200の処理フローの一例を示している。図5に示されるように、まず、作業者端末100の撮像部41,51により、作業者(装着者)の正面側の撮影画像が取得される(ステップS1)。作業者端末100には、左右の腕部10,20のそれぞれに撮像部41,51が搭載されていることから、これらの2つの撮像部41,51によって水平方向の広い範囲に亘って撮影画像を取得できる。次に、作業者端末100は、2つの撮像部41,51によって取得した撮影画像の加工処理を行う(ステップS2)。ここでの加工処理では、主に2つの撮影画像を一つの画像に統合する処理が行われる。その他、加工処理としては、各撮影画像についてレンズによる歪みを矯正したり、コントラストや明るさ、シャープネス、色調を補正することとしてもよい。その後、作業者端末100は、加工処理後の画像をインターネットを介して支援者端末200に送信する(ステップS3)。なお、図5に示した例では、作業者端末100側で画像加工処理を行うこととしているが、この画像加工処理は支援者端末200側で行うこととしてもよい。この場合、作業者端末100は、各撮像部41,51で取得した撮影画像を未加工のまま支援者端末200に送信する。支援者端末200は、作業者端末100から受け取った撮影画像について前述した加工処理を行う。 FIG. 5 shows an example of the processing flow of the worker terminal 100 and the supporter terminal 200. As shown in FIG. 5, first, the image pickup units 41 and 51 of the worker terminal 100 acquire a photographed image on the front side of the worker (wearer) (step S1). Since the worker terminal 100 is equipped with image pickup units 41 and 51 on the left and right arm portions 10 and 20, respectively, images captured by these two image pickup units 41 and 51 over a wide range in the horizontal direction. Can be obtained. Next, the worker terminal 100 processes the captured images acquired by the two image pickup units 41 and 51 (step S2). In the processing here, a process of integrating two captured images into one image is mainly performed. In addition, as the processing, the distortion caused by the lens may be corrected for each photographed image, or the contrast, brightness, sharpness, and color tone may be corrected. After that, the worker terminal 100 transmits the processed image to the supporter terminal 200 via the Internet (step S3). In the example shown in FIG. 5, the image processing process is performed on the worker terminal 100 side, but this image processing process may be performed on the supporter terminal 200 side. In this case, the worker terminal 100 transmits the captured images acquired by the imaging units 41 and 51 to the supporter terminal 200 without being processed. The supporter terminal 200 performs the above-mentioned processing process on the captured image received from the worker terminal 100.

続いて、支援者端末200は、作業者端末100から受信した加工済み画像をディスプレイに表示する(ステップS4)。なお、作業者端末100が撮像部41,51によって動画像を取得している場合、作業者端末100のディスプレイにも動画が表示されることとなる。次に、支援者端末200は、マウスやキーボードなどの入力装置230を介して、作業者に対する支援情報が入力されたか否かを判断する(ステップS5)。支援情報の例は、ディスプレイ上の表示画像に対する座標の指定である。例えば、図4に示されるように、表示画像に対して、マウスポインタによって所定の座標を指定することが可能である。支援情報の他の例は、作業者に対するメッセージ(文字、数字、記号、図形等)の入力である。例えば、図4に示されるように、キーボード等を用いて文字等の情報を入力することができる。このような各種の支援情報が入力された場合、支援者端末200は、この支援情報を作業者端末100に対して送信する(ステップS6)。他方で、この支援情報の入力がない場合には、ステップS1~ステップS4が繰り返される。 Subsequently, the supporter terminal 200 displays the processed image received from the worker terminal 100 on the display (step S4). When the worker terminal 100 acquires a moving image by the image pickup units 41 and 51, the moving image is also displayed on the display of the worker terminal 100. Next, the supporter terminal 200 determines whether or not the support information for the worker has been input via the input device 230 such as a mouse or keyboard (step S5). An example of support information is the designation of coordinates for a display image on a display. For example, as shown in FIG. 4, it is possible to specify predetermined coordinates for the display image with the mouse pointer. Another example of support information is the input of messages (letters, numbers, symbols, figures, etc.) to workers. For example, as shown in FIG. 4, information such as characters can be input using a keyboard or the like. When such various types of support information are input, the supporter terminal 200 transmits this support information to the worker terminal 100 (step S6). On the other hand, if this support information is not input, steps S1 to S4 are repeated.

続いて、作業者端末100は、支援者端末200から受信した支援情報を、投光部42,52及び駆動部43,53を制御することによって出力する(ステップS7)。具体的には、作業者端末100の制御部60は、支援者端末200から受信した支援情報に基づいて、投光部42,52と駆動部43,53に対する制御信号を生成する。投光部42,52に対する制御信号には、作業者に対するメッセージを再現するための情報が含まれる。また、駆動部43,53に対する制御信号には、投光部42,52の光の照射方向を制御するための情報が含まれる。作業者端末100の制御部60は、これらの制御信号を投光部42,52と駆動部43,53に提供し、例えば図4に示されるように、撮影範囲内の特定箇所に対して光(レーザ光)を照射したり、あるいは、撮影範囲内の対象物等に特定のメッセージを投影する。また、図4に示したように、左右の腕部10,20の投光部42,52から、別々の情報を持つ光を出射することもできる。例えば、図4に示した例では、左腕部10の第1投光部42からは、撮影範囲内の特定箇所を指示するためのレーザ光が出射されている。また、右腕部20の第2投光部52は、レーザ光を走査することによって特定の文字情報を再現している。このように、投光部42,52を2以上備えることで、同時に2以上の情報を出力することが可能である。これにより、支援者が支援者端末200に入力した支援情報を、作業者端末100の投光部42,52が光を照射することを通じて、作業者に対して伝達することができる。 Subsequently, the worker terminal 100 outputs the support information received from the supporter terminal 200 by controlling the floodlight units 42, 52 and the drive units 43, 53 (step S7). Specifically, the control unit 60 of the worker terminal 100 generates control signals for the floodlight units 42, 52 and the drive units 43, 53 based on the support information received from the supporter terminal 200. The control signals for the floodlights 42 and 52 include information for reproducing a message to the operator. Further, the control signal for the drive units 43 and 53 includes information for controlling the light irradiation direction of the light projecting units 42 and 52. The control unit 60 of the worker terminal 100 provides these control signals to the projection units 42, 52 and the drive units 43, 53, and as shown in FIG. 4, for example, light is applied to a specific location within the shooting range. It irradiates (laser light) or projects a specific message on an object within the shooting range. Further, as shown in FIG. 4, light having different information can be emitted from the light projecting portions 42 and 52 of the left and right arm portions 10 and 20. For example, in the example shown in FIG. 4, a laser beam for instructing a specific location within the photographing range is emitted from the first light projecting portion 42 of the left arm portion 10. Further, the second light projecting unit 52 of the right arm unit 20 reproduces specific character information by scanning the laser beam. In this way, by providing two or more light projecting units 42, 52, it is possible to output two or more information at the same time. As a result, the support information input by the supporter to the supporter terminal 200 can be transmitted to the worker by irradiating the light projecting units 42 and 52 of the worker terminal 100 with light.

また、作業者端末100と支援者端末200は、それぞれ通話機能を備えていてもよい。作業者端末100は、集音部45,55から作業者の音声を取得して支援者端末200に送信するとともに、支援者の音声を放音部64から出力する。支援者端末200は、例えばヘッドセット(図示省略)を利用して支援者の音声を取得して作業者端末100に送信するとともに、作業者の音声をこのヘッドセットから出力する。これにより、投光部42,52から出射される光を利用した視覚的な支援と、支援者と作業者の間での会話による聴覚的な支援を同時に行うことができる。 Further, the worker terminal 100 and the supporter terminal 200 may each have a call function. The worker terminal 100 acquires the voice of the worker from the sound collecting units 45 and 55 and transmits it to the supporter terminal 200, and outputs the voice of the supporter from the sound emitting unit 64. The supporter terminal 200 acquires the voice of the supporter by using, for example, a headset (not shown) and transmits it to the worker terminal 100, and outputs the voice of the worker from this headset. As a result, it is possible to simultaneously provide visual support using the light emitted from the light projecting units 42 and 52 and auditory support by conversation between the supporter and the worker.

以上、本願明細書では、本発明の内容を表現するために、図面を参照しながら本発明の実施形態の説明を行った。ただし、本発明は、上記実施形態に限定されるものではなく、本願明細書に記載された事項に基づいて当業者が自明な変更形態や改良形態を包含するものである。 As described above, in the present specification, in order to express the content of the present invention, the embodiments of the present invention have been described with reference to the drawings. However, the present invention is not limited to the above embodiment, and includes modifications and improvements which are obvious to those skilled in the art based on the matters described in the present specification.

10…左腕部 11…外向面
12…内向面 13…フレキシブル部
20…右腕部 21…外向面
22…内向面 23…フレキシブル部
30…本体部 31…下垂部
41…第1撮像部 42…第1投光部
43…第1駆動部 44…第1照明部
45…第1集音部 46…操作部
51…第2撮像部 52…第2投光部
53…第2駆動部 54…第2照明部
55…第2集音部 60…制御部
61…記憶部 62…通信部
63…近接センサ 64…放音部
70…バッテリー 100…首掛け型装置(作業者端末)
200…支援者端末 210…制御装置
220…表示装置 230…入力装置
10 ... Left arm 11 ... Outer surface 12 ... Inward surface 13 ... Flexible part 20 ... Right arm 21 ... Outer surface 22 ... Inward surface 23 ... Flexible part 30 ... Main body 31 ... Drooping part 41 ... First imaging part 42 ... First Floodlight 43 ... 1st drive unit 44 ... 1st lighting unit 45 ... 1st sound collection unit 46 ... Operation unit 51 ... 2nd image pickup unit 52 ... 2nd floodlight unit 53 ... 2nd drive unit 54 ... 2nd lighting Unit 55 ... 2nd sound collecting unit 60 ... Control unit 61 ... Storage unit 62 ... Communication unit 63 ... Proximity sensor 64 ... Sound emitting unit 70 ... Battery 100 ... Neck-mounted device (worker terminal)
200 ... Supporter terminal 210 ... Control device 220 ... Display device 230 ... Input device

Claims (4)

現場の作業者の作業を遠隔から支援する遠隔支援システムにおいて、支援者装置と相互に接続可能な、ユーザの首元に装着される首掛け型装置であって、
首元を挟んだ位置に配置可能な第1腕部及び第2腕部と、
前記第1腕部及び前記第2腕部に設けられ、前記ユーザの正面側を撮影可能な撮像部と、
前記第1腕部及び前記第2腕部に設けられ、前記撮像部の撮影範囲内に光を照射可能な投光部と、を備え、
前記第1腕部の前記投光部は、前記第2腕部の前記撮像部の撮影範囲内に光を照射可能であり、
前記第2腕部の前記投光部は、前記第1腕部の前記撮像部の撮影範囲内に光を照射可能である
首掛け型装置。
In a remote support system that remotely supports the work of workers in the field, it is a neck-mounted device that can be interconnected with the supporter device and is worn around the user's neck.
The first arm and the second arm that can be placed across the neck,
An image pickup unit provided on the first arm portion and the second arm portion and capable of photographing the front side of the user.
A light projecting unit provided on the first arm portion and the second arm portion and capable of irradiating light within the photographing range of the imaging unit is provided.
The light projecting portion of the first arm portion can irradiate light within the photographing range of the imaging portion of the second arm portion.
The light projecting portion of the second arm portion is a neck-mounted device capable of irradiating light within the photographing range of the imaging portion of the first arm portion.
平面視において、前記第1腕部及び前記第2腕部の前記撮像部の撮影方向は外向きに傾いており、
平面視において、前記第1腕部及び前記第2腕部の前記投光部の投光方向は内向きに傾いている
請求項1に記載の首掛け型装置。
In a plan view, the imaging direction of the first arm portion and the imaging portion of the second arm portion is tilted outward.
The neck-mounted device according to claim 1, wherein the light emitting direction of the first arm portion and the light emitting portion of the second arm portion is inclined inward in a plan view.
前記投光部を制御する制御部と、
前記第1腕部又は前記第2腕部に設けられた、一又は複数の集音部をさらに備え、
前記制御部は、前記集音部によって取得された音に関する情報に基づいて、その音が発せられた方向を光によって指し示すように前記投光部を制御する
請求項1又は請求項2に記載の首掛け型装置
A control unit that controls the floodlight unit and
Further provided with one or more sound collecting portions provided on the first arm portion or the second arm portion.
The first or second aspect of the present invention, wherein the control unit controls the light projecting unit so as to indicate the direction in which the sound is emitted by light based on the information regarding the sound acquired by the sound collecting unit. Neck-mounted device .
ユーザの首周りに装着される首掛け型装置と支援者により操作される支援者装置とが情報通信回線を介して相互に接続された遠隔作業支援システムであって、
前記首掛け型装置は、
首元を挟んだ位置に配置可能な第1腕部及び第2腕部と、
前記第1腕部及び前記第2腕部に設けられ、前記ユーザの正面側を撮影可能な撮像部と、
前記第1腕部及び前記第2腕部に設けられ、前記撮像部の撮影範囲内に光を照射可能な投光部と、
前記投光部を制御する制御部と、を備え、
前記第1腕部の前記投光部は、前記第2腕部の前記撮像部の撮影範囲内に光を照射可能であり、
前記第2腕部の前記投光部は、前記第1腕部の前記撮像部の撮影範囲内に光を照射可能であり、
前記支援者装置は、
前記首掛け型装置の前記撮像部によって取得された撮影画像を表示可能な表示部と、
前記表示部の表示画面上における座標の指定を入力可能な操作部と、を備え、
前記支援者装置は、前記表示画面に表示された前記撮影画像内の座標が前記操作部により指定された場合に、前記撮影画像内の座標情報を前記首掛け型装置に送信し、
前記首掛け型装置の制御部は、前記座標情報に基づいて前記投光部から発せられる光の照射方向を制御する
遠隔作業支援システム。
It is a remote work support system in which a neck-mounted device worn around the user's neck and a supporter device operated by a supporter are connected to each other via an information communication line.
The neck-mounted device is
The first arm and the second arm that can be placed across the neck,
An image pickup unit provided on the first arm portion and the second arm portion and capable of photographing the front side of the user.
A light projecting unit provided on the first arm portion and the second arm portion and capable of irradiating light within the photographing range of the imaging unit.
A control unit that controls the floodlight unit is provided.
The light projecting portion of the first arm portion can irradiate light within the photographing range of the imaging portion of the second arm portion.
The light projecting portion of the second arm portion can irradiate light within the photographing range of the imaging portion of the first arm portion.
The supporter device is
A display unit capable of displaying a captured image acquired by the image pickup unit of the neck-mounted device, and a display unit capable of displaying the captured image.
It is provided with an operation unit capable of inputting a coordinate specification on the display screen of the display unit.
When the coordinates in the captured image displayed on the display screen are specified by the operation unit, the supporter device transmits the coordinate information in the captured image to the neck-mounted device .
The control unit of the neck-mounted device is a remote work support system that controls the irradiation direction of light emitted from the light projecting unit based on the coordinate information.
JP2021016986A 2021-02-04 2021-02-04 Neck-mounted device and remote work support system Active JP7023022B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021016986A JP7023022B1 (en) 2021-02-04 2021-02-04 Neck-mounted device and remote work support system
PCT/JP2022/002803 WO2022168689A1 (en) 2021-02-04 2022-01-26 Neck-hanging device and remote work assisting system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021016986A JP7023022B1 (en) 2021-02-04 2021-02-04 Neck-mounted device and remote work support system

Publications (2)

Publication Number Publication Date
JP7023022B1 true JP7023022B1 (en) 2022-02-21
JP2022119684A JP2022119684A (en) 2022-08-17

Family

ID=81076710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021016986A Active JP7023022B1 (en) 2021-02-04 2021-02-04 Neck-mounted device and remote work support system

Country Status (2)

Country Link
JP (1) JP7023022B1 (en)
WO (1) WO2022168689A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016186786A (en) 2015-01-21 2016-10-27 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Wearable smart device for hazard detection and warning based on image and audio data
JP2017503198A (en) 2013-12-20 2017-01-26 クアルコム,インコーポレイテッド Trim content to project onto a target
JP2020150400A (en) 2019-03-13 2020-09-17 Necプラットフォームズ株式会社 Wearable device and control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017503198A (en) 2013-12-20 2017-01-26 クアルコム,インコーポレイテッド Trim content to project onto a target
JP2016186786A (en) 2015-01-21 2016-10-27 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Wearable smart device for hazard detection and warning based on image and audio data
JP2020150400A (en) 2019-03-13 2020-09-17 Necプラットフォームズ株式会社 Wearable device and control method

Also Published As

Publication number Publication date
JP2022119684A (en) 2022-08-17
WO2022168689A1 (en) 2022-08-11

Similar Documents

Publication Publication Date Title
US11245843B2 (en) Imaging apparatus and imaging method for improvement of reproduction image quality
JP6904963B2 (en) Techniques for directing audio in augmented reality systems
JP4862645B2 (en) Video conferencing equipment
US20090262205A1 (en) Voice activated headset imaging system
RU2002133232A (en) METHOD OF VISUAL DISPLAY BY MEANS OF THE PROJECTOR OF ELECTRONIC INFORMATION ISSUED BY THE ELECTRONIC DEVICE, PROJECTOR AND CLOTHING
TW201442514A (en) Peripheral equipment for controlling camera arranged in a terminal, system and method thereof
US11245849B2 (en) Information processing apparatus and information processing method
JP2014021707A (en) Information input/output device and information input/output method
JP2018148257A (en) Head mounted display device and control method for the same
JP2019164420A (en) Transmission type head-mounted display device, control method of transmission type head-mounted display device, and computer program for control of transmission type head-mounted display device
JP2014212473A (en) Communication device and head-mounted display device
US20160063290A1 (en) Portable information code reader
JP7023022B1 (en) Neck-mounted device and remote work support system
JP6439448B2 (en) Display system, program, and control method for display device
US20220167083A1 (en) Signal processing apparatus, signal processing method, program, and directivity variable system
JP2013239767A (en) Head-mounted type information input/output device
JP2008113317A (en) Remote operation support system
JP2013174730A (en) Information display device
US20200068098A1 (en) Shooting apparatus
CN113382228B (en) Head-mounted display device and head-mounted display system
JP6733401B2 (en) Display system, display device, information display method, and program
JP6638325B2 (en) Display device and display device control method
JP7118456B2 (en) Neck device
JP2014191237A (en) Information storage device and information storage program
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210205

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210205

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220201

R150 Certificate of patent or registration of utility model

Ref document number: 7023022

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150