JP2016187130A - Wearable terminal - Google Patents

Wearable terminal Download PDF

Info

Publication number
JP2016187130A
JP2016187130A JP2015066880A JP2015066880A JP2016187130A JP 2016187130 A JP2016187130 A JP 2016187130A JP 2015066880 A JP2015066880 A JP 2015066880A JP 2015066880 A JP2015066880 A JP 2015066880A JP 2016187130 A JP2016187130 A JP 2016187130A
Authority
JP
Japan
Prior art keywords
light source
wearable terminal
light
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015066880A
Other languages
Japanese (ja)
Inventor
幸司 森下
Koji Morishita
幸司 森下
尚志 野田
Hisashi Noda
尚志 野田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2015066880A priority Critical patent/JP2016187130A/en
Publication of JP2016187130A publication Critical patent/JP2016187130A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Accessories Of Cameras (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a wearable terminal which allows a user to easily identify the imaging area of a camera mounted to his or her head.SOLUTION: A wearable terminal 100 mounted to a user's head comprises a display 10 for displaying information, an imaging unit 20 for imaging the outside, and a light source 30. The light source 30 is disposed so that light 31 emitted the light source 30 allows the user to identify the imaging area of the imaging unit 20.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザが頭部に装着するウェアラブル端末に関する。   The present invention relates to a wearable terminal that a user wears on his / her head.

近年、ウェアラブル端末が注目されている。ウェアラブル端末として、メガネ型、腕時計型等、種々の態様が提案されている。このうち、メガネ型のウェアラブル端末では、ユーザは、実世界での視認を行ないながら、端末が提示する情報を確認することができることから、特にビジネス用途での需要が増加している(例えば、非特許文献1参照。)   In recent years, wearable terminals have attracted attention. Various types of wearable terminals such as a glasses type and a wristwatch type have been proposed. Among these, in the glasses-type wearable terminal, the user can check the information presented by the terminal while visually recognizing in the real world, so that the demand for business use is increasing (for example, non- (See Patent Document 1.)

ビジネス用途としては、例えば、航空機の整備、医療等が挙げられる。前者では、作業員は、作業指示書を随時受け取り、それを見ながら作業を進めることができるため、作業効率の向上が図られる。また、後者では、看護士は、手術に必要な医療材料の情報を確認しながら手術の準備を行なうことができるので、作業負担及びミスの軽減が図られる。   Business applications include, for example, aircraft maintenance and medical care. In the former, since the worker can receive the work instruction at any time and can work while looking at it, the work efficiency can be improved. In the latter case, the nurse can prepare for the operation while confirming the information on the medical material necessary for the operation, so that the work load and mistakes can be reduced.

また、このようなメガネ型のウェアラブル端末では、表示ディスプレイに加えて、外部を撮影するカメラが取り付けられることがある。このような態様では、撮影された画像に基づいて、様々な処理を行なうことができ、よりいっそうユーザにおける作業効率を向上させることができる。   In addition, in such a glasses-type wearable terminal, in addition to a display display, a camera for photographing the outside may be attached. In such an aspect, various processes can be performed based on the photographed image, and the work efficiency for the user can be further improved.

例えば、商品の在庫管理及び発送を扱う場合に、カメラ付のウェアラブル端末を用いれば、カメラによって商品の2次元コードを読み取ることができ、ユーザは、即座に商品を確認することができる。また、上述の医療分野では、カメラによって医療材料のラベルを読み取ることで、端末側に間違った医療材料を選択していないかどうかを判定させることができる。   For example, when handling inventory management and shipping of a product, if a wearable terminal with a camera is used, the two-dimensional code of the product can be read by the camera, and the user can immediately confirm the product. Further, in the medical field described above, it is possible to determine whether the wrong medical material is selected on the terminal side by reading the label of the medical material with the camera.

「高画質な有機ELを用いた小型・軽量の片眼用ディスプレイモジュールを開発〜アイウェアに装着することで、画像情報表示ができるウェアラブル端末に〜」、[online]、2014年12月17日、ソニー株式会社、[2015年3月6日検索]、インターネット<URL: http://www.sony.co.jp/SonyInfo/News/Press/201412/14-118/index.html>"Development of a compact and lightweight single-eye display module using high-quality organic EL-to a wearable terminal that can display image information by attaching it to eyewear", [online], December 17, 2014 , Sony Corporation, [Search March 6, 2015], Internet <URL: http://www.sony.co.jp/SonyInfo/News/Press/201412/14-118/index.html>

しかしながら、メガネ型のウェアラブル端末にカメラを取り付けた場合、通常、カメラはユーザの頭の横に位置することから、ユーザにおいて、カメラの撮影対象を確認することが難しいという問題点がある。   However, when a camera is attached to a glasses-type wearable terminal, the camera is usually located beside the user's head, and thus there is a problem that it is difficult for the user to check the shooting target of the camera.

また、カメラで得られた画像を、ウェアラブル端末の画面に表示することも考えられるが、画面の大きさには制限があることから、この場合は、必要な情報を表示するためのスペースが小さくなるので、ユーザが情報を視認できにくくなってしまう。   In addition, it is conceivable to display an image obtained by the camera on the screen of the wearable terminal. However, since the screen size is limited, in this case, the space for displaying necessary information is small. Therefore, it becomes difficult for the user to visually recognize the information.

本発明の目的の一例は、上記問題を解消し、ユーザが、自身の頭部に装着されるカメラの撮影領域を容易に特定できるようにし得る、ウェアラブル端末を提供することにある。   An example of the object of the present invention is to provide a wearable terminal that solves the above-described problems and allows a user to easily specify a shooting region of a camera that is worn on his / her head.

上記目的を達成するため、本発明の一側面におけるウェアラブル端末は、ユーザの頭部に直接又は間接的に装着されるウェアラブル端末であって、
情報を表示させる表示部と、外部を撮影する撮像部と、光源とを備え、
前記光源は、それから出射された光によって、前記撮像部の撮影領域がユーザによって特定されるように配置されている、
ことを特徴とする。
In order to achieve the above object, a wearable terminal according to one aspect of the present invention is a wearable terminal that is directly or indirectly attached to a user's head,
A display unit for displaying information, an imaging unit for photographing the outside, and a light source;
The light source is arranged so that a photographing region of the imaging unit is specified by a user by light emitted from the light source,
It is characterized by that.

以上のように、本発明によれば、ユーザが、自身の頭部に装着されるカメラの撮影領域を容易に特定できるようにすることができる。   As described above, according to the present invention, the user can easily specify the imaging region of the camera attached to his / her head.

図1は、本発明の実施の形態におけるウェアラブル端末の外観を示す斜視図である。FIG. 1 is a perspective view showing an appearance of a wearable terminal according to an embodiment of the present invention. 図2は、本発明の実施の形態におけるウェアラブル端末の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the wearable terminal according to the embodiment of the present invention. 図3は、本実施の形態におけるウェアラブル端末を使用したユーザの視界を説明する説明図である。FIG. 3 is an explanatory diagram for explaining the field of view of the user using the wearable terminal according to the present embodiment. 図4は、本実施の形態におけるウェアラブル端末の構成の一部分を示す図である。FIG. 4 is a diagram showing a part of the configuration of the wearable terminal in the present embodiment.

(実施の形態)
以下、本発明の実施の形態におけるウェアラブル端末100について、図1〜図4を参照しながら説明する。
(Embodiment)
Hereinafter, a wearable terminal 100 according to an embodiment of the present invention will be described with reference to FIGS.

最初に、図1を用いて、本実施の形態におけるウェアラブル端末の外観構成について説明する。図1は、本発明の実施の形態におけるウェアラブル端末の外観を示す斜視図である。   First, the external configuration of the wearable terminal according to the present embodiment will be described with reference to FIG. FIG. 1 is a perspective view showing an appearance of a wearable terminal according to an embodiment of the present invention.

図1に示すように、本実施の形態におけるウェアラブル端末100は、ユーザの頭部に直接又は間接的に装着される。本実施の形態では、ウェアラブル端末100は、ユーザが装着するアイウェア200に取り付けられ、アイウェア200を介して、間接的にユーザの頭部に装着される。なお、本明細書において「頭部」には、顔も含まれている。   As shown in FIG. 1, wearable terminal 100 according to the present embodiment is attached directly or indirectly to the user's head. In the present embodiment, wearable terminal 100 is attached to eyewear 200 worn by the user, and is indirectly worn on the user's head via eyewear 200. In the present specification, the “head” includes a face.

また、図1に示すように、ウェアラブル端末100は、情報を表示させる表示部10と、外部を撮影する撮像部20と、光源30とを備えている。このうち、光源30は、それから出射された光31によって、撮像部20の撮影領域がユーザによって特定されるように配置されている。   As illustrated in FIG. 1, the wearable terminal 100 includes a display unit 10 that displays information, an imaging unit 20 that captures an image of the outside, and a light source 30. Among these, the light source 30 is arranged so that the user can specify the imaging region of the imaging unit 20 by the light 31 emitted therefrom.

このように、ウェアラブル端末100には、光源30が搭載され、それからの出射光によって撮像部20の撮影領域が示される。このため、ユーザは、撮影領域を容易に特定することができる。このため、ユーザは、撮像部20によって、特定の対象を撮影する必要がある場合に、確実に対象を撮影することができる。   As described above, the wearable terminal 100 is equipped with the light source 30, and the imaging region of the imaging unit 20 is indicated by the light emitted therefrom. For this reason, the user can easily specify the imaging region. For this reason, the user can reliably shoot the target when the imaging unit 20 needs to shoot a specific target.

続いて、図1に加えて図2を用いて、本実施の形態におけるウェアラブル端末の構成を具体的に説明する。図2は、本発明の実施の形態におけるウェアラブル端末の構成を示すブロック図である。   Next, the configuration of the wearable terminal according to the present embodiment will be specifically described with reference to FIG. 2 in addition to FIG. FIG. 2 is a block diagram showing the configuration of the wearable terminal according to the embodiment of the present invention.

図2に示すように、本実施の形態におけるウェアラブル端末は、図1に示した表示部10、撮像部20、及び光源30に加えて、駆動部40と、データ取得部50と、演算処理部60と、センサユニット70とを備えている。   As shown in FIG. 2, the wearable terminal according to the present embodiment includes a drive unit 40, a data acquisition unit 50, and an arithmetic processing unit in addition to the display unit 10, the imaging unit 20, and the light source 30 shown in FIG. 60 and a sensor unit 70.

表示部10は、本実施の形態では、透過型の表示パネルである。表示部10は、ユーザの目の前方に位置するように配置される。このため、ユーザは、実世界の状況と表示部10の画面に表示された情報とを同時に視認することができる。   In the present embodiment, the display unit 10 is a transmissive display panel. The display part 10 is arrange | positioned so that it may be located in front of a user's eyes. For this reason, the user can visually recognize the situation in the real world and the information displayed on the screen of the display unit 10 at the same time.

撮像部20は、カメラであり、本実施の形態では、図示していないが、レンズ等の光学系と、固体撮像素子とを備えている。このため、撮像部20は、撮影した画像を特定する画像データを出力することができる。   The imaging unit 20 is a camera, and includes an optical system such as a lens and a solid-state imaging element (not shown) in the present embodiment. For this reason, the imaging unit 20 can output image data that identifies the captured image.

光源30は、本実施の形態では、指向性の高いレーザー光を出射可能なレーザー光源である。また、光源30は、そこから出射されたレーザー光が、撮影部20の撮影領域に入射するように配置されている。なお、光源30は、指向性が確保された光を照射可能な光源であれば良く、レーザー光源以外の光源であっても良い。光源30としては、その他に、発光ダイオード等も挙げられる。   In the present embodiment, the light source 30 is a laser light source capable of emitting laser light with high directivity. Further, the light source 30 is arranged so that laser light emitted from the light source 30 enters the imaging region of the imaging unit 20. The light source 30 only needs to be a light source capable of emitting light with a secured directivity, and may be a light source other than a laser light source. Other examples of the light source 30 include a light emitting diode.

駆動部40は、光源30に電力を供給し、これを駆動している。また、駆動部40は、演算処理部60からの指示に応じて、光源30による光の出射を制御している。具体的には、駆動部40は、演算処理部60が出射を指示すると、光源30に電力を供給し、一方、演算処理部60が出射の停止を指示すると、光源30への電力の供給を停止する。   The drive unit 40 supplies power to the light source 30 and drives it. In addition, the drive unit 40 controls the emission of light by the light source 30 in accordance with an instruction from the arithmetic processing unit 60. Specifically, the driving unit 40 supplies power to the light source 30 when the arithmetic processing unit 60 instructs the emission, and supplies power to the light source 30 when the arithmetic processing unit 60 instructs the stop of the emission. Stop.

データ取得部50は、撮像部20から出力される画像データを受け取り、これに対してデジタル処理を行なう。また、データ取得部50は、デジタル処理された画像データを、演算処理部60に入力する。   The data acquisition unit 50 receives the image data output from the imaging unit 20, and performs digital processing on the image data. In addition, the data acquisition unit 50 inputs the digitally processed image data to the arithmetic processing unit 60.

センサユニット70は、加速度センセ、角速度センサ及び地磁気センサ(図2において図示せず)を備え、これらセンサからの信号を、演算処理部60に出力する。また、センサユニット70から出力される信号は、ウェアラブル端末100の傾きに応じて変化することから、この信号により、光源30の光軸の傾きを検出することが可能となる。   The sensor unit 70 includes an acceleration sensor, an angular velocity sensor, and a geomagnetic sensor (not shown in FIG. 2), and outputs signals from these sensors to the arithmetic processing unit 60. In addition, since the signal output from the sensor unit 70 changes according to the inclination of the wearable terminal 100, the inclination of the optical axis of the light source 30 can be detected by this signal.

演算処理部60は、例えば、CPU(Central Processing Unit)等を備えたコンピュータによって構成されており、各種アプリケーションプログラムを実行して処理を行なう。例えば、演算処理部60は、データ取得部50からの画像データに基づいて、画像データに含まれる2次元コードを、ユーザが認識可能な情報に変換し、得られた情報を表示部10に表示させる(図3参照)。   The arithmetic processing unit 60 is constituted by, for example, a computer including a CPU (Central Processing Unit) and the like, and executes various application programs to perform processing. For example, based on the image data from the data acquisition unit 50, the arithmetic processing unit 60 converts a two-dimensional code included in the image data into information that can be recognized by the user, and displays the obtained information on the display unit 10. (See FIG. 3).

また、演算処理部60は、センサユニット70からの信号に基づいて、光源の光軸の傾きを検出し、検出した傾きに応じて、光源に光の出射又は出射の停止を行なわせることができる。具体的には、演算処理部60は、センサユニット70から信号が出力されてくると、予め設定されている、信号と光軸の傾きとの関係から、現在の光軸の傾きを特定する。   In addition, the arithmetic processing unit 60 can detect the inclination of the optical axis of the light source based on the signal from the sensor unit 70, and can cause the light source to emit light or stop emitting light according to the detected inclination. . Specifically, when a signal is output from the sensor unit 70, the arithmetic processing unit 60 specifies the current optical axis inclination from the preset relationship between the signal and the optical axis inclination.

そして、演算処理部60は、特定された傾きが、水平を基準に設定された範囲内(略水平と言える範囲であり、例えば、上方5度から下方5度までの範囲内)にある場合は、駆動部40に、光源30からの光の出射を停止させる。一方、演算処理部60は、特定された傾きが、設定された範囲を超えている場合は、駆動部40に、光源30からの光の出射を行なわせる。   When the specified inclination is within a range set with reference to the horizontal (a range that can be said to be substantially horizontal, for example, within a range from 5 degrees above to 5 degrees below). Then, the drive unit 40 stops the emission of light from the light source 30. On the other hand, when the specified inclination exceeds the set range, the arithmetic processing unit 60 causes the drive unit 40 to emit light from the light source 30.

つまり、演算処理部60は、ユーザが顔を上方又は下方に向けている場合は、駆動部40に、光源30からの光の出射を行なわせる。一方、演算処理部60は、ユーザが顔を水平方向に向けている場合は、駆動部40に、光源30からの光の出射を停止させる。   That is, the arithmetic processing unit 60 causes the driving unit 40 to emit light from the light source 30 when the user faces the face upward or downward. On the other hand, the arithmetic processing unit 60 causes the driving unit 40 to stop emitting light from the light source 30 when the user faces the face in the horizontal direction.

このように、ユーザの顔の向きによって光の照射のオンオフを切り換えることができるので、ユーザは、作業中に、目の前にヒトが現われて、直ぐに光の照射を停止したい場合に、手を使うことなく素早く光の照射を停止できる。   In this way, since the irradiation of light can be switched on and off according to the orientation of the user's face, the user can put his hand in the work when a person appears in front of him and wants to stop the irradiation of light immediately. Light irradiation can be stopped quickly without using it.

図3は、本実施の形態におけるウェアラブル端末を使用したユーザの視界を説明する説明図である。図3の例では、ユーザの視界には、2次元コードが印刷された複数の箱を見ているバーコードが存在している。そして、ユーザは、視界において、光源30から出射されたレーザー光31を視認できるので、撮像部20の撮影領域がどのあたりであるかを認識することができる。なお、図3には、説明のために、撮影領域21を破線によって示している。   FIG. 3 is an explanatory diagram for explaining the field of view of the user using the wearable terminal according to the present embodiment. In the example of FIG. 3, there is a barcode that looks at a plurality of boxes on which a two-dimensional code is printed in the user's field of view. Since the user can visually recognize the laser beam 31 emitted from the light source 30 in the field of view, the user can recognize where the imaging region of the imaging unit 20 is. In FIG. 3, for the sake of explanation, the imaging region 21 is indicated by a broken line.

このように、ウェアラブル端末100を用いれば、本実施の形態によれば、ユーザは、自身の頭部に装着される撮像部20の撮影領域を容易に特定できる。また、図3の例では、撮影された2次元コードが表す情報が、表示部10の画面11に表示されている。   Thus, using wearable terminal 100, according to the present embodiment, the user can easily specify the imaging region of imaging unit 20 worn on his / her head. In the example of FIG. 3, information represented by the captured two-dimensional code is displayed on the screen 11 of the display unit 10.

[変形例1]
続いて、本実施の形態における変形例について説明する。演算処理部60は、データ取得部50からの画像データに基づいてヒトの検出を行なうことができる。具体的には、演算処理部60は、画像データ中に、予め設定された条件を満たす領域、例えば、ヒトの顔の特徴量を有している領域が存在しているかどうかを判定し、存在していると判定した場合は、ヒトが撮影されていると判断する。
[Modification 1]
Subsequently, a modified example in the present embodiment will be described. The arithmetic processing unit 60 can detect a human based on the image data from the data acquisition unit 50. Specifically, the arithmetic processing unit 60 determines whether or not there is a region in the image data that satisfies a preset condition, for example, a region having a human face feature amount. If it is determined that the person is shooting, it is determined that the person is photographed.

そして、演算処理部60は、ヒトが撮影されていると判断した場合(ヒトを検出できた場合)は、駆動部40に、光源30からの光の出射を停止させる。変形例1によれば、ヒトが撮影されると、自動的にレーザー光の出射が停止されるので、より安全性を高める事が可能となる。   When the arithmetic processing unit 60 determines that a person has been photographed (when a person has been detected), the arithmetic processing unit 60 causes the drive unit 40 to stop emitting light from the light source 30. According to the modified example 1, when a person is photographed, the emission of the laser beam is automatically stopped, so that the safety can be further improved.

[変形例2]
演算処理部60は、データ取得部50からの画像データに基づいて、特定の対象物の検出処理を実行することができる。具体的には、演算処理部60は、画像データ中に、予め設定された特徴量を有する領域が現われると、この領域を特定の対象物として検出する。また、この場合、演算処理部60は、特定の対象物を検出したことをトリガーにして駆動部40に、光源30からの光の出射を開始させる。変形例2による場合も、より安全性を高める事が可能となる。
[Modification 2]
The arithmetic processing unit 60 can execute a specific object detection process based on the image data from the data acquisition unit 50. Specifically, when a region having a preset feature amount appears in the image data, the arithmetic processing unit 60 detects this region as a specific object. In this case, the arithmetic processing unit 60 causes the drive unit 40 to start emitting light from the light source 30 using the detection of a specific object as a trigger. Also in the case of the modification 2, it becomes possible to improve safety | security more.

図3の例であれば、2次元コードが検出対象となる。この場合、演算処理部60は、画像データ中に2次元コードが現われると、駆動部40に、光源30からの光の出射を開始させる。その後、演算処理部60は、検出した2次元コードに対して解析処理を行なって、2次元コードが表す情報を特定できた場合は、図3に示したように、特定した情報を、表示部10の画面に表示させる。   In the example of FIG. 3, a two-dimensional code is a detection target. In this case, the arithmetic processing unit 60 causes the drive unit 40 to start emitting light from the light source 30 when a two-dimensional code appears in the image data. After that, the arithmetic processing unit 60 performs an analysis process on the detected two-dimensional code, and when the information represented by the two-dimensional code can be specified, as shown in FIG. 10 screens are displayed.

[変形例3]
演算処理部60は、データ取得部50からの画像データに基づいて、ユーザの手の動作または形を特定し、特定した動作または形に基づいて、駆動部40に、光源30からの光の出射又は出射の停止を行なわせることができる。
[Modification 3]
The arithmetic processing unit 60 identifies the movement or shape of the user's hand based on the image data from the data acquisition unit 50, and emits light from the light source 30 to the driving unit 40 based on the identified movement or shape. Alternatively, the emission can be stopped.

具体的には、手の動作が用いられる場合であれば、演算処理部60は、画像データ中に、予め設定された手の特徴量を有する領域が現われると、この領域を、設定されたフレーム数分取得して、この領域の変化パターンを特定する。そして、演算処理部60は、特定した変化パターンが、予め設定されているパターンと一致する場合は、この予め設定されているパターンに関連付けられている処理(光の出射又は出射の停止)を、駆動部40に行なわせる。   Specifically, if a hand motion is used, the arithmetic processing unit 60, when a region having a preset hand feature amount appears in the image data, this region is set to the set frame. Acquire several minutes to identify the change pattern of this area. When the specified change pattern matches the preset pattern, the arithmetic processing unit 60 performs processing (emission of light or stop of emission) associated with the preset pattern, The driving unit 40 is caused to perform the operation.

また、手の形が用いられる場合であれば、演算処理部60は、画像データ中に、予め設定された手の特徴量を有する領域が現われると、この領域を取得する。そして、演算処理部60は、取得した領域の形状が、予め設定されている形状と一致する場合は、この予め設定されている形状に関連付けられている処理(光の出射又は出射の停止)を、駆動部40に行なわせる。   If a hand shape is used, the arithmetic processing unit 60 acquires this region when a region having a preset feature value of the hand appears in the image data. Then, when the shape of the acquired area matches the preset shape, the arithmetic processing unit 60 performs a process (emission of light or stop of emission) associated with the preset shape. Then, the drive unit 40 is caused to perform the operation.

[変形例4]
ウェアラブル端末100が更にマイクを備えている場合であれば、演算処理部60は、特定の音声に基づいて、駆動部40に、光源30からの光の出射又は出射の停止を行なわせることができる。具体的には、演算処理部60は、マイクから入力された音声に対して音声認識を実行する。そして、演算処理部60は、音声認識の結果から、発せられていた言葉を特定し、特定した言葉に応じて(例えば、「ガイドON」、「ガイドOFF」等)、駆動部40に、光源30からの光の出射又は出射の停止を行なわせる。
[Modification 4]
If the wearable terminal 100 further includes a microphone, the arithmetic processing unit 60 can cause the drive unit 40 to emit light from the light source 30 or stop emission based on a specific sound. . Specifically, the arithmetic processing unit 60 performs voice recognition on the voice input from the microphone. Then, the arithmetic processing unit 60 identifies the words that have been uttered from the result of the voice recognition, and in response to the identified words (for example, “Guide ON”, “Guide OFF”, etc.) The emission of light from 30 is stopped or the emission is stopped.

[変形例5]
変形例5では、光源30と撮像部20との取り付け構造に特徴がある。図4は、本実施の形態におけるウェアラブル端末の構成の一部分を示す図である。
[Modification 5]
Modification 5 is characterized by a mounting structure between the light source 30 and the imaging unit 20. FIG. 4 is a diagram showing a part of the configuration of the wearable terminal in the present embodiment.

図4に示ように、変形例2では、光源30から出射され、その後、全反射ミラー71とハーフミラー72とで順に反射された光の光軸32と、撮像部20の撮像素子の中心の法線22とが、一致するように、全反射ミラー71とハーフミラー72とが設置されている。このため、変形例2によれば、撮像部20の撮影領域の中心に、光源30からのレーザー光が位置することとなり、ユーザは、より簡単に撮影領域を特定することができるようになる。   As shown in FIG. 4, in the second modification, the optical axis 32 of the light emitted from the light source 30 and then sequentially reflected by the total reflection mirror 71 and the half mirror 72, and the center of the imaging element of the imaging unit 20. The total reflection mirror 71 and the half mirror 72 are installed so that the normal line 22 coincides. For this reason, according to the modified example 2, the laser light from the light source 30 is positioned at the center of the imaging region of the imaging unit 20, and the user can specify the imaging region more easily.

本発明によれば、ユーザが、自身の頭部に装着されるカメラの撮影領域を容易に特定できるようにすることができる。本発明は、頭部に装着されるウェアラブル端末に有用である。   ADVANTAGE OF THE INVENTION According to this invention, a user can specify easily the imaging | photography area | region of the camera with which his head is mounted | worn. The present invention is useful for a wearable terminal worn on the head.

10 表示部
11 画面
20 撮像部
21 撮影領域
22 撮影領域の中心の法線
30 光源
31 出射光
32 出射光の光軸
40 駆動部
50 データ取得部
60 演算処理部
70 センサユニット
100 ウェアラブル端末
200 アイウェア
DESCRIPTION OF SYMBOLS 10 Display part 11 Screen 20 Imaging part 21 Image | photographing area | region 22 Normal line of the center of an imaging | photography area | region 30 Light source 31 Outgoing light 32 Optical axis of emitted light 40 Drive part 50 Data acquisition part 60 Arithmetic processing part 70 Sensor unit 100 Wearable terminal 200 Eyewear

Claims (5)

ユーザの頭部に直接又は間接的に装着されるウェアラブル端末であって、
情報を表示させる表示部と、外部を撮影する撮像部と、光源とを備え、
前記光源は、それから出射された光によって、前記撮像部の撮影領域がユーザによって特定されるように配置されている、
ことを特徴とするウェアラブル端末。
A wearable terminal that is directly or indirectly attached to the user's head,
A display unit for displaying information, an imaging unit for photographing the outside, and a light source;
The light source is arranged so that a photographing region of the imaging unit is specified by a user by light emitted from the light source,
Wearable terminal characterized by this.
前記光源が、レーザー光を出射可能なレーザー光源であり、出射されたレーザー光が前記撮影部の撮影領域に入射するように配置されている、
請求項1に記載のウェアラブル端末。
The light source is a laser light source capable of emitting laser light, and the emitted laser light is disposed so as to enter the imaging region of the imaging unit,
The wearable terminal according to claim 1.
前記表示部が、透過型の表示パネルを有している、
請求項1または2に記載のウェアラブル端末。
The display unit has a transmissive display panel.
The wearable terminal according to claim 1 or 2.
前記光源の光軸の傾きを検出可能なセンサと、
前記センサで検出された傾きに応じて、前記光源に光の出射又は出射の停止を行なわせる、演算処理部と、を更に備えている、
請求項1〜3のいずれかに記載のウェアラブル端末。
A sensor capable of detecting the inclination of the optical axis of the light source;
An arithmetic processing unit that causes the light source to emit light or stop emitting light according to the inclination detected by the sensor;
The wearable terminal in any one of Claims 1-3.
前記撮像部から得られた画像に基づいてヒトの検出を行ない、検出の結果、ヒトが検出された場合に、前記光源に光の出射を停止させる、演算処理部と、を更に備えている、
請求項1〜3のいずれかに記載のウェアラブル端末。
A human processor based on an image obtained from the imaging unit, and further comprising an arithmetic processing unit that causes the light source to stop emitting light when a human is detected as a result of the detection.
The wearable terminal in any one of Claims 1-3.
JP2015066880A 2015-03-27 2015-03-27 Wearable terminal Pending JP2016187130A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015066880A JP2016187130A (en) 2015-03-27 2015-03-27 Wearable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015066880A JP2016187130A (en) 2015-03-27 2015-03-27 Wearable terminal

Publications (1)

Publication Number Publication Date
JP2016187130A true JP2016187130A (en) 2016-10-27

Family

ID=57203378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015066880A Pending JP2016187130A (en) 2015-03-27 2015-03-27 Wearable terminal

Country Status (1)

Country Link
JP (1) JP2016187130A (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6064789A (en) * 1983-09-20 1985-04-13 Mitsubishi Electric Corp Laser working device
JP2001021832A (en) * 1999-07-09 2001-01-26 Shimadzu Corp Display device
JP2001350119A (en) * 2000-06-05 2001-12-21 Seiko Epson Corp Light emitting pointer, instructed position detecting system, presentation system and information storage medium
JP2004219847A (en) * 2003-01-16 2004-08-05 National Institute Of Advanced Industrial & Technology Miniaturized mobile terminal
JP2006174353A (en) * 2004-12-20 2006-06-29 Casio Comput Co Ltd Photographing apparatus and program
JP2007201720A (en) * 2006-01-25 2007-08-09 Victor Co Of Japan Ltd Remote control system
JP2010136335A (en) * 2008-11-05 2010-06-17 Ricoh Co Ltd Image forming apparatus, control method, and program
JP2013175909A (en) * 2012-02-24 2013-09-05 Nikon Corp Head-mounted device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6064789A (en) * 1983-09-20 1985-04-13 Mitsubishi Electric Corp Laser working device
JP2001021832A (en) * 1999-07-09 2001-01-26 Shimadzu Corp Display device
JP2001350119A (en) * 2000-06-05 2001-12-21 Seiko Epson Corp Light emitting pointer, instructed position detecting system, presentation system and information storage medium
JP2004219847A (en) * 2003-01-16 2004-08-05 National Institute Of Advanced Industrial & Technology Miniaturized mobile terminal
JP2006174353A (en) * 2004-12-20 2006-06-29 Casio Comput Co Ltd Photographing apparatus and program
JP2007201720A (en) * 2006-01-25 2007-08-09 Victor Co Of Japan Ltd Remote control system
JP2010136335A (en) * 2008-11-05 2010-06-17 Ricoh Co Ltd Image forming apparatus, control method, and program
JP2013175909A (en) * 2012-02-24 2013-09-05 Nikon Corp Head-mounted device

Similar Documents

Publication Publication Date Title
US20210082198A1 (en) Augmented reality lighting effects
US10108832B2 (en) Augmented reality vision barcode scanning system and method
US11344196B2 (en) Portable eye tracking device
US10395116B2 (en) Dynamically created and updated indoor positioning map
US11570340B2 (en) Mobile device case and techniques for multi-view imaging
US11073901B2 (en) Display device, control method for display device, and computer program
CN106471419B (en) Management information is shown
JP5423716B2 (en) Head mounted display
US10102676B2 (en) Information processing apparatus, display apparatus, information processing method, and program
JP2019080354A (en) Head-mounted display
US20180373327A1 (en) System and method for selective scanning on a binocular augmented reality device
US10782531B2 (en) Head-mounted type display device and method of controlling head-mounted type display device
US20080199165A1 (en) Safe eye detection
JPH11142784A (en) Head mount display with position detecting function
CA3086019A1 (en) An alternative method to interact with user interface using standard barcode scanners paired up with augmented reality heads up display
JP2017146726A (en) Movement support device and movement support method
US20230013134A1 (en) Electronic device
US20190227311A1 (en) Systems and methods for task-based adjustable focal distance for heads-up displays
JP2016187130A (en) Wearable terminal
US20240061632A1 (en) Information presentation system, terminal device, and recording medium
JP2017136103A (en) Imaging system, display device, and control method of imaging system
JP2018085595A (en) Head-mounted display device and method for controlling the same
JP2017126021A (en) Information display system and information display method
KR20170125617A (en) Virtual reality apparatus and method for thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191023