JP2020036123A - Wearable terminal and display system - Google Patents

Wearable terminal and display system Download PDF

Info

Publication number
JP2020036123A
JP2020036123A JP2018159349A JP2018159349A JP2020036123A JP 2020036123 A JP2020036123 A JP 2020036123A JP 2018159349 A JP2018159349 A JP 2018159349A JP 2018159349 A JP2018159349 A JP 2018159349A JP 2020036123 A JP2020036123 A JP 2020036123A
Authority
JP
Japan
Prior art keywords
unit
utterance
user
screen
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018159349A
Other languages
Japanese (ja)
Other versions
JP7065730B2 (en
Inventor
卓朗 伊藤
Takuro Ito
卓朗 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2018159349A priority Critical patent/JP7065730B2/en
Publication of JP2020036123A publication Critical patent/JP2020036123A/en
Application granted granted Critical
Publication of JP7065730B2 publication Critical patent/JP7065730B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

To utilize a wearable terminal in telephone conversation through mobile communication.SOLUTION: A screen display control unit 201 displays, on a display surface, a screen of a processor operating according to a user's operation of an operation device superimposed on the background. A reception time vibration control unit 203 controls a vibration device to vibrate when there is an incoming call to communication means. A received speech voice data output unit 204 acquires received speech voice data received by the communication means and outputs, to sound emission means, a received speech voice shown by the received speech voice data. An utterance text data generation unit 104 generates utterance text data indicating a sentence input with the use of the operation device. An utterance voice data generation unit 205 generates utterance voice data showing a voice of the sentence input with the use of the operation device. An utterance voice data output unit 206 outputs the generated utterance voice data as utterance data of mobile communication.SELECTED DRAWING: Figure 5

Description

本発明は、ウェアラブル端末に関する。   The present invention relates to a wearable terminal.

特許文献1には、画像光を反射して観察者の眼に投射するハーフミラーを備えるヘッドマウントディスプレイに、ハーフミラーを透過した画像光が透過する際に外界からの視認性を低下可能とした視認性阻害部材を設ける技術が開示されている。   Patent Literature 1 discloses that a head-mounted display including a half mirror that reflects image light and projects the image onto an observer's eye can reduce visibility from the outside when image light transmitted through the half mirror is transmitted. A technique of providing a visibility inhibiting member is disclosed.

特開2012−159680号公報JP 2012-159680 A

頭部装着型のウェアラブル端末の表示面にパソコン等の画面を現実空間に重ねて表示することで、例えばディスプレイもパーティションも設置されていないオープンスペースでの作業を容易に行うことができる。そのような環境では、電話機も設置されていないことが普通であるから、携帯電話を用いたコミュニケーションも重要である。
そこで、本発明は、移動体通信による通話でウェアラブル端末を活用することを目的とする。
By displaying a screen of a personal computer or the like on a display surface of a head-mounted type wearable terminal in a superimposed manner in a real space, it is possible to easily work in an open space where neither a display nor a partition is installed. In such an environment, it is common that no telephone is installed, so communication using a mobile phone is also important.
Therefore, an object of the present invention is to utilize a wearable terminal for a call by mobile communication.

上記目的を達成するために、本発明は、頭部装着型のウェアラブル端末であって、自端末を装着したユーザの視界に位置する透過型の表示面と、前記ユーザによる操作デバイスの操作に応じて動作する処理装置の画面を背景に重畳させて前記表示面に表示させる表示制御部と、移動体通信を行う通信手段が受信した音声データを取得して当該音声データにより示される受話音声を放音手段に出力する受話出力部とを備えるウェアラブル端末を提供する。   In order to achieve the above object, the present invention relates to a head-mounted wearable terminal, which includes a transmissive display surface located in a field of view of a user wearing the terminal, A display control unit that superimposes a screen of a processing device operating on a background and displays the screen on the display surface, and acquires audio data received by a communication unit that performs mobile communication, and emits a reception audio indicated by the audio data. A wearable terminal including a reception output unit that outputs to a sound unit.

また、前記操作デバイスを用いて入力されて前記表示面に表示された文章の音声を示す音声データを生成する生成部と、生成された前記音声データを移動体通信の発話データとして出力する発話出力部とを備えていてもよい。   A generating unit configured to generate voice data indicating voice of a sentence input using the operation device and displayed on the display surface; and an utterance output configured to output the generated voice data as utterance data of mobile communication. Unit may be provided.

また、前記操作デバイスを用いて入力されて前記表示面に表示された文章を示す文章データを、当該文章データから当該文章の音声を示す音声データを生成して当該音声データを移動体通信の発話データとして送信する音声処理装置に対して出力する文章出力部を備えていてもよい。   Further, text data indicating a text input using the operation device and displayed on the display surface is generated, and voice data indicating a voice of the text is generated from the text data, and the voice data is transmitted to a mobile communication utterance. A text output unit that outputs the data to a voice processing device that transmits the data may be provided.

また、前記通信手段が受け取った着信の発信元のユーザを特定する特定部と、特定された前記ユーザが利用しているリアルタイムコミュニケーションサービスで登録されている当該ユーザの宛先に接続を要求する要求部とを備えていてもよい。   A specifying unit for specifying a user who has transmitted the incoming call received by the communication unit; and a requesting unit for requesting a connection to a destination of the user registered in a real-time communication service used by the specified user. May be provided.

また、前記通信手段への着信があった場合に振動する振動部を備えていてもよい。   Also, a vibration unit that vibrates when an incoming call to the communication unit is received may be provided.

また、前記表示制御部は、前記通信手段への着信があった場合に当該着信を示す画像を前記表示面に表示させてもよい。   The display control unit may display an image indicating the incoming call on the display surface when the incoming call to the communication unit is received.

また、前記表示制御部は、前記通信手段への着信があったときに前記表示面に表示されている画面の重要度が所定の基準以上である場合には前記画像を表示させず、前記振動部は、前記重要度が少なくとも前記基準以上である場合に振動してもよい。   Further, the display control unit does not display the image if the importance of the screen displayed on the display surface is equal to or higher than a predetermined reference when there is an incoming call to the communication unit, and The unit may vibrate when the importance is at least equal to or higher than the reference.

また、前記通信手段への着信があったときの前記操作デバイスへの操作頻度が閾値以上である場合に前記画像を表示させず、前記振動部は、前記操作頻度が少なくとも前記閾値以上である場合に振動してもよい。   In addition, when the operation frequency to the operation device when there is an incoming call to the communication unit is equal to or higher than a threshold, the image is not displayed, and the vibrating unit determines that the operation frequency is at least equal to or higher than the threshold. May be vibrated.

また、本発明は、上記のウェアラブル端末と、前記ウェアラブル端末を装着したユーザによって操作される操作デバイスと、前記操作デバイスへの操作に応じて動作し、自装置の画面が前記ウェアラブル端末に表示される処理装置とを備える表示システムを提供する。   The present invention also provides the wearable terminal described above, an operation device operated by a user wearing the wearable terminal, and an operation performed according to an operation on the operation device, and a screen of the own device is displayed on the wearable terminal. And a display system comprising the processing device.

本発明によれば、移動体通信による通話でウェアラブル端末を活用することができる。   ADVANTAGE OF THE INVENTION According to this invention, a wearable terminal can be utilized by the telephone call by mobile communication.

実施例に係るARPCシステムの全体構成を表す図FIG. 1 is a diagram illustrating an entire configuration of an ARPC system according to an embodiment. パソコンのハードウェア構成を表す図Diagram showing hardware configuration of personal computer ウェアラブルグラスのハードウェア構成を表す図Diagram showing hardware configuration of wearable glass 投影装置の構成を表す図Diagram showing the configuration of the projection device ARPCシステムが実現する機能構成を表す図Diagram showing functional configuration realized by ARPC system 表示された着信画像の例を表す図Diagram showing an example of the displayed incoming image 表示された入力画像の例を表す図Diagram showing an example of the displayed input image 通話処理における動作手順の一例を表す図The figure showing an example of the operation procedure in a telephone call process 変形例で実現される機能構成を表す図Diagram showing the functional configuration realized in the modified example 変形例で実現される機能構成を表す図Diagram showing the functional configuration realized in the modified example 表示されたRTCS画面の一例を表す図Diagram showing an example of the displayed RTCS screen 重要度テーブルの一例を表す図Diagram showing an example of the importance table

[1]実施例
図1は実施例に係るARPCシステム1の全体構成を表す。ARPCシステム1は、AR(Augmented Reality:拡張現実)の技術を用いてPC(Personal Computer:パーソナルコンピュータ(パソコンとも言う))を利用するためのシステムである。
[1] Embodiment FIG. 1 shows an overall configuration of an ARPC system 1 according to an embodiment. The ARPC system 1 is a system for using a PC (Personal Computer) using an AR (Augmented Reality) technique.

ARPCシステム1は、パソコン10と、ウェアラブルグラス20とを備える。パソコン10は、いわゆるパーソナルコンピュータであり、キーボード等の操作デバイスを備える。本実施例のパソコン10は、キーボードと一体になっており、キーボードの筐体の中にプロセッサ等のパソコン本体を構成する部品が格納されている。パソコン10は、それらの操作デバイスへの操作に応じて処理の実行等の動作を行う。パソコン10は本発明の「処理装置」の一例である。   The ARPC system 1 includes a personal computer 10 and a wearable glass 20. The personal computer 10 is a so-called personal computer, and includes an operation device such as a keyboard. The personal computer 10 of the present embodiment is integrated with a keyboard, and a component of the personal computer main body such as a processor is stored in a housing of the keyboard. The personal computer 10 performs operations such as execution of processing in accordance with operations on those operation devices. The personal computer 10 is an example of the “processing device” of the present invention.

ウェアラブルグラス20は、ユーザの頭部に装着されて使用される(つまり頭部装着型の)ウェアラブル端末であり、具体的にはメガネ型のウェアラブル端末である。ウェアラブルグラス20は本発明の「ウェアラブル端末」の一例である。パソコン10及びウェアラブルグラス20は、本実施例では、図1に表すように有線で接続されている。なお、両装置の接続は無線であってもよい。   The wearable glass 20 is a wearable terminal that is used by being worn on the user's head (that is, a head-mounted type), and is specifically a glasses-type wearable terminal. The wearable glass 20 is an example of the “wearable terminal” of the present invention. In this embodiment, the personal computer 10 and the wearable glass 20 are connected by wire as shown in FIG. The connection between the two devices may be wireless.

ウェアラブルグラス20は、背景が透過して見える表示面を有し、その表示面にパソコン10の画面を表示する。この表示された画面を見るユーザ、すなわち、ウェアラブルグラス20を装着したユーザによって、パソコン10が備える操作デバイスが操作される。このように、パソコン10は、操作デバイスへの操作に応じて動作すると共に、自装置の画面がウェアラブルグラス20に表示される。   The wearable glass 20 has a display surface on which the background is seen through, and displays the screen of the personal computer 10 on the display surface. The user viewing the displayed screen, that is, the user wearing the wearable glass 20 operates the operation device included in the personal computer 10. As described above, the personal computer 10 operates according to the operation on the operation device, and the screen of the own device is displayed on the wearable glass 20.

図2はパソコン10のハードウェア構成を表す。パソコン10は、プロセッサ11と、メモリ12と、ストレージ13と、通信装置14と、入力装置15と、バス16という各装置と、それらの装置を格納するキーボード筐体17とを備えるコンピュータである。なお、ここでいう「装置」という文言は、回路、デバイス及びユニット等に読み替えることができる。また、各装置は、1つ又は複数含まれていてもよいし、一部の装置が含まれていなくてもよい。   FIG. 2 shows a hardware configuration of the personal computer 10. The personal computer 10 is a computer including a processor 11, a memory 12, a storage 13, a communication device 14, an input device 15, a bus 16, and a keyboard housing 17 for storing the devices. Note that the term “apparatus” can be read as a circuit, a device, a unit, or the like. In addition, one or more devices may be included, or some devices may not be included.

プロセッサ11は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ11は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。また、プロセッサ11は、プログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を、ストレージ13及び/又は通信装置14からメモリ12に読み出し、これらに従って各種の処理を実行する。   The processor 11 controls an entire computer by operating an operating system, for example. The processor 11 may be configured by a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic device, a register, and the like. Further, the processor 11 reads out a program (program code), a software module, data, and the like from the storage 13 and / or the communication device 14 to the memory 12, and executes various processes according to these.

各種処理を実行するプロセッサ11は1つでもよいし、2以上であってもよく、2以上のプロセッサ11は、同時又は逐次に各種処理を実行してもよい。また、プロセッサ11は、1以上のチップで実装されてもよい。プログラムは、電気通信回線を介してネットワークから送信されてもよい。   The number of processors 11 that execute various processes may be one, or two or more, and two or more processors 11 may execute various processes simultaneously or sequentially. Further, the processor 11 may be implemented by one or more chips. The program may be transmitted from a network via a telecommunication line.

メモリ12は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)及びRAM(Random Access Memory)等の少なくとも1つで構成されてもよい。メモリ12は、レジスタ、キャッシュ及びメインメモリ(主記憶装置)等と呼ばれてもよい。メモリ12は、前述したプログラム(プログラムコード)、ソフトウェアモジュール及びデータ等を保存することができる。   The memory 12 is a computer-readable recording medium, and includes at least one of a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), a RAM (Random Access Memory), and the like. May be done. The memory 12 may be called a register, a cache, a main memory (main storage device), or the like. The memory 12 can store the above-described programs (program codes), software modules, data, and the like.

ストレージ13は、コンピュータが読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ13は、補助記憶装置と呼ばれてもよい。   The storage 13 is a computer-readable recording medium, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, a magneto-optical disk (for example, a compact disk, a digital versatile disk, a Blu- (registered trademark), a smart card, a flash memory (for example, a card, a stick, a key drive), a floppy (registered trademark) disk, and a magnetic strip. The storage 13 may be called an auxiliary storage device.

上述の記憶媒体は、例えば、メモリ12及び/又はストレージ13を含むデータベース、サーバその他の適切な媒体であってもよい。通信装置14は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。本実施例では、通信装置14は、移動体通信装置141を備える。移動体通信装置141は、基地局を介した移動体通信を行うハードウェアであり、本発明の「通信手段」の一例である。   The storage medium described above may be, for example, a database including the memory 12 and / or the storage 13, a server, or any other suitable medium. The communication device 14 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. In the present embodiment, the communication device 14 includes a mobile communication device 141. The mobile communication device 141 is hardware for performing mobile communication via a base station, and is an example of the “communication unit” of the present invention.

入力装置15は、情報を入力するための操作を受け付ける操作デバイスである。本実施例では、入力装置15は、キーボード151及びマウス152(タッチパッドでもよい)を操作デバイスとして備える。プロセッサ11及びメモリ12等の各装置は、情報を通信するためのバス16を介して互いにアクセス可能となっている。バス16は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。   The input device 15 is an operation device that receives an operation for inputting information. In this embodiment, the input device 15 includes a keyboard 151 and a mouse 152 (may be a touch pad) as operation devices. Each device such as the processor 11 and the memory 12 can access each other via a bus 16 for communicating information. The bus 16 may be constituted by a single bus, or may be constituted by different buses between the devices.

また、パソコン10等は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、及び、FPGA(Field Programmable Gate Array)等のハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ11は、これらのハードウェアの少なくとも1つで実装されてもよい。   The personal computer 10 and the like include hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). The hardware may implement some or all of the functional blocks. For example, the processor 11 may be implemented by at least one of these hardware.

図3はウェアラブルグラス20のハードウェア構成を表す。ウェアラブルグラス20は、プロセッサ21と、メモリ22と、ストレージ23と、通信装置24と、入力装置25と、バス26と、投影装置30と、フレーム40という各装置を備えるコンピュータである。プロセッサ21から通信装置24までは、図2に表す同名の装置と性能及び仕様等の違いはあるが同種の装置である。   FIG. 3 shows a hardware configuration of the wearable glass 20. The wearable glass 20 is a computer including a processor 21, a memory 22, a storage 23, a communication device 24, an input device 25, a bus 26, a projection device 30, and a frame 40. The processor 21 to the communication device 24 are devices of the same type, although there are differences in performance, specifications, and the like from the device of the same name shown in FIG.

入力装置25は、ウェアラブルグラス20を装着したユーザが自分の手元を見なくても操作可能な操作デバイスとして例えばタッチパッドを備える。投影装置30は、外部装置から供給される画像データが示す画像を、ウェアラブルグラス20を装着したユーザの眼に対して投影する。投影装置30は、投影部31と、光路形成部32とを備える。投影部31は、前述した画像を示す光を投射する。光路形成部32は、投影部31からユーザの眼までの光路を形成し、投影部31が投射した光をユーザの眼まで案内する。   The input device 25 includes, for example, a touch pad as an operation device that can be operated by a user wearing the wearable glass 20 without looking at the user. The projection device 30 projects the image indicated by the image data supplied from the external device to the eye of the user wearing the wearable glass 20. The projection device 30 includes a projection unit 31 and an optical path forming unit 32. The projection unit 31 projects light indicating the image described above. The optical path forming unit 32 forms an optical path from the projection unit 31 to the user's eyes, and guides the light projected by the projection unit 31 to the user's eyes.

図4は投影装置30の構成を表す。図4では、左眼に光を投射する投影部31Lと、右眼に光を投射する投影部31Rとが表されている。また、光路形成部32が備える部材として、導光板321と、ミラー322L及び322R(それぞれを区別しない場合は「ミラー322」という)と、ビームスプリッタ323L及び323R(それぞれを区別しない場合は「ビームスプリッタ323」という)とが表されている。   FIG. 4 shows a configuration of the projection device 30. FIG. 4 illustrates a projection unit 31L that projects light to the left eye and a projection unit 31R that projects light to the right eye. Further, as members provided in the optical path forming unit 32, the light guide plate 321, mirrors 322 L and 322 R (hereinafter, referred to as “mirror 322”), and beam splitters 323 L and 323 R (if not distinguished, “beam splitter”) 323 ”).

導光板321は、細長い板状の部材である。ウェアラブルグラス20がユーザに装着されると、導光板321がユーザの眼の前方に位置し、導光板321の長手方向がユーザの眼が並んでいる方向、つまりユーザにとっての左右方向に沿うようになっている。以下では、各部の配置を表す場合に、ウェアラブルグラス20を装着したユーザから見て左右どちらにあるかによって表すものとする。例えば、投影部31Lはユーザの眼よりも左側に配置され、投影部31Rはユーザの眼よりも右側に配置されている。   The light guide plate 321 is an elongated plate-shaped member. When the wearable glass 20 is worn by the user, the light guide plate 321 is positioned in front of the user's eyes, and the longitudinal direction of the light guide plate 321 is in the direction in which the user's eyes are lined up, that is, in the left-right direction for the user. Has become. In the description below, the arrangement of each unit is represented by the position on the left or right as viewed from the user wearing the wearable glass 20. For example, the projection unit 31L is arranged on the left side of the user's eye, and the projection unit 31R is arranged on the right side of the user's eye.

ミラー322Lは、導光板321内部の左側の端に設けられ、ミラー322Rは、導光板321内部の右側の端に設けられている。ミラー322Lは、投影部31Lから投射されて導光板321に入射した投影光を右側(ビームスプリッタ323Lがある側)に向けて反射する。ミラー322Rは、投影部31Rから投射されて導光板321に入射した投影光を左側(ビームスプリッタ323Rがある側)に向けて反射する。   The mirror 322L is provided at the left end inside the light guide plate 321, and the mirror 322R is provided at the right end inside the light guide plate 321. The mirror 322L reflects the projection light projected from the projection unit 31L and incident on the light guide plate 321 toward the right side (the side where the beam splitter 323L is located). The mirror 322R reflects the projection light projected from the projection unit 31R and incident on the light guide plate 321 toward the left side (the side where the beam splitter 323R is located).

図4及び以降の図では、投影光の光路を線及び矢印(投影光の進行方向を示す)を使って表す。なお、両ミラーが反射した投影光は導光板321の内部を反射しながら進むが、図を見やすくするために単純な直線で光路を表している。反射された投影光は左右共にビームスプリッタ323に到達する。ビームスプリッタ323とは、入射した光の一部を透過し一部を反射する板状の部材(ハーフミラーとも呼ばれる)である。   In FIG. 4 and subsequent figures, the optical path of the projection light is represented by lines and arrows (indicating the traveling direction of the projection light). Although the projection light reflected by both mirrors travels while reflecting inside the light guide plate 321, the optical path is represented by a simple straight line for easy viewing of the drawing. The reflected projection light reaches the beam splitter 323 on both the left and right sides. The beam splitter 323 is a plate-like member (also referred to as a half mirror) that transmits part of incident light and reflects part of the light.

ビームスプリッタ323Lは、自端末を装着したユーザの一方の眼(左眼)の視界に配置されている。ビームスプリッタ323Lは、ミラー322Lにより反射されて導光板321内を進んできた投影光を反射する反射面324Lを有し、反射面324Lの反対側に、外界からの光を透過する透過面325Lを有する。反射面324Lで反射された投影光はユーザの左眼に到達し、投影光が示す画像がユーザの左眼に映ることになる。   The beam splitter 323L is arranged in the field of view of one eye (left eye) of the user wearing the terminal. The beam splitter 323L has a reflection surface 324L that reflects the projection light that has been reflected by the mirror 322L and has traveled inside the light guide plate 321. On the opposite side of the reflection surface 324L, a transmission surface 325L that transmits light from the outside world is provided. Have. The projection light reflected by the reflection surface 324L reaches the left eye of the user, and the image indicated by the projection light is reflected on the left eye of the user.

ビームスプリッタ323Rは、自端末を装着したユーザの一方の眼(右眼)の視界に配置されている。ビームスプリッタ323Rは、ミラー322Rにより反射されて導光板321内を進んできた投影光を反射する反射面324Rを有し、反射面324Rの反対側に、外界からの光を透過する透過面325Rを有する。反射面324Rで反射された投影光はユーザの右眼に到達し、投影光が示す画像がユーザの右眼に映ることになる。   The beam splitter 323R is arranged in the field of view of one eye (right eye) of the user wearing the terminal. The beam splitter 323R has a reflection surface 324R that reflects the projection light that has been reflected by the mirror 322R and has traveled inside the light guide plate 321. The beam splitter 323R has a transmission surface 325R that transmits light from the outside on the opposite side of the reflection surface 324R. Have. The projection light reflected by the reflection surface 324R reaches the right eye of the user, and the image indicated by the projection light is reflected on the right eye of the user.

このように、反射面324L及び324Rは、投影光により示される画像が表示される面である。また、ユーザから見た場合、反射面324L及び324Rの先の背景が透過して見えるようになっている。つまり、反射面324L及び324Rは、自端末(ウェアラブルグラス20)を装着したユーザの視界に位置する透過型の表示面であり、本発明の「表示面」の一例である。以下ではこれらを区別しない場合は「表示面324」という。   Thus, the reflection surfaces 324L and 324R are surfaces on which an image indicated by the projection light is displayed. Further, when viewed from the user, the background ahead of the reflection surfaces 324L and 324R can be seen through. That is, the reflective surfaces 324L and 324R are transmissive display surfaces located in the field of view of the user wearing the terminal (wearable glass 20), and are examples of the “display surface” of the present invention. Hereinafter, when these are not distinguished, they are referred to as “display surface 324”.

フレーム40は、投影装置30を支持すると共に、自端末をユーザの頭部に固定する(装着させる)部品である。フレーム40は、例えばメガネのフレームと似た形をした金属又はプラスチック製の部品である。フレーム40には、振動装置41と、コネクタ42とが設けられている。振動装置41は、例えばモータ及び重りを有し、モータが重りを回転させることで振動を発生させる装置(「バイブレータ」とも言う)である。振動装置41は本発明の「振動部」の一例である。   The frame 40 is a component that supports the projection device 30 and fixes (attaches) the own terminal to the user's head. The frame 40 is, for example, a metal or plastic part having a shape similar to a frame of glasses. The frame 40 is provided with a vibration device 41 and a connector 42. The vibration device 41 is, for example, a device (also referred to as a “vibrator”) that includes a motor and a weight, and generates vibration when the motor rotates the weight. The vibration device 41 is an example of the “vibration unit” of the present invention.

コネクタ42は、音を出力する放音手段(例えば図中のイヤホン50)を接続するための部品である。イヤホン50は、コネクタ42を介して供給される音を示すアナログ信号を音に変換して出力する、すなわち放音する。イヤホン50は、コネクタ42に接続された状態でウェアラブルグラス20を頭部に装着したユーザの耳に届く長さのコードを有している。   The connector 42 is a component for connecting sound emitting means for outputting sound (for example, the earphone 50 in the figure). The earphone 50 converts an analog signal indicating a sound supplied via the connector 42 into a sound and outputs the sound, that is, emits a sound. The earphone 50 has a cord long enough to reach the ear of a user who wears the wearable glass 20 on the head while connected to the connector 42.

ARPCシステム1が備える各装置には、本システムで提供されるプログラムが記憶されており、各プロセッサがプログラムを実行して各部を制御することで以下に述べる機能群が実現される。
図5はARPCシステム1が実現する機能構成を表す。パソコン10は、画面データ生成部101と、移動体通信受信処理部102と、発話入力受付部103と、発話テキストデータ生成部104と、移動体通信送信処理部105とを備える。ウェアラブルグラス20は、画面表示制御部201と、データ取得部202と、受信時振動制御部203と、受話音声データ出力部204と、発話音声データ生成部205と、発話音声データ出力部206とを備える。
Each device included in the ARPC system 1 stores a program provided by the system, and a function group described below is realized by each processor executing the program and controlling each unit.
FIG. 5 shows a functional configuration realized by the ARPC system 1. The personal computer 10 includes a screen data generation unit 101, a mobile communication reception processing unit 102, an utterance input reception unit 103, an utterance text data generation unit 104, and a mobile communication transmission processing unit 105. The wearable glass 20 includes a screen display control unit 201, a data acquisition unit 202, a reception vibration control unit 203, a received voice data output unit 204, a voice voice data generation unit 205, and a voice voice data output unit 206. Prepare.

画面表示制御部201は、ユーザによる操作デバイスの操作に応じて動作する処理装置の画面を背景に重畳させて表示面324(図4に表す反射面324L及び324R)に表示させる。画面表示制御部201は本発明の「表示制御部」の一例である。画面表示制御部201は、本実施例では、パソコン10(キーボード151及びマウス152操作に応じて動作する処理装置)の画面(以下「パソコン画面」という)を表示面324に表示させる。   The screen display control unit 201 superimposes the screen of the processing device that operates in response to the operation of the operation device by the user on the display surface 324 (reflection surfaces 324L and 324R illustrated in FIG. 4). The screen display control unit 201 is an example of the “display control unit” of the present invention. In this embodiment, the screen display control unit 201 displays a screen (hereinafter, referred to as a “PC screen”) of the personal computer 10 (a processing device that operates in response to operations of the keyboard 151 and the mouse 152) on the display surface 324.

画面表示制御部201は、例えばユーザが画面を表示させる操作を行うと、パソコン10にパソコン画面を示す画面データを要求する要求データを送信する。パソコン10は、受信した要求データを画面データ生成部101に供給する。画面データ生成部101は、供給された要求データにより要求された画面データ、すなわち自装置のパソコン画面を示す画面データを生成する。   For example, when the user performs an operation for displaying a screen, the screen display control unit 201 transmits request data for requesting screen data indicating the personal computer screen to the personal computer 10. The personal computer 10 supplies the received request data to the screen data generation unit 101. The screen data generation unit 101 generates screen data requested by the supplied request data, that is, screen data indicating a personal computer screen of the own apparatus.

画面データ生成部101は、生成した画面データをウェアラブルグラス20に送信する。画面表示制御部201は、送信されてきた画面データが示すパソコン画面を表示面324に表示させる。ここまではパソコン画面の表示に関する機能について説明した。ここからは、移動体通信による通話に関する機能について説明する。   The screen data generation unit 101 transmits the generated screen data to the wearable glass 20. The screen display control unit 201 causes the display screen 324 to display the personal computer screen indicated by the transmitted screen data. So far, the functions related to the display of the personal computer screen have been described. From now on, the functions related to the call by the mobile communication will be described.

移動体通信受信処理部102は、図2に表す移動体通信装置141が行う移動体通信での音声通話における受信に関する処理(受信処理)を行う。移動体通信受信処理部102は、例えば、移動体通信装置141への着信があった場合に、発信元の電話番号及び着信があった旨を示す着信データを生成し、ウェアラブルグラス20に送信する。また、移動体通信受信処理部102は、通話が開始されると、受信した通話音声(以下「受話音声」という)を示す受話音声データを生成し、ウェアラブルグラス20に送信する。   The mobile communication reception processing unit 102 performs processing (reception processing) related to reception in voice communication in mobile communication performed by the mobile communication device 141 illustrated in FIG. For example, when there is an incoming call to the mobile communication device 141, the mobile communication reception processing unit 102 generates the caller's telephone number and incoming data indicating that there is an incoming call, and transmits it to the wearable glass 20. . When a call is started, the mobile communication reception processing unit 102 generates received voice data indicating the received voice (hereinafter, referred to as “received voice”), and transmits the generated voice data to the wearable glass 20.

ウェアラブルグラス20のデータ取得部202は、パソコン10から送信されてきたデータを取得する。データ取得部202は、着信データを取得すると、取得した着信データを画面表示制御部201及び受信時振動制御部203に供給する。画面表示制御部201は、着信データが供給された場合、すなわち、移動体通信装置141(通信手段)への着信があった場合にその着信を示す画像(着信画像)を表示面324に表示させる。   The data acquisition unit 202 of the wearable glass 20 acquires data transmitted from the personal computer 10. Upon acquiring the incoming data, the data acquiring unit 202 supplies the acquired incoming data to the screen display control unit 201 and the reception vibration control unit 203. When the incoming data is supplied, that is, when there is an incoming call to mobile communication device 141 (communication means), screen display control section 201 causes display surface 324 to display an image indicating the incoming call (an incoming image). .

図6は表示された着信画像の例を表す。図6(a)では、画面表示制御部201は、パソコン画面A1の一部として着信画像C1を表示面324(表示面324の端は透明でユーザから明確には見えないので二点鎖線で表している)に表示させている。図6(b)では、画面表示制御部201は、パソコン画面A1からはみ出させて、表示面324の端に着信画像C2を表示させている。   FIG. 6 shows an example of the displayed incoming image. In FIG. 6A, the screen display control unit 201 displays the incoming image C1 as a part of the personal computer screen A1 on the display surface 324 (the end of the display surface 324 is transparent and cannot be clearly seen by the user, so it is represented by a two-dot chain line). )). In FIG. 6B, the screen display control unit 201 displays the incoming call image C2 at the end of the display surface 324 so as to protrude from the personal computer screen A1.

なお、表示面324が十分に広ければ、画面表示制御部201は、パソコン画面A1と全く重ならないように着信画像C2を表示させてもよい。着信画像C1の場合はユーザが注目しているパソコン画面A1に表示されるので着信に気付きやすく、着信画像C2の場合はパソコン画面A1を見る際の邪魔になりにくい。また、いずれの着信画像でも、発信元の電話番号を伝えることできる。   If the display surface 324 is sufficiently wide, the screen display control unit 201 may display the incoming image C2 so as not to overlap the personal computer screen A1 at all. In the case of the incoming image C1, it is displayed on the personal computer screen A1 that the user is paying attention to, so it is easy to notice the incoming call, and in the case of the incoming image C2, it is hard to obstruct the viewing of the personal computer screen A1. Also, in any of the incoming images, the telephone number of the caller can be transmitted.

受信時振動制御部203は、着信データが供給された場合、すなわち、移動体通信装置141(通信手段)への着信があった場合に振動するよう図4に表す振動装置41を制御する。振動装置41が振動すると、これが設けられているフレーム40も振動し、その振動がユーザの頭部に伝わる。これにより、着信画像が表示されるだけの場合に比べてユーザが着信に気付きやすいようにすることができる。   The reception-time vibration control unit 203 controls the vibration device 41 shown in FIG. 4 to vibrate when incoming data is supplied, that is, when there is an incoming call to the mobile communication device 141 (communication means). When the vibration device 41 vibrates, the frame 40 provided with the vibration device also vibrates, and the vibration is transmitted to the user's head. This makes it easier for the user to notice the incoming call than when only the incoming image is displayed.

画面表示制御部201は、図6に表すように、着信画像と共に応答ボタンB1及び拒否ボタンB2を表示させている(これらのボタンも、図6(a)ではパソコン画面A1の一部として、図6(b)ではパソコン画面A1とは関係なく表示させている)。移動体通信受信処理部102は、拒否ボタンB2が操作された場合には受信処理を終了し、応答ボタンB1が操作された場合には通話を開始させて受話音声データの生成及び送信を開始する。データ取得部202は、受話音声データを取得すると、取得した受話音声データを受話音声データ出力部204に供給する。   The screen display control unit 201 displays a response button B1 and a rejection button B2 together with the incoming image as shown in FIG. 6 (these buttons are also shown as a part of the personal computer screen A1 in FIG. 6A). 6 (b), it is displayed irrespective of the personal computer screen A1). When the reject button B2 is operated, the mobile communication reception processing unit 102 ends the reception processing, and when the response button B1 is operated, starts the telephone call and starts generation and transmission of the reception voice data. . Upon acquiring the received voice data, the data acquisition unit 202 supplies the received voice data to the received voice data output unit 204.

受話音声データ出力部204は、供給された受話音声データ、すなわち、移動体通信装置141(通信手段)が受信した受話音声データを取得してその受話音声データにより示される受話音声を放音手段(本実施例では図3に表すイヤホン50)に出力する。受話音声データ出力部204は本発明の「受話出力部」の一例である。受話音声データ出力部204は、デジタルデータである受話音声データをアナログ信号に変換し、コネクタ42を介してイヤホン50に供給する。   The received voice data output unit 204 acquires the supplied received voice data, that is, the received voice data received by the mobile communication device 141 (communication means), and outputs the received voice indicated by the received voice data to the sound emitting means ( In this embodiment, the signal is output to the earphone 50 shown in FIG. The received voice data output unit 204 is an example of the “received voice output unit” of the present invention. The receiving voice data output unit 204 converts the receiving voice data, which is digital data, into an analog signal and supplies the analog signal to the earphone 50 via the connector 42.

イヤホン50は、供給されたアナログ信号が示す受話音声を放音する。これにより、ユーザは、着信した移動体通信による受話音声が聞こえるようになる。一方、ユーザからの返事は自らの声ではなく、テキストの入力で行われる。画面表示制御部201は、応答ボタンB1が操作された場合、ユーザからの発話内容(この場合は返事)を入力するための入力画面を表示させる。   The earphone 50 emits a received voice indicated by the supplied analog signal. This allows the user to hear the incoming voice of the incoming mobile communication. On the other hand, the reply from the user is made not by his own voice but by text input. When the response button B1 is operated, the screen display control unit 201 displays an input screen for inputting the utterance content (answer in this case) from the user.

図7は表示された入力画像の例を表す。画面表示制御部201は、発話内容入力画面A2として、「発話内容を入力してください。」という文字列と、入力欄D1と、確定ボタンB3とを表示させている。ユーザは、受話音声を聞くと、入力欄D1に返事を入力する操作を行う。発話入力受付部103は、発話内容入力画面における発話内容の入力を受け付ける。   FIG. 7 shows an example of the displayed input image. The screen display control unit 201 displays a character string “Please input the utterance content”, an input field D1, and an enter button B3 as the utterance content input screen A2. Upon hearing the received voice, the user performs an operation of inputting a reply in the input field D1. The utterance input receiving unit 103 receives an input of the utterance content on the utterance content input screen.

発話入力受付部103は、自装置(パソコン10)が備える操作デバイス(キーボード151及びマウス152)を用いた入力を受け付ける。なお、発話入力受付部103は、自装置がマイクロフォンを備えているか否かに関わらず、音声による入力は受け付けない。これは、音声で発話内容を発声されると、周囲の者にその内容が知られてしまうからである。   The utterance input receiving unit 103 receives an input using an operation device (a keyboard 151 and a mouse 152) included in the own device (the personal computer 10). Note that the utterance input receiving unit 103 does not receive a voice input regardless of whether or not the own device has a microphone. This is because, when the utterance content is uttered by voice, the content is known to surrounding people.

発話入力受付部103は、入力を受け付けた発話内容を発話テキストデータ生成部104に供給する。発話テキストデータ生成部104は、供給された発話内容、すなわち、操作デバイスを用いて入力された文章を示すテキストデータ(以下「発話テキストデータ」という)を生成する。発話テキストデータ生成部104は、生成した発話テキストデータをウェアラブルグラス20に送信する。   The utterance input reception unit 103 supplies the utterance content whose input has been received to the utterance text data generation unit 104. The utterance text data generation unit 104 generates the supplied utterance content, that is, text data (hereinafter, referred to as “utterance text data”) indicating a sentence input using the operation device. The utterance text data generation unit 104 transmits the generated utterance text data to the wearable glass 20.

ウェアラブルグラス20の画面表示制御部201は、送信されてきた発話テキストデータが示す発話内容を入力欄D1に表示させる。図7の例では「こんにちは。暑いですね。」という入力された発話内容が表示されている。この状態でユーザが確定ボタンB3を押す操作を行うと、画面表示制御部201は、表示させている発話内容を示す発話テキストデータを発話音声データ生成部205に供給する。   The screen display control unit 201 of the wearable glass 20 causes the utterance content indicated by the transmitted utterance text data to be displayed in the input field D1. In the example of FIG. 7 is displayed utterance content input of "Hello. It's hot.". When the user performs an operation of pressing the confirmation button B3 in this state, the screen display control unit 201 supplies the utterance text data generation unit 205 with utterance text data indicating the content of the utterance being displayed.

発話音声データ生成部205は、供給された発話テキストデータが示す発話内容、すなわち、操作デバイスを用いて入力された文章の音声を示す発話音声データを生成する。発話音声データ生成部205は本発明の「生成部」の一例である。発話音声データ生成部205は、例えば、予め記憶した音素データを組み合わせて音声データを生成するなど、周知の音声合成技術を用いて発話音声データを生成する。   The utterance voice data generation unit 205 generates utterance content indicated by the supplied utterance text data, that is, utterance voice data indicating the voice of a sentence input using the operation device. The utterance voice data generation unit 205 is an example of the “generation unit” of the present invention. The utterance voice data generation unit 205 generates utterance voice data using a well-known voice synthesis technique, for example, generating voice data by combining phoneme data stored in advance.

発話音声データ生成部205は、生成した発話音声データを発話音声データ出力部206に供給する。発話音声データ出力部206は、供給された発話音声データ、すなわち、発話音声データ生成部205により生成された発話音声データを移動体通信の発話データとして出力する。発話音声データ出力部206は本発明の「発話出力部」の一例である。   The utterance voice data generation unit 205 supplies the generated utterance voice data to the utterance voice data output unit 206. The utterance voice data output unit 206 outputs the supplied utterance voice data, that is, the utterance voice data generated by the utterance voice data generation unit 205, as the utterance data of the mobile communication. The utterance voice data output unit 206 is an example of the “utterance output unit” of the present invention.

ここでいう移動体通信の発話データとは、移動体通信において相手に伝える発話内容を示すデータのことである。本実施例では、入力は文字列(テキスト)で行われるが、音声を示す発話音声データが発話データとして出力される。発話音声データ出力部206は、この発話音声データをパソコン10に対して出力する。パソコン10は、出力されてきた発話音声データを移動体通信送信処理部105に供給する。   The utterance data of the mobile communication referred to here is data indicating the utterance content to be transmitted to the other party in the mobile communication. In this embodiment, the input is performed by a character string (text), but utterance voice data indicating voice is output as utterance data. The utterance voice data output unit 206 outputs the utterance voice data to the personal computer 10. The personal computer 10 supplies the output utterance voice data to the mobile communication transmission processing unit 105.

移動体通信送信処理部105は、図2に表す移動体通信装置141が行う移動体通信での音声通話における送信に関する処理(送信処理)を行う。移動体通信送信処理部105は、本実施例では、供給された発話音声データをそのまま通話先の移動体通信端末に向けて送信する処理を送信処理として行う。この場合、通話先の移動体通信端末は、通常の音声通話と同様に送信されてきた発話音声データが示す発話音声を放音する。   The mobile communication transmission processing unit 105 performs processing (transmission processing) related to transmission in a voice call in mobile communication performed by the mobile communication device 141 illustrated in FIG. In this embodiment, the mobile communication transmission processing unit 105 performs a process of transmitting the supplied utterance voice data as it is to the mobile communication terminal of the call destination as a transmission process. In this case, the called mobile communication terminal emits the uttered voice indicated by the uttered voice data transmitted in the same manner as a normal voice call.

パソコン10及びウェアラブルグラス20は、上記の構成に基づいて、移動体通信による通話を行う通話処理を行う。
図8は通話処理における動作手順の一例を表す。この動作手順は、例えば、ユーザがウェアラブルグラス20を装着してパソコン10の画面を表示させているときに着信が入ることを契機に開始される。
The personal computer 10 and the wearable glass 20 perform call processing for making a call by mobile communication based on the above configuration.
FIG. 8 shows an example of an operation procedure in the call processing. This operation procedure is started, for example, when a user receives a call while the wearable glass 20 is being worn and the screen of the personal computer 10 is being displayed.

まず、パソコン10(移動体通信受信処理部102)は、発信元の電話番号及び着信があった旨を示す着信データを生成し(ステップS11)、生成した着信データをウェアラブルグラス20に送信する(ステップS12)。ウェアラブルグラス20(受信時振動制御部203)は、着信データが送信されてくると、振動装置41を振動させる制御を行う(ステップS13)。   First, the personal computer 10 (mobile communication reception processing unit 102) generates incoming telephone data and incoming data indicating that there is an incoming call (step S11), and transmits the generated incoming data to the wearable glass 20 (step S11). Step S12). When the incoming data is transmitted, the wearable glass 20 (the reception-time vibration control unit 203) controls the vibration device 41 to vibrate (step S13).

次に、ウェアラブルグラス20(画面表示制御部201)は、着信を示す着信画像を表示面324に表示させる(ステップS14)。なお、ステップS13及びS14の動作は、順番が反対でもよいし、並行して行われてもよい。続いて、着信画像が表示された画面で応答操作が行われると、パソコン10はその操作を受け付ける(ステップS21)。そして、パソコン10(移動体通信受信処理部102)は、通話を開始させて受話音声データを生成し(ステップS22)、生成した受話音声データをウェアラブルグラス20に送信する(ステップS23)。   Next, wearable glass 20 (screen display control unit 201) displays an incoming call image indicating the incoming call on display surface 324 (step S14). The operations of steps S13 and S14 may be performed in the opposite order or may be performed in parallel. Subsequently, when a response operation is performed on the screen on which the incoming image is displayed, the personal computer 10 receives the operation (step S21). Then, the personal computer 10 (mobile communication reception processing unit 102) starts a telephone call to generate received voice data (step S22), and transmits the generated received voice data to the wearable glass 20 (step S23).

ウェアラブルグラス20(受話音声データ出力部204)は、送信されてきた受話音声データにより示される受話音声を放音手段(イヤホン50)に出力する(ステップS24)。次に、ウェアラブルグラス20(画面表示制御部201)は、発話内容入力画面を表示面324に表示させる(ステップS31)。パソコン10(発話入力受付部103)は、この発話内容入力画面における発話内容の入力を受け付ける(ステップS32)。   Wearable glass 20 (received voice data output unit 204) outputs the received voice indicated by the transmitted received voice data to sound emitting means (earphone 50) (step S24). Next, the wearable glass 20 (screen display control unit 201) displays an utterance content input screen on the display surface 324 (step S31). The personal computer 10 (the utterance input receiving unit 103) receives an input of the utterance content on the utterance content input screen (step S32).

次に、パソコン10(発話テキストデータ生成部104)は、入力された文章を示す発話テキストデータを生成し(ステップS33)、ウェアラブルグラス20に送信する(ステップS34)。ウェアラブルグラス20(画面表示制御部201)は、送信されてきた発話テキストデータが示す発話内容を表示面324に表示させる(ステップS35)。ウェアラブルグラス20は、発話内容入力画面で確定操作が行われるとそれを受け付ける(ステップS36)。   Next, the personal computer 10 (the utterance text data generation unit 104) generates utterance text data indicating the input sentence (Step S33) and transmits it to the wearable glass 20 (Step S34). The wearable glass 20 (screen display control unit 201) displays the utterance content indicated by the transmitted utterance text data on the display surface 324 (step S35). The wearable glass 20 receives the confirmation operation when performed on the utterance content input screen (step S36).

次に、ウェアラブルグラス20(発話音声データ生成部205)は、確定された発話内容、すなわち、操作デバイスを用いて入力された文章の音声を示す発話音声データを生成する(ステップS37)。続いて、ウェアラブルグラス20(発話音声データ出力部206)は、生成された発話音声データを移動体通信の発話データとしてパソコン10に対して出力する(ステップS38)。   Next, the wearable glass 20 (the utterance voice data generation unit 205) generates the utterance voice data indicating the determined utterance content, that is, the voice of the sentence input using the operation device (step S37). Subsequently, the wearable glass 20 (the utterance voice data output unit 206) outputs the generated utterance voice data to the personal computer 10 as the utterance data of the mobile communication (Step S38).

パソコン10(移動体通信送信処理部105)は、送信されてきた発話音声データをそのまま通話先の移動体通信端末に向けて送信する処理を送信処理(移動体通信での音声通話における送信に関する処理)として行う(ステップS39)。以降、ステップS22からS39までの動作が繰り返し行われ、ユーザが通話を終了する操作を行うと、この動作手順が終了する。   The personal computer 10 (the mobile communication transmission processing unit 105) performs a process of transmitting the transmitted uttered voice data to the mobile communication terminal of the communication destination as it is (a process related to the transmission in the voice communication in the mobile communication). ) (Step S39). Thereafter, the operations of steps S22 to S39 are repeated, and when the user performs an operation to end the call, the operation procedure ends.

本実施例では、移動体通信を行う通信手段(パソコン10の移動体通信装置141)による通話の音声がウェアラブルグラス20から出力される。また、通話の拒否又は応答の操作もウェアラブルグラス20に表示される画面を通して行われる。このように、本実施例によれば、移動体通信による通話でウェアラブル端末(ウェアラブルグラス20)を活用することができる。   In the present embodiment, the voice of the call by the communication means (the mobile communication device 141 of the personal computer 10) for performing the mobile communication is output from the wearable glass 20. The operation of rejecting or answering the call is also performed through a screen displayed on the wearable glass 20. As described above, according to the present embodiment, the wearable terminal (wearable glass 20) can be used for a call by mobile communication.

また、本実施例では、移動体通信を開始したユーザは、音声を発しなくても、パソコン10の操作デバイス(キーボード151及びマウス152)で発話内容を入力することで応答を行うことができる。これにより、周囲にいる第三者に内容を知られることなく、移動体通信での通話を行うことができる。   Further, in the present embodiment, the user who has started the mobile communication can make a response by inputting the utterance content using the operation device (the keyboard 151 and the mouse 152) of the personal computer 10 without uttering a voice. As a result, it is possible to make a call by mobile communication without the contents being known to the surrounding third parties.

[2]変形例
上述した実施例は本発明の実施の一例に過ぎず、以下のように変形させてもよい。
[2] Modifications The embodiment described above is merely an example of the embodiment of the present invention, and may be modified as follows.

[2−1]ウェアラブル端末
本発明のウェアラブル端末は、ウェアラブルグラス20に限らない。例えば光路の形成方法として図4に表す方法以外の周知の方法(例えば偏光を利用した方法等)が用いられてもよい。また、ウェアラブルグラス20はメガネ型であるが、ゴーグル型又は片メガネ型(その場合は表示面が1つになる)であってもよい。要するに、頭部装着型であってユーザの視界に位置する透過型の表示面を有するものであれば、どのようなタイプのウェアラブル端末が用いられてもよい。
[2-1] Wearable terminal The wearable terminal of the present invention is not limited to the wearable glass 20. For example, a well-known method (for example, a method using polarized light) other than the method illustrated in FIG. 4 may be used as a method of forming an optical path. Further, the wearable glass 20 is of a glasses type, but may be of a goggles type or a single glasses type (in that case, one display surface is provided). In short, any type of wearable terminal may be used as long as it is a head-mounted type and has a transmissive display surface located in the field of view of the user.

[2−2]処理装置
本発明の処理装置は、パソコン10に限らない。例えばキーボード一体型ではなく普通のデスクトップ型のパーソナルコンピュータであってもよい。また、ノートパソコン、スマートフォン又はタブレット端末のように表示面を有している処理装置が用いられてもよい。
[2-2] Processing Device The processing device of the present invention is not limited to the personal computer 10. For example, an ordinary desktop personal computer may be used instead of the integrated keyboard. Further, a processing device having a display surface such as a notebook computer, a smartphone, or a tablet terminal may be used.

その場合、処理装置本体の表示面への表示はオフにしたり、処理装置本体をカバンに入れるなどしたりすることで、第三者に処理装置本体の表示面が見られないようにすればよい。なお、ウェアラブル端末に表示される画面は処理装置の画面であればよく、パソコン画面に限る必要はない。いずれの処理装置も、ユーザによる操作デバイス(スマートフォン及びタブレット端末の場合は外付けのキーボード等)の操作に応じて動作するものであればよい。   In that case, the display on the display surface of the processing device main body may be turned off, or the processing device main body may be put in a bag or the like, so that the display surface of the processing device main body may not be seen by a third party. . The screen displayed on the wearable terminal may be a screen of the processing device, and need not be a personal computer screen. Any of the processing devices may be any device that operates in response to an operation of an operation device (an external keyboard or the like in the case of a smartphone or a tablet terminal) by a user.

[2−3]通信手段
実施例では、処理装置であるパソコン10が移動体通信での通信手段を備えていたが、これに限らない。例えば上述した他の処理装置(スマートフォン等)が通信手段を備えていてもよいし、ウェアラブル端末であるウェアラブルグラス20が備えていてもよい。いずれの装置に通信手段が備えられていたとしても、その装置とウェアラブル端末との間で移動体通信に関するデータのやり取りができるようになっていればよい。
[2-3] Communication Means In the embodiment, the personal computer 10 as the processing device is provided with the communication means for mobile communication. However, the present invention is not limited to this. For example, the other processing device (such as a smartphone) described above may include the communication unit, or the wearable glass 20 that is a wearable terminal may include the communication unit. Regardless of which device is provided with the communication means, it is sufficient that data relating to mobile communication can be exchanged between the device and the wearable terminal.

[2−4]放音手段
ウェアラブル端末が受話音声を出力する放音手段は、実施例で述べたもの(外付けのイヤホン)に限らない。例えば、ヘッドホン又はスピーカ(骨伝導スピーカ等)であってもよいし、それらがウェアラブル端末に内蔵されていてもよい。要するに、ウェアラブル端末を頭部に装着した状態のユーザが放音された音声を聞くことできるようになっていれば、どのような放音手段が用いられてもよい。ただし、情報漏洩を防ぐため、放音された通話音声が周囲の第三者に聞かれないようになっていることが望ましい。
[2-4] Sound emitting means The sound emitting means by which the wearable terminal outputs the received voice is not limited to the one described in the embodiment (an external earphone). For example, a headphone or a speaker (such as a bone conduction speaker) may be used, or they may be built in the wearable terminal. In short, any sound emitting means may be used as long as the user wearing the wearable terminal on the head can hear the emitted sound. However, in order to prevent information leakage, it is desirable that the emitted call voice is not heard by surrounding third parties.

[2−5]発話音声データの生成装置
実施例では、ウェアラブルグラス20が発話音声データを生成したが、他の装置が発話音声データを生成してもよい。
図9は本変形例で実現される機能構成を表す。図9では、図5に表す各部に加えて発話音声データ生成部106を備えるパソコン10aと、図5に表す発話音声データ生成部205及び発話音声データ出力部206に代えて発話テキストデータ出力部207を備えるウェアラブルグラス20aとが表されている。
[2-5] Utterance Voice Data Generation Device In the embodiment, the wearable glass 20 generates the utterance voice data, but another device may generate the utterance voice data.
FIG. 9 shows a functional configuration realized in this modification. In FIG. 9, a personal computer 10a including an utterance voice data generation unit 106 in addition to the units shown in FIG. And a wearable glass 20a having the same.

本変形例の画面表示制御部201は、図7に表す状態で確定ボタンB3が操作されると、表示させている発話内容を示す発話テキストデータを発話テキストデータ出力部207に供給する。発話テキストデータ出力部207は、供給された発話テキストデータ、すなわち、操作デバイスを用いて入力されて表示面324に表示された文章を示す文章データをパソコン10aに対して出力する。発話テキストデータ出力部207は本発明の「文章出力部」の一例である。   When the confirm button B3 is operated in the state shown in FIG. 7, the screen display control unit 201 of this modification supplies utterance text data indicating the content of the utterance being displayed to the utterance text data output unit 207. The utterance text data output unit 207 outputs the supplied utterance text data, that is, the sentence data indicating the text input using the operation device and displayed on the display surface 324 to the personal computer 10a. The utterance text data output unit 207 is an example of the “sentence output unit” of the present invention.

パソコン10aは、出力されてきた発話テキストデータ(文章データ)を発話音声データ生成部106に供給する。発話音声データ生成部106は、供給された発話テキストデータ、すなわち、前述した文章データからその文章(図7の例であれば「こんにちは。暑いですね。」という文章)の音声を示す発話音声データを生成する。この発話音声データの生成には、発話音声データ生成部205と同様に周知の音声合成技術が用いられる。   The personal computer 10a supplies the output utterance text data (sentence data) to the utterance voice data generation unit 106. Speech data generating unit 106, the supplied speech text data, that is, speech data indicating the voice of the sentence from the text data described above (in the example of Figure 7, "Hello. It's hot." Sentence) Generate For generating the utterance voice data, a well-known voice synthesis technique is used similarly to the utterance voice data generation unit 205.

発話音声データ生成部106は、生成した発話音声データを移動体通信送信処理部105に供給する。移動体通信送信処理部105は、実施例と同様に、供給された発話音声データをそのまま通話先の移動体通信端末に向けて送信する処理を送信処理として行う。このように発話音声に対する処理(発話音声データの生成処理及び送信処理)を行うパソコン10aは本発明の「音声処理装置」の一例である。   The utterance voice data generation unit 106 supplies the generated utterance voice data to the mobile communication transmission processing unit 105. As in the embodiment, the mobile communication transmission processing unit 105 performs processing of transmitting the supplied utterance voice data as it is to the mobile communication terminal of the call destination as transmission processing. The personal computer 10a that performs the processing on the uttered voice (the processing of generating and transmitting the uttered voice data) is an example of the “voice processing device” of the present invention.

本変形例では、上記のとおり発話音声データの生成処理をウェアラブル端末ではなく処理装置(パソコン10a)で行っている。一般に、ウェアラブル端末は軽量且つ薄型に作られるため、情報処理装置としての処理能力は、通常のパソコン等に比べて低く抑えられている。本変形例では、処理能力がウェアラブル端末に比べて高い処理装置の方で発話音声データの生成処理を行うことで、ウェアラブル端末でこの処理を行う場合に比べて、発話音声をより高品質にすることができ、また、発話音声に対する処理によるタイムラグを少なくすることができる。   In this modification, as described above, the generation processing of the uttered voice data is performed not by the wearable terminal but by the processing device (the personal computer 10a). In general, since a wearable terminal is made light and thin, the processing capability as an information processing device is suppressed lower than that of a normal personal computer or the like. In this modification, the processing device having a higher processing capability than the wearable terminal performs the generation processing of the utterance voice data, thereby improving the quality of the utterance voice as compared with the case where this processing is performed in the wearable terminal. In addition, the time lag due to the processing on the uttered voice can be reduced.

なお、前述した音声処理装置は、ウェアラブル端末に画面が表示される処理装置でなくてもよく、外部のサーバ装置であってもよいし、ユーザが所持するスマートフォン等の処理装置以外の装置であってもよい。それらの場合でも、音声処理装置がウェアラブル端末よりも処理能力が高ければ、前述した本変形例の効果を得ることができる。   Note that the above-described audio processing device need not be a processing device that displays a screen on a wearable terminal, may be an external server device, or may be a device other than a processing device such as a smartphone owned by a user. You may. Even in those cases, if the voice processing device has a higher processing capability than the wearable terminal, the effect of the above-described modification can be obtained.

[2−6]音声以外での通話
上記の各例では、ユーザ自身は声を発しないものの、ウェアラブル端末等が生成した発話音声データによって通話がなされたが、これに限らない。
図10は本変形例で実現される機能構成を表す。図10では、図5に表す移動体通信送信処理部105を除いた各部を備えるパソコン10bが表されている。
[2-6] Calls other than voice In each of the above examples, although the user himself does not make a voice, a call was made using uttered voice data generated by a wearable terminal or the like, but the present invention is not limited to this.
FIG. 10 shows a functional configuration realized in the present modification. FIG. 10 illustrates a personal computer 10b including each unit except for the mobile communication transmission processing unit 105 illustrated in FIG.

また、図10では、図5に表す発話音声データ生成部205及び発話音声データ出力部206に代えて発信元ユーザ特定部208及びサービス処理部209を備えるウェアラブルグラス20bが表されている。本変形例では、データ取得部202が、取得した着信データを発信元ユーザ特定部208に供給する。発信元ユーザ特定部208は、移動体通信装置141(通信手段)が受け取った着信の発信元のユーザを特定する。発信元ユーザ特定部208は本発明の「特定部」の一例である。   Also, FIG. 10 illustrates a wearable glass 20b including a transmission source user specifying unit 208 and a service processing unit 209 instead of the utterance voice data generation unit 205 and the utterance voice data output unit 206 illustrated in FIG. In the present modification, the data acquisition unit 202 supplies the acquired incoming data to the transmission source user identification unit 208. The origin user identification unit 208 identifies the origin user of the incoming call received by the mobile communication device 141 (communication means). The source user identification unit 208 is an example of the “identification unit” of the present invention.

発信元ユーザ特定部208は、例えば、自装置(ウェアラブルグラス20b)のユーザによって予め登録されている発信元の電話番号とユーザとを対応付けたユーザテーブルを用いて、発信元のユーザを特定する。なお、発信元ユーザ特定部208は、ユーザテーブルのような情報を有する外部装置に問い合わせて発信元のユーザを特定してもよい。発信元ユーザ特定部208は、特定したユーザを識別する識別情報をサービス処理部209に供給する。   The caller user specifying unit 208 specifies the caller user using, for example, a user table in which the caller's telephone number registered in advance by the user of the own device (the wearable glass 20b) is associated with the user. . The source user specifying unit 208 may specify the source user by inquiring of an external device having information such as a user table. The source user specifying unit 208 supplies the service processing unit 209 with identification information for identifying the specified user.

サービス処理部209は、供給された識別情報が示すユーザ、すなわち、発信元ユーザ特定部208により特定されたユーザが利用しているリアルタイムコミュニケーションサービス(RTCS:Real Time Communication Service)に関する処理(以下「サービス処理」という)を行う。リアルタイムコミュニケーションサービス(RTCS)とは、データ通信回線を利用してリアルタイムにコミュニケーションをとることができるサービスのことであり、「チャット」などと呼ばれることもある。   The service processing unit 209 performs a process (hereinafter, “service”) related to a real-time communication service (RTCS) used by the user indicated by the supplied identification information, that is, the user specified by the source user specifying unit 208. Processing). The real-time communication service (RTCS) is a service that enables real-time communication using a data communication line, and is sometimes called “chat” or the like.

RTCSでやり取りされる情報は、主にテキストデータであるが、他にも画像及び動画等がやり取りされてもよい。ただし、音声のやり取りは除くものとする。サービス処理部209は、例えば、RTCSで登録されている上記ユーザ(発信元ユーザ特定部208により特定されたユーザ)の宛先に接続を要求する処理をサービス処理として行う。サービス処理部209は本発明の「要求部」の一例である。   The information exchanged by the RTCS is mainly text data, but other images and moving images may be exchanged. However, voice exchange is excluded. The service processing unit 209 performs, for example, a process of requesting a connection to a destination of the user (user specified by the transmission source user specifying unit 208) registered in the RTCS as a service process. The service processing unit 209 is an example of the “request unit” of the present invention.

サービス処理部209は、例えば、自装置のユーザによって予め登録されている他のユーザが利用しているRTCSとそのRTCSで用いられているユーザIDとを対応付けたサービステーブルを用いて、供給された識別情報が示すユーザに対応付けられているRTCS及びユーザIDを特定する。このユーザIDは、前述した「RTCSで登録されているユーザの宛先」の一例である。   The service processing unit 209 is supplied using, for example, a service table in which an RTCS used by another user registered in advance by the user of the own device and a user ID used in the RTCS are associated with each other. The RTCS and the user ID associated with the user indicated by the identified identification information are specified. This user ID is an example of the “address of the user registered in the RTCS” described above.

ウェアラブルグラス20bは、主要なRTCSを利用するためのプログラム(ブラウザプログラム又はアプリケーションプログラム)を記憶しているものとする。サービス処理部209は、特定したRTCSを利用するためのプログラムを起動して、特定したユーザIDへの接続を要求する処理を行う。具体的には、サービス処理部209は、例えば、起動したRTCSの画面でそのユーザIDを検索する検索処理を接続を要求する処理として行う。   The wearable glass 20b stores a program (browser program or application program) for using the main RTCS. The service processing unit 209 starts a program for using the specified RTCS, and performs a process of requesting a connection to the specified user ID. Specifically, the service processing unit 209 performs, for example, a search process for searching for the user ID on the activated RTCS screen as a process for requesting a connection.

また、サービス処理部209は、検索して見つかったユーザIDのユーザとのチャット開始を要求する要求処理を、接続を要求する処理として行う。なお、これらの処理(検索処理及び要求処理)は一例であり、これ以外にも、利用するRTCSにおいてユーザとのやり取りを開始する際に通常行われる処理が接続を要求する処理として行われればよい。RTCSのプログラムが起動されると、画面表示制御部201が、該当するRTCSの画面を表示面324に表示させる。   Further, the service processing unit 209 performs a request process of requesting a chat start with a user of a user ID found by the search as a process of requesting a connection. Note that these processes (search process and request process) are merely examples, and in addition to this, a process that is normally performed when starting exchange with a user in the RTCS to be used may be performed as a process for requesting a connection. . When the RTCS program is started, the screen display control unit 201 causes the display screen 324 to display the corresponding RTCS screen.

図11は表示されたRTCS画面の一例を表す。図11(a)では、ウェアラブルグラス20bの表示面324に表示されチャット相手検索画面A3が表されている。チャット相手検索画面A3には、検索キーの入力欄D2及び検索結果E1(つまり検索処理の結果)が表示されている。サービス処理部209がこの検索結果E1を選択する処理を前述した要求処理として行うと、画面表示制御部201は、検索されたユーザ(この例では「ユーザA」)とのチャット画面A4を図11(b)に表すように表示させる。   FIG. 11 shows an example of the displayed RTCS screen. FIG. 11A shows a chat partner search screen A3 displayed on the display surface 324 of the wearable glass 20b. The chat partner search screen A3 displays a search key input field D2 and a search result E1 (that is, a search processing result). When the service processing unit 209 performs the process of selecting the search result E1 as the above-described request process, the screen display control unit 201 displays the chat screen A4 with the searched user (“User A” in this example) in FIG. It is displayed as shown in (b).

チャット画面A4には、発話内容の入力欄D3が表示されている。ユーザが入力欄D3に発話内容を入力すると、発話入力受付部103がこの入力欄D2への発話内容の入力を受け付ける。そしてユーザが確定ボタンを押す操作を行うと、発話テキストデータ生成部104が入力された文章を示す発話テキストデータを生成し、生成した発話テキストデータを画面表示制御部201に供給する。   On the chat screen A4, an input field D3 of the utterance content is displayed. When the user inputs the utterance content in the input field D3, the utterance input receiving unit 103 receives the input of the utterance content in the input field D2. Then, when the user performs an operation of pressing the confirm button, the utterance text data generation unit 104 generates utterance text data indicating the input text, and supplies the generated utterance text data to the screen display control unit 201.

画面表示制御部201は、供給された発話テキストデータが示す発話内容である「こんにちは。暑いですね!」という文字列を含む吹き出し画像E2を図11(c)に表すように表示させる。発話テキストデータ生成部104は、生成した発話テキストデータをサービス処理部209にも供給する。サービス処理部209は、供給された発話テキストデータを、上記のとおり特定されたユーザAの宛先(RTCSで登録されている宛先)に送信する。   Screen display control unit 201 displays a speech content indicated by the supplied speech text data "Hello. It's hot!" The balloon image E2 contains the string as represented in FIG. 11 (c). The utterance text data generation unit 104 also supplies the generated utterance text data to the service processing unit 209. The service processing unit 209 transmits the supplied utterance text data to the destination of the user A specified as described above (the destination registered in the RTCS).

送信された発話テキストデータが示す発話内容は、ユーザAが利用する端末の表示手段に表示される。図11(d)では、こうして表示されたチャット画面A5が表されている。チャット画面A5には、チャット相手であるユーザ(この例では「ユーザB」)を示すアバターE3と、ユーザBの発話内容である「こんにちは。暑いですね!」という文字列を含む吹き出し画像E4とが表示されている。   The utterance content indicated by the transmitted utterance text data is displayed on the display means of the terminal used by the user A. FIG. 11D shows the chat screen A5 thus displayed. The chat screen A5, (in this example "user B"), a user who is a chat partner and the avatar E3 that shows, is the contents of the user's utterance B, "Hello. It's hot!" And balloon image E4 contain the string Is displayed.

また、チャット画面A5はチャット用の画面なので、チャット画面A4と同じく発話内容の入力欄D4が表示されている。ユーザAは、例えばこの入力欄D4に発話内容を入力してチャットで会話を続ければよい。この場合、移動体通信での接続は終了させてもよい。また、ユーザAは、入力欄D4への入力は行わずに、接続されている移動体通信での音声による会話を続けてもよい。その場合、ユーザBはユーザAの音声を聞きながら、自分は入力欄D3に発話内容を入力しながら会話することになる。   Further, since the chat screen A5 is a screen for chatting, an input field D4 of the utterance content is displayed like the chat screen A4. The user A may, for example, enter the utterance content in the input field D4 and continue the conversation by chat. In this case, the connection in the mobile communication may be terminated. Alternatively, the user A may continue the voice conversation in the connected mobile communication without performing the input in the input field D4. In this case, while listening to the voice of the user A, the user B has a conversation while inputting the utterance content in the input field D3.

いずれの場合も、ユーザBが自分の発話内容を音声で述べることはないし、表示された吹き出し画像E2もユーザBしか見ることができないウェアラブルグラス20bの表示面324に表示されるので、ユーザBの発話内容が周囲の第三者に知られるおそれをなくすことができる。また、ユーザAの音声もイヤホン50からユーザBにだけ聞こえるので、ユーザAの発話内容が第三者に知られるおそれもない。また、上記のとおりユーザAとのチャットの接続が自動的に行われるので、RTCSを利用した会話を円滑に開始することができる。   In any case, the user B does not state his or her utterance content by voice, and the displayed balloon image E2 is also displayed on the display surface 324 of the wearable glass 20b that can be viewed only by the user B. It is possible to eliminate the possibility that the utterance content is known to surrounding third parties. In addition, since the voice of the user A can be heard only from the earphone 50 to the user B, there is no possibility that the utterance content of the user A is known to a third party. In addition, since the chat connection with the user A is automatically performed as described above, the conversation using the RTCS can be started smoothly.

なお、上記の例ではウェアラブルグラス20bがRTCSを利用するためのプログラムを実行したが、これに限らず、パソコン10bがこのプログラムを実行してもよい。その場合、パソコン10bでもサービス処理部209に相当する機能が実現され、サービス処理部209は、そのパソコン10b側の機能を介して接続を要求する処理を行えばよい。   In the above example, the wearable glass 20b executes the program for using the RTCS. However, the present invention is not limited to this, and the personal computer 10b may execute this program. In this case, a function corresponding to the service processing unit 209 is also realized in the personal computer 10b, and the service processing unit 209 may perform a process of requesting a connection via the function of the personal computer 10b.

[2−7]着信の通知方法
実施例では、着信があると振動及び着信画像の両方でユーザへの通知が行われたが、これに限らず、例えばいずれか一方だけが行われてもよい。また、その際に、どちらの通知を行うかを状況に応じて異ならせてもよい。
[2-7] Notification Method of Incoming Call In the embodiment, when there is an incoming call, the user is notified of both the vibration and the incoming call image. . In this case, which notification is to be performed may be made different depending on the situation.

本変形例では、画面表示制御部201が、着信データが供給されたとき、すなわち、移動体通信装置141(通信手段)への着信があったときに、表示面324に表示させている画面の重要度を判定する。画面表示制御部201は、例えば表示させているパソコン画面において起動されているプログラムの種類に応じて重要度を判定する。画面表示制御部201は、例えばプログラムの種類と重要度とを対応付けた重要度テーブルを用いて判定を行う。   In this modification, when the incoming data is supplied, that is, when there is an incoming call to the mobile communication device 141 (communication means), the screen display control unit 201 displays the screen displayed on the display surface 324. Determine importance. The screen display control unit 201 determines the degree of importance in accordance with, for example, the type of the program activated on the displayed personal computer screen. The screen display control unit 201 makes a determination using, for example, an importance table in which types of programs are associated with importance.

図12は重要度テーブルの一例を表す。図12の例では、「ファイル閲覧用、メール閲覧用」の重要度が「低」、「文書作成用」の重要度が「中」、「業務用、動画再生用」の重要度が「高」と対応付けられている。画面表示制御部201は、着信時に起動されているプログラムの種類に重要度テーブルにおいて対応付けられている重要度を、画面の重要度として判定する。   FIG. 12 shows an example of the importance table. In the example of FIG. 12, the importance of “for file browsing and mail browsing” is “low”, the importance of “document creation” is “medium”, and the importance of “business and video playback” is “high”. ]. The screen display control unit 201 determines the importance associated with the type of the program activated at the time of the incoming call in the importance table as the importance of the screen.

画面表示制御部201は、例えば、「低」という重要度を判定した場合は、実施例で述べた着信画像を表示させ、「中」及び「高」という重要度を判定した場合は、着信画像を表示させずに、判定結果を受信時振動制御部203に通知する。受信時振動制御部203は、この通知を受け取ると、実施例と同様に振動装置41を制御して振動させる。このように、本変形例では、判定された重要度が所定の基準(この場合は「中」)以上である場合に、振動装置41は振動し、画面表示制御部201は着信画像を表示させないように動作している。   The screen display control unit 201 displays, for example, the incoming image described in the embodiment when the importance of “low” is determined, and displays the incoming image when the importance of “medium” and “high” is determined. Is displayed, and the determination result is notified to the reception-time vibration control unit 203. Upon receiving this notification, the reception-time vibration control unit 203 controls the vibration device 41 to vibrate, as in the embodiment. As described above, in the present modification, when the determined importance is equal to or higher than the predetermined reference (in this case, “medium”), the vibration device 41 vibrates, and the screen display control unit 201 does not display the incoming image. Is working like that.

着信画像が表示されると、図6に表すように、着信画像が重なってパソコン画面に表示されている情報の一部が見えなくなることがある。本変形例では、上記のとおり着信画像の表示を制御することで、重要度が高い画面が表示されている場合には着信画像が邪魔にならないようにしつつ、着信画像が表示されなくても振動によって着信に気付かせるようにしている。   When the incoming image is displayed, as shown in FIG. 6, the incoming image may overlap and part of the information displayed on the personal computer screen may not be visible. In the present modified example, by controlling the display of the incoming image as described above, while the screen with high importance is displayed, the incoming image is not disturbed, and the vibration even if the incoming image is not displayed. The caller is made aware of the incoming call.

なお、図12に表す重要度はあくまで一例であり、これに限らない。例えばユーザの要望に基づいてこれとは異なる重要度が決められてもよいし、ユーザが重要度を設定できるようにしてもよい。また、重要度が所定の基準未満の重要度が判定された場合は上記のとおり着信画像が表示されるが、振動装置41については合わせて振動させてもよいし、振動させなくてもよい。本変形例では、判定された重要度が少なくとも所定の基準以上である場合に振動装置41が振動するようになっていればよい。   The importance shown in FIG. 12 is merely an example, and the present invention is not limited to this. For example, a different importance may be determined based on a user's request, or the user may be able to set the importance. When the importance is determined to be less than the predetermined reference, the incoming image is displayed as described above, but the vibration device 41 may be vibrated together or not. In the present modification, the vibration device 41 may vibrate when the determined importance is at least equal to or higher than a predetermined reference.

なお、着信の通知方法はこれに限らない。例えば、着信があったときの操作デバイスへの操作頻度によって通知方法が異なっていてもよい。この場合、例えば画面表示制御部201が、着信データが供給されたとき、すなわち、移動体通信装置141(通信手段)への着信があったときの操作デバイス(キーボード151及びマウス152)への操作頻度を算出する。   The method of notifying the incoming call is not limited to this. For example, the notification method may differ depending on the operation frequency to the operation device when there is an incoming call. In this case, for example, the screen display control unit 201 operates the operation device (keyboard 151 and mouse 152) when incoming data is supplied, that is, when there is an incoming call to the mobile communication device 141 (communication means). Calculate the frequency.

画面表示制御部201は、例えば、操作デバイスへの操作が行われた場合の操作時刻を記憶しておき、着信データが供給された場合に、その時刻以前の単位期間(例えば10秒等)に記憶した操作時刻の数を操作頻度として算出する。画面表示制御部201は、予め定められた閾値未満の操作頻度を算出した場合は着信画像を表示させ、その閾値以上の操作頻度を算出した場合は着信画像を表示させずに、算出結果を受信時振動制御部203に通知する。   The screen display control unit 201 stores, for example, an operation time when an operation is performed on the operation device, and when incoming data is supplied, the operation time is set to a unit period (for example, 10 seconds) before the time. The number of stored operation times is calculated as the operation frequency. The screen display control unit 201 displays the incoming image when the operation frequency less than the predetermined threshold is calculated, and receives the calculation result without displaying the incoming image when the operation frequency is higher than the threshold. The time vibration control unit 203 is notified.

受信時振動制御部203は、この通知を受け取ると、実施例と同様に振動装置41を制御して振動させる。このように、本変形例では、算出された操作頻度が閾値以上である場合に、振動装置41は振動し、画面表示制御部201は着信画像を表示させないように動作する。   Upon receiving this notification, the reception-time vibration control unit 203 controls the vibration device 41 to vibrate, as in the embodiment. As described above, in the present modification, when the calculated operation frequency is equal to or greater than the threshold, the vibration device 41 vibrates, and the screen display control unit 201 operates so as not to display the incoming image.

ユーザが忙しく操作を行っている状況では、操作が少ない状況に比べて画面を見ることに集中していることが多い。本変形例では、そのようにユーザが忙しく操作を行っている状況では着信画像が邪魔にならないようにしつつ、着信画像が表示されなくても振動によって着信に気付かせるようにしている。   In a situation where the user is busy performing an operation, the user often concentrates on looking at the screen as compared with a situation where the operation is few. In the present modification, the incoming image is not disturbed in such a situation where the user is busy operating, and the incoming call is noticed by vibration even if the incoming image is not displayed.

[2−8]各部を実現する装置
図5等に表す各機能を実現する装置は、それらの図に表された装置に限らない。例えばパソコン10が備える発話テキストデータ生成部104をウェアラブルグラス20又は他の外部装置が実現してもよい。また、1つの機能が行う動作を2以上の機能で分担して行ってもよい。例えば画面表示制御部201が行うパソコン画面の表示制御と着信画像の表示制御を別々の機能が分担して行ってもよい。要するに、ARPCシステム全体としてこれらの機能が実現されていればよい。
[2-8] Apparatus for Realizing Each Unit The apparatus for realizing each function illustrated in FIG. 5 and the like is not limited to the apparatuses illustrated in those drawings. For example, the utterance text data generation unit 104 included in the personal computer 10 may be realized by the wearable glass 20 or another external device. Further, the operation performed by one function may be shared by two or more functions. For example, the display control of the personal computer screen and the display control of the incoming image performed by the screen display control unit 201 may be shared by different functions. In short, it is sufficient that these functions are realized as the entire ARPC system.

[2−9]発明のカテゴリ
本発明は、パソコンのような処理装置及びウェアラブルグラスのようなウェアラブル端末の他、それらの装置を備えるARPCシステムのような表示システムとしても捉えられる。また、本発明は、各装置が実施する処理を実現するための情報処理方法としても捉えられるし、各装置を制御するコンピュータを機能させるためのプログラムとしても捉えられる。このプログラムは、それを記憶させた光ディスク等の記録媒体の形態で提供されてもよいし、インターネット等のネットワークを介してコンピュータにダウンロードさせ、それをインストールして利用可能にするなどの形態で提供されてもよい。
[2-9] Category of the Invention The present invention can be regarded as a processing system such as a personal computer and a wearable terminal such as a wearable glass, as well as a display system such as an ARPC system including such a device. Further, the present invention can be regarded as an information processing method for realizing the processing performed by each device, and also as a program for causing a computer that controls each device to function. This program may be provided in the form of a recording medium such as an optical disk in which the program is stored, or provided in a form in which the program is downloaded to a computer via a network such as the Internet and installed and made available. May be done.

[2−10]処理手順等
本明細書で説明した各実施例の処理手順、シーケンス、フローチャートなどは、矛盾がない限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
[2-10] Processing Procedures, Etc. The processing procedures, sequences, flowcharts, and the like of the embodiments described in this specification may be interchanged as long as there is no inconsistency. For example, the methods described herein present elements of various steps in a sample order, and are not limited to the specific order presented.

[2−11]入出力された情報等の扱い
入出力された情報等は特定の場所(例えばメモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
[2-11] Handling of Input / Output Information, etc. Input / output information, etc., may be stored in a specific location (for example, a memory) or may be managed in a management table. Information that is input and output can be overwritten, updated, or added. The output information or the like may be deleted. The input information or the like may be transmitted to another device.

[2−12]ソフトウェア
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
[2-12] Software Software is called an instruction, an instruction set, a code, a code segment, a program code, or a program, regardless of whether it is called software, firmware, middleware, microcode, a hardware description language, or another name. , Subprograms, software modules, applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。   In addition, software, instructions, and the like may be transmitted and received via a transmission medium. For example, if the software uses a wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or a wireless technology such as infrared, wireless and microwave, the website, server, or other When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission medium.

[2−13]情報、信号
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
[2-13] Information, Signals The information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc., that can be referred to throughout the above description are not limited to voltages, currents, electromagnetic waves, magnetic or magnetic particles, optical or photons, or any of these. May be represented by a combination of

[2−14]システム、ネットワーク
本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
[2-14] System, Network As used herein, the terms “system” and “network” are used interchangeably.

[2−15]「に基づいて」の意味
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
[2-15] Meaning of “based on” As used herein, the term “based on” does not mean “based on” unless otherwise specified. In other words, the phrase "based on" means both "based only on" and "based at least on."

[2−16]「及び」、「又は」
本明細書において、「A及びB」でも「A又はB」でも実施可能な構成については、一方の表現で記載された構成を、他方の表現で記載された構成として用いてもよい。例えば「A及びB」と記載されている場合、他の記載との不整合が生じず実施可能であれば、「A又はB」として用いてもよい。
[2-16] "and", "or"
In this specification, as for a configuration that can be implemented by “A and B” or “A or B”, the configuration described in one expression may be used as the configuration described in the other expression. For example, when "A and B" are described, they may be used as "A or B" if they can be implemented without inconsistency with other descriptions.

[2−17]態様のバリエーション等
本明細書で説明した各実施例は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
[2-17] Variation of Aspects Each of the embodiments described in this specification may be used alone, in combination, or may be switched with execution. Further, the notification of the predetermined information (for example, the notification of “X”) is not limited to being explicitly performed, and is performed implicitly (for example, not performing the notification of the predetermined information). Is also good.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施例に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。従って、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。   Although the present invention has been described in detail, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described in this specification. The present invention can be embodied as modified and changed aspects without departing from the spirit and scope of the present invention defined by the description of the claims. Therefore, the description in this specification is for the purpose of illustration and description, and does not have any restrictive meaning to the present invention.

1…ARPCシステム、10…パソコン、20…ウェアラブルグラス、30…投影装置、40…フレーム、41…振動装置、42…コネクタ、50…イヤホン、101…画面データ生成部、102…移動体通信受信処理部、103…発話入力受付部、104…発話テキストデータ生成部、105…移動体通信送信処理部、106…発話音声データ生成部、141…移動体通信装置、151…キーボード、152…マウス、201…画面表示制御部、202…データ取得部、203…受信時振動制御部、204…受話音声データ出力部、205…発話音声データ生成部、206…発話音声データ出力部、207…発話テキストデータ出力部、208…発信元ユーザ特定部、209…サービス処理部、324…表示面。 DESCRIPTION OF SYMBOLS 1 ... ARPC system, 10 ... Personal computer, 20 ... Wearable glass, 30 ... Projection device, 40 ... Frame, 41 ... Vibration device, 42 ... Connector, 50 ... Earphone, 101 ... Screen data generation part, 102 ... Mobile communication reception processing Unit, 103: utterance input reception unit, 104: utterance text data generation unit, 105: mobile communication transmission processing unit, 106: utterance voice data generation unit, 141: mobile communication device, 151: keyboard, 152: mouse, 201 ... Screen display control unit, 202 ... Data acquisition unit, 203 ... Reception vibration control unit, 204 ... Reception voice data output unit, 205 ... Utterance voice data generation unit, 206 ... Utterance voice data output unit, 207 ... Utterance text data output Unit, 208: source user identification unit, 209, service processing unit, 324, display surface.

Claims (9)

頭部装着型のウェアラブル端末であって、
自端末を装着したユーザの視界に位置する透過型の表示面と、
前記ユーザによる操作デバイスの操作に応じて動作する処理装置の画面を背景に重畳させて前記表示面に表示させる表示制御部と、
移動体通信を行う通信手段が受信した音声データを取得して当該音声データにより示される受話音声を放音手段に出力する受話出力部と
を備えるウェアラブル端末。
A head-mounted wearable terminal,
A transmissive display surface located in the field of view of the user wearing the terminal,
A display control unit that superimposes a screen of a processing device that operates in accordance with an operation of the operation device by the user and displays the screen on the display surface,
A receiving unit that acquires voice data received by a communication unit that performs mobile communication and outputs a received voice indicated by the voice data to a sound emitting unit.
前記操作デバイスを用いて入力されて前記表示面に表示された文章の音声を示す音声データを生成する生成部と、
生成された前記音声データを移動体通信の発話データとして出力する発話出力部とを備える
請求項1に記載のウェアラブル端末。
A generation unit that generates voice data indicating voice of a sentence displayed on the display surface that is input using the operation device;
The wearable terminal according to claim 1, further comprising: an utterance output unit configured to output the generated voice data as utterance data of mobile communication.
前記操作デバイスを用いて入力されて前記表示面に表示された文章を示す文章データを、当該文章データから当該文章の音声を示す音声データを生成して当該音声データを移動体通信の発話データとして送信する音声処理装置に対して出力する文章出力部を備える
請求項1又は2に記載のウェアラブル端末。
Sentence data indicating a sentence displayed on the display surface as input using the operation device, generating audio data indicating the voice of the sentence from the sentence data, and using the audio data as speech data for mobile communication. The wearable terminal according to claim 1, further comprising a text output unit that outputs the sentence to a voice processing device that transmits the sentence.
前記通信手段が受け取った着信の発信元のユーザを特定する特定部と、
特定された前記ユーザが利用しているリアルタイムコミュニケーションサービスで登録されている当該ユーザの宛先に接続を要求する要求部とを備える
請求項1から3のいずれか1項に記載のウェアラブル端末。
A specifying unit that specifies a user of a source of an incoming call received by the communication unit,
The wearable terminal according to any one of claims 1 to 3, further comprising: a request unit that requests connection to a destination of the user registered in the real-time communication service used by the specified user.
前記通信手段への着信があった場合に振動する振動部を備える
請求項1から4のいずれか1項に記載のウェアラブル端末。
The wearable terminal according to any one of claims 1 to 4, further comprising a vibration unit that vibrates when there is an incoming call to the communication unit.
前記表示制御部は、前記通信手段への着信があった場合に当該着信を示す画像を前記表示面に表示させる
請求項5に記載のウェアラブル端末。
The wearable terminal according to claim 5, wherein the display control unit causes an image indicating the incoming call to be displayed on the display surface when the incoming call to the communication unit is received.
前記表示制御部は、前記通信手段への着信があったときに前記表示面に表示されている画面の重要度が所定の基準以上である場合には前記画像を表示させず、
前記振動部は、前記重要度が少なくとも前記基準以上である場合に振動する
請求項6に記載のウェアラブル端末。
The display control unit does not display the image when the importance of the screen displayed on the display surface is equal to or more than a predetermined reference when there is an incoming call to the communication unit,
The wearable terminal according to claim 6, wherein the vibration unit vibrates when the importance is at least equal to or higher than the reference.
前記通信手段への着信があったときの前記操作デバイスへの操作頻度が閾値以上である場合に前記画像を表示させず、
前記振動部は、前記操作頻度が少なくとも前記閾値以上である場合に振動する
請求項6又は7に記載のウェアラブル端末。
Do not display the image when the operation frequency to the operation device when there is an incoming call to the communication means is a threshold or more,
The wearable terminal according to claim 6, wherein the vibration unit vibrates when the operation frequency is at least equal to or greater than the threshold.
請求項1から8のいずれか1項に記載のウェアラブル端末と、
前記ウェアラブル端末を装着したユーザによって操作される操作デバイスと、
前記操作デバイスへの操作に応じて動作し、自装置の画面が前記ウェアラブル端末に表示される処理装置と
を備える表示システム。
A wearable terminal according to any one of claims 1 to 8,
An operation device operated by a user wearing the wearable terminal;
A processing device that operates in response to an operation on the operation device and displays a screen of the device on the wearable terminal.
JP2018159349A 2018-08-28 2018-08-28 Wearable terminal and display system Active JP7065730B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018159349A JP7065730B2 (en) 2018-08-28 2018-08-28 Wearable terminal and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018159349A JP7065730B2 (en) 2018-08-28 2018-08-28 Wearable terminal and display system

Publications (2)

Publication Number Publication Date
JP2020036123A true JP2020036123A (en) 2020-03-05
JP7065730B2 JP7065730B2 (en) 2022-05-12

Family

ID=69668740

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018159349A Active JP7065730B2 (en) 2018-08-28 2018-08-28 Wearable terminal and display system

Country Status (1)

Country Link
JP (1) JP7065730B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008691A (en) * 2001-06-26 2003-01-10 Toshiba Corp Interactive transmission/reception method and system, and interactive transmission/reception terminal device
JP2005223889A (en) * 2004-01-09 2005-08-18 Seiko Epson Corp Notification apparatus, its control method, control program and recording medium
US20090099836A1 (en) * 2007-07-31 2009-04-16 Kopin Corporation Mobile wireless display providing speech to speech translation and avatar simulating human attributes
JP3165585U (en) * 2010-11-11 2011-01-27 有限会社オフィス結アジア Speech synthesizer
JP2011061814A (en) * 2010-10-08 2011-03-24 Nokia Corp Method and device for inhibiting interruption of running application due to event
JP2011139258A (en) * 2009-12-28 2011-07-14 Panasonic Corp Portable terminal
US20150312409A1 (en) * 2014-04-23 2015-10-29 Samsung Electronics Co., Ltd. Devices and methods of providing response message in the devices
JP2015222891A (en) * 2014-05-23 2015-12-10 セイコーエプソン株式会社 Head-mounted display device, head-mounted display device control method, computer program, image display system, and information processing device
KR20160016216A (en) * 2014-08-04 2016-02-15 넥시스 주식회사 System and method for real-time forward-looking by wearable glass device
US20170031556A1 (en) * 2015-07-29 2017-02-02 Lg Electronics Inc. Watch-type mobile terminal and method for controlling the same

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008691A (en) * 2001-06-26 2003-01-10 Toshiba Corp Interactive transmission/reception method and system, and interactive transmission/reception terminal device
JP2005223889A (en) * 2004-01-09 2005-08-18 Seiko Epson Corp Notification apparatus, its control method, control program and recording medium
US20090099836A1 (en) * 2007-07-31 2009-04-16 Kopin Corporation Mobile wireless display providing speech to speech translation and avatar simulating human attributes
JP2011139258A (en) * 2009-12-28 2011-07-14 Panasonic Corp Portable terminal
JP2011061814A (en) * 2010-10-08 2011-03-24 Nokia Corp Method and device for inhibiting interruption of running application due to event
JP3165585U (en) * 2010-11-11 2011-01-27 有限会社オフィス結アジア Speech synthesizer
US20150312409A1 (en) * 2014-04-23 2015-10-29 Samsung Electronics Co., Ltd. Devices and methods of providing response message in the devices
JP2015222891A (en) * 2014-05-23 2015-12-10 セイコーエプソン株式会社 Head-mounted display device, head-mounted display device control method, computer program, image display system, and information processing device
KR20160016216A (en) * 2014-08-04 2016-02-15 넥시스 주식회사 System and method for real-time forward-looking by wearable glass device
US20170031556A1 (en) * 2015-07-29 2017-02-02 Lg Electronics Inc. Watch-type mobile terminal and method for controlling the same

Also Published As

Publication number Publication date
JP7065730B2 (en) 2022-05-12

Similar Documents

Publication Publication Date Title
US10778786B2 (en) Intelligent multi-device user interaction
US9596337B2 (en) Directing audio output based on device sensor input
US8934652B2 (en) Visual presentation of speaker-related information
US9575563B1 (en) Tap to initiate a next action for user requests
US9811991B2 (en) Do-not-disturb system and apparatus
US10908419B2 (en) Smartglasses and methods and systems for using artificial intelligence to control mobile devices used for displaying and presenting tasks and applications and enhancing presentation and display of augmented reality information
CN107211180A (en) Spatial audio signal for the object with associated audio content is handled
US10559024B1 (en) Voice initiated purchase request
US11068971B1 (en) Method, medium, and system for virtual try-on coordination via communications sessions
US20220066207A1 (en) Method and head-mounted unit for assisting a user
KR101624454B1 (en) Method for providing message service based hologram image, user device, and display for hologram image
US11282523B2 (en) Voice assistant management
KR20160071417A (en) Utilizing external devices to offload text entry on a head-mountable device
WO2018186416A1 (en) Translation processing method, translation processing program, and recording medium
KR20140078258A (en) Apparatus and method for controlling mobile device by conversation recognition, and apparatus for providing information by conversation recognition during a meeting
US10916159B2 (en) Speech translation and recognition for the deaf
WO2019237428A1 (en) Method and device for providing sound source information and augmented reality glasses
US20100283711A1 (en) An integrated computation and communication system, a framed interface therefor and a method of operating thereof
US8937635B2 (en) Device, method and system for real-time screen interaction in video communication
JP7065730B2 (en) Wearable terminal and display system
US20220230649A1 (en) Wearable electronic device receiving information from external wearable electronic device and method for operating the same
CN115086888B (en) Message notification method and device and electronic equipment
US20220293084A1 (en) Speech processing device, speech processing method, and recording medium
US9727716B1 (en) Shared workspace associated with a voice-request account
JP7033353B1 (en) A device for evaluating services provided by a service provider, a method performed on the device, and a program.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220426

R150 Certificate of patent or registration of utility model

Ref document number: 7065730

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150