JP5955348B2 - Wearable device having privacy protection function of captured image, control method thereof, and image sharing system - Google Patents

Wearable device having privacy protection function of captured image, control method thereof, and image sharing system Download PDF

Info

Publication number
JP5955348B2
JP5955348B2 JP2014092058A JP2014092058A JP5955348B2 JP 5955348 B2 JP5955348 B2 JP 5955348B2 JP 2014092058 A JP2014092058 A JP 2014092058A JP 2014092058 A JP2014092058 A JP 2014092058A JP 5955348 B2 JP5955348 B2 JP 5955348B2
Authority
JP
Japan
Prior art keywords
image
user
image data
wearable device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014092058A
Other languages
Japanese (ja)
Other versions
JP2015005972A (en
Inventor
尊仁 井口
尊仁 井口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TELEPATHY HOLDINGS CO., LTD.
Original Assignee
TELEPATHY HOLDINGS CO., LTD.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TELEPATHY HOLDINGS CO., LTD. filed Critical TELEPATHY HOLDINGS CO., LTD.
Priority to JP2014092058A priority Critical patent/JP5955348B2/en
Publication of JP2015005972A publication Critical patent/JP2015005972A/en
Application granted granted Critical
Publication of JP5955348B2 publication Critical patent/JP5955348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、ウェアラブルデバイスに係り、より詳細には、ユーザの頭部に装着され、ユーザの視認する画像を撮影してユーザの眼前に虚像として表示するディスプレイを備え、撮影した画像をリアルタイムで画像処理し、個人特定が困難な画質に変換して外部機器と共有するように制御することでプライバシー保護機能を具現するウェアラブルデバイス及びその制御方法並びに画像共有システムに関する。   The present invention relates to a wearable device, and more specifically, includes a display that is mounted on a user's head, captures an image visually recognized by the user, and displays it as a virtual image in front of the user's eyes. The present invention relates to a wearable device, a control method thereof, and an image sharing system that implement a privacy protection function by processing, converting the image quality into an image quality that is difficult to identify, and sharing with an external device.

近年、ユーザの身体に取り付けて使用することのできるウェアラブルデバイスへの需要が高まりつつある。特に頭部に装着して使用するヘッドマウントディスプレイ(HMD)のように、ユーザの視認する画像を撮影してユーザの眼前に虚像として表示する機能を有するウェアラブルデバイスは、撮影した画像をユーザ本人が視認すると同時に、各種通信手段を使用して、ウェアラブルデバイスを装着するユーザ間で情報交換する機能を備えることにより、コミュニケーションのためのツールとして利用する形態に発展している。   In recent years, there is an increasing demand for wearable devices that can be used by being attached to a user's body. In particular, a wearable device having a function of shooting an image visually recognized by the user and displaying it as a virtual image in front of the user's eyes, such as a head-mounted display (HMD) mounted on the head, is used by the user himself / herself. At the same time as visual recognition, various communication means are used to provide a function for exchanging information between users wearing wearable devices, thereby developing a form for use as a tool for communication.

例えば、特許文献1〜3には、従来のHMDが開示されている。
特許文献1(特開平5−303053号公報)には、ユーザが見ている外界の視野像(外界像と呼ぶ)と画像表示装置の表示画像とを重ね合わせて、これらの像が同時にユーザによって視認されるように構成した光学系を備えるHMDが開示されている。このタイプのHMDはシースルー型HMDと呼ばれている。
特許文献2(特開2011−69849号公報)には、シースルー型HMDの使用時に、外界像の上に重ねて画像情報(又はコンテンツ情報)に基づく表示画像が提示されることにより、ユーザが外界像と表示画像を区別し難くなるのを避けるため、表示画像に囲い枠を付加する等の表示効果付加手段を備えたシースルー型HMDが開示されている。
For example, Patent Documents 1 to 3 disclose conventional HMDs.
In Patent Document 1 (Japanese Patent Laid-Open No. 5-303053), an external field image (referred to as an external image) viewed by a user is superimposed on a display image of an image display device, and these images are simultaneously displayed by the user. An HMD including an optical system configured to be visually recognized is disclosed. This type of HMD is called a see-through HMD.
In Patent Document 2 (Japanese Patent Laid-Open No. 2011-69849), when a see-through type HMD is used, a display image based on image information (or content information) is presented on top of an external image so that the user can In order to avoid the difficulty of distinguishing between an image and a display image, a see-through type HMD provided with display effect adding means such as adding a frame to the display image is disclosed.

また、特許文献3(特開2010−213214号公報)には、カメラを備えたHMDを用いて撮像した画像のデータを、表示手段により表示された旅行ガイド等のコンテンツ情報に関連付けて記憶する手段を備えたHMDが開示されている。特許文献3のHMDは、ユーザの視線方向を検出し、その検出結果に応じてユーザの視野範囲を、静止画像としてチャプチャすることが記載されている。   Patent Document 3 (Japanese Patent Laid-Open No. 2010-213214) discloses a means for storing data of an image captured using an HMD equipped with a camera in association with content information such as a travel guide displayed by a display means. An HMD with the following is disclosed. Patent Document 3 describes that the HMD detects a user's line-of-sight direction and captures the user's visual field range as a still image according to the detection result.

特許文献3に記載されているHMDのように、ユーザの視認する画像をモニターし、ユーザの望む画像を静止画像として記憶する技術は、個人的な記録として個人で所有するのに有用である。   A technique of monitoring an image visually recognized by the user and storing the image desired by the user as a still image, such as the HMD described in Patent Document 3, is useful for personal possession as a personal record.

しかしながら、上述したコミュニケーションのためのツールとして、ユーザが視認する画像を他者と共有する場合、プライバシー保護が重要な問題となる。
特に、従来の撮像機能を備えたHMDでは、HMDを使用するユーザがその視認している画像を他のユーザと共有する場合に、ユーザの意図に拘らず、その視野内に存在する人物の画像も含まれてしまうため、プライバシー保護上の問題を内包する。
However, when the image visually recognized by the user is shared with others as a communication tool described above, privacy protection is an important issue.
In particular, in an HMD having a conventional imaging function, an image of a person existing in the field of view regardless of the user's intention when the user using the HMD shares the image that the user views with other users. It also includes privacy problems.

一方、ウェアラブルデバイスをコミュニケーションのためのツールとして使用する上で、他のユーザと各種データを送受信して情報を共有する際の通信負荷の軽減が重要である。特に、画像データはデータサイズが大きいため、通信速度の遅い無線通信環境下では、遅延が増大して、リアルタイムのコミュニケーションを阻害する要因になり得る。   On the other hand, when using the wearable device as a communication tool, it is important to reduce the communication load when transmitting / receiving various data to / from other users and sharing information. In particular, since the image data has a large data size, the delay increases in a wireless communication environment with a low communication speed, which may be a factor that hinders real-time communication.

特開平5−303053号公報Japanese Patent Laid-Open No. 5-303053 特開2011−69849号公報JP 2011-69849 A 特開2010−213214号公報JP 2010-213214 A

本発明は、上記従来の問題に鑑みてなされたものであって、本発明の目的は、ユーザの頭部に装着され、ユーザの視認する画像を撮影してユーザの眼前に虚像として表示するディスプレイを備え、撮影した画像をリアルタイムで個人特定が困難な画質に変換してプライバシー保護機能を具現するウェアラブルデバイス及びその画像処理制御方法並びに画像共有システムを提供することにある。   The present invention has been made in view of the above-described conventional problems, and an object of the present invention is to provide a display that is mounted on a user's head, captures an image visually recognized by the user, and displays it as a virtual image in front of the user's eyes. And a wearable device that converts a captured image into an image quality that is difficult to identify in real time and realizes a privacy protection function, an image processing control method thereof, and an image sharing system.

上記目的を達成するためになされた本発明の一態様によるウェアラブルデバイスは、ユーザの頭部に装着され、該ユーザに対して画像データに基づく画像光による画像が外界の視野像とともにユーザに視認されるディスプレイを備えたウェアラブルデバイスであって、ユーザが視認する画像を撮影するカメラ部と、ユーザの眼から注視点までの距離である視距離を測定する測距部と、前記カメラ部で撮影した画像データ及び該画像データに対応する視距離の測定データに基づき画像光を前記視距離に視認される虚像としてユーザの眼に投影する画像投影部と、ウェアラブルデバイスを制御しウェアラブルデバイスとして機能させるためのプログラム及び各種データを保存する記憶部と、前記カメラ部で撮影した画像データをリアルタイムで画像処理する画像処理部と、外部機器とデータを送受信する無線通信部と、前記それぞれの構成要素の動作を制御する制御部と、を備え、前記制御部は、前記カメラ部で撮影した画像データを、前記無線通信部を介して外部機器に送信する場合、該撮影した画像データを前記画像処理部によりリアルタイムで個人特定が困難な低階調の画像データに変換して前記外部機器に送信するように制御することを特徴とする。   A wearable device according to an aspect of the present invention made to achieve the above object is worn on a user's head, and an image of image light based on image data is visually recognized by the user together with a visual field image of the outside world. A wearable device having a display that captures an image viewed by a user, a distance measuring unit that measures a viewing distance from a user's eye to a gazing point, and the camera unit. An image projection unit that projects image light onto a user's eye as a virtual image visually recognized at the viewing distance based on the image data and viewing distance measurement data corresponding to the image data, and a wearable device for controlling the wearable device to function as a wearable device A storage unit for storing various programs and various data, and image data captured by the camera unit in real time. An image processing unit for processing, a wireless communication unit for transmitting / receiving data to / from an external device, and a control unit for controlling the operation of each of the components, wherein the control unit captures image data captured by the camera unit. When transmitting to the external device via the wireless communication unit, the captured image data is converted into low gradation image data that is difficult to identify in real time by the image processing unit and transmitted to the external device. It is characterized by controlling to.

前記撮影した画像データを前記画像処理部により低階調の画像データ変換する処理は、二値化処理または三値化処理であり得る。
前記外部機器が、ユーザが装着するウェアラブルデバイスと同一構成のウェアラブルデバイスである場合、前記カメラ部で撮影した画像データとともに該画像データに対応する視距離の測定データを送信し得る。
前記画像処理部は、前記撮影した画像データに人物として識別される画像が含まれているか否かを判断する手段を更に有し、前記制御部は、前記撮影した画像データを外部機器に送信する場合、前記画像処理部により前記撮影した画像データに人物として識別される画像が含まれていると判断されると、前記撮影した画像データを前記画像処理部により低解像度の画像データに変換して前記外部機器に送信するように制御し得る。
前記ウェアラブルデバイスは、ユーザの視野方向の変動を検出する視野変動検出部を更に備え、前記制御部は、前記視野変動検出部から出力される検出信号を確認し、視野変動を検知した第1の検出信号を受けた後に次の視野変動を検知した第2の検出信号を受けるまでの期間が予め設定された時間を超過した場合、前記予め設定された時間の到達時にユーザが視認している画像を静止画として撮影し、該撮影した静止画の画像データを前記記憶部又は前記外部機器に保存し得る。
The process of converting the captured image data into low gradation image data by the image processing unit may be a binarization process or a ternary process.
When the external device is a wearable device having the same configuration as the wearable device worn by the user, the visual distance measurement data corresponding to the image data can be transmitted together with the image data captured by the camera unit.
The image processing unit further includes means for determining whether or not the photographed image data includes an image identified as a person, and the control unit transmits the photographed image data to an external device. If the image processing unit determines that the captured image data includes an image identified as a person, the image processing unit converts the captured image data into low-resolution image data. Control may be performed to transmit to the external device.
The wearable device further includes a visual field variation detection unit that detects a variation in the visual field direction of the user, and the control unit confirms a detection signal output from the visual field variation detection unit and detects a first visual field variation. When the period until receiving the second detection signal after detecting the next visual field variation after receiving the detection signal exceeds a preset time, the image visually recognized by the user when the preset time is reached Can be captured as a still image, and image data of the captured still image can be stored in the storage unit or the external device.

上記目的を達成するためになされた本発明の一態様によるウェアラブルデバイスの制御方法は、ユーザの頭部に装着され、該ユーザに対して画像データに基づく画像光による画像が外界の視野像とともにユーザに視認されるディスプレイを備えたウェアラブルデバイスの制御方法であって、カメラ部によりユーザが視認する画像を撮影するステップと、測距部によりユーザの眼から注視点までの距離である視距離を測定するステップと、画像投影部により前記カメラ部で撮影した画像データ及び該画像データに対応する視距離の測定データに基づき画像光を前記視距離に視認される虚像としてユーザの眼に投影するステップと、前記カメラ部で撮影した画像データを、無線通信部を介して外部機器に送信するステップと、を有し、前記カメラ部で撮影した画像データを、無線通信部を介して外部機器に送信するステップは、前記撮影した画像データを画像処理部によりリアルタイムで個人特定が困難な低階調の画像データに変換するステップを含むことを特徴とする。   In order to achieve the above object, a wearable device control method according to an aspect of the present invention is mounted on a user's head, and an image based on image light based on image data is displayed to the user together with a visual field image of the outside world. A method for controlling a wearable device having a display that is visually recognized by the camera, the step of taking an image that is visually recognized by the user with the camera unit, and the measurement of the viewing distance from the user's eye to the gazing point by the distance measuring unit. And projecting image light onto a user's eye as a virtual image visually recognized at the viewing distance based on image data photographed by the camera unit by the image projecting unit and viewing distance measurement data corresponding to the image data. Transmitting image data captured by the camera unit to an external device via a wireless communication unit, and the camera The step of transmitting the image data captured in step S3 to the external device via the wireless communication unit includes the step of converting the captured image data into low-gradation image data that is difficult to identify in real time by the image processing unit. It is characterized by that.

前記撮影した画像データを低階調の画像データに変換する処理は、二値化処理または三値化処理であり得る。
前記カメラ部で撮影した画像データを、無線通信部を介して外部機器に送信するステップは、前記外部機器が、ユーザが装着するウェアラブルデバイスと同一構成のウェアラブルデバイスの場合、前記カメラ部で撮影した画像データとともに該画像に対応する視距離の測定データを送信するステップを含み得る。
前記ウェアラブルデバイスの制御方法は、前記ユーザの視野方向の変動を検出するステップを更に有し、前記ユーザの視野方向の変動を検出するステップは、前記視野変動検出部から出力される検出信号を確認するステップと、視野変動を検知した第1の信号を受けた後に次の視野変動を検知した第2の信号を受けるまでの期間を計測するステップと、計測時間が予め設定した時間を超過した場合、前記予め設定された時間の到達時にユーザが視認している画像に対応する画像データを静止画の画像データとして前記記憶部又は前記外部機器に保存し得る。
The process of converting the captured image data into low gradation image data may be a binarization process or a ternary process.
The step of transmitting image data captured by the camera unit to an external device via a wireless communication unit is performed when the external device is a wearable device having the same configuration as a wearable device worn by a user. The method may include transmitting the measurement data of the viewing distance corresponding to the image together with the image data.
The control method of the wearable device further includes a step of detecting a change in the visual field direction of the user, and the step of detecting the fluctuation in the visual field direction of the user confirms a detection signal output from the visual field fluctuation detection unit. A step of measuring a period until receiving a second signal detecting the next visual field variation after receiving the first signal detecting the visual field variation, and when the measurement time exceeds a preset time The image data corresponding to the image visually recognized by the user when the preset time is reached can be stored in the storage unit or the external device as image data of a still image.

上記目的を達成するためになされた本発明の一態様による画像共有システムは、前記ウェアラブルデバイスを複数備え、複数の前記ウェアラブルデバイスに接続された外部データサーバを更に含む画像共有システムであって、前記ウェアラブルデバイスは、前記ウェアラブルデバイスに搭載されたカメラ部によりユーザが視認している画像を撮影した画像データ及び該画像データに対応する視距離の測定データを前記外部データサーバに通信ネットワークを介して送受信するための無線通信部を備え、前記外部データサーバは、前記複数のウェアラブルデバイスとデータの送受信を行う通信部と、前記ウェアラブルデバイスから受信したデータを保存する記憶部と、前記複数のウェアラブルデバイスのうちの第1のウェアラブルデバイスから送信される画像データ及び視距離の測定データを受信して前記記憶部に保存し、前記複数のウェアラブルデバイスうちの第2のウェアラブルデバイスからの要求に応じて前記記憶部に保存された前記第1のウェアラブルデバイスの画像データ及び視距離データを前記要求のあった第2のウェアラブルデバイスに送信する制御部と、を備えることを特徴とする。   In order to achieve the above object, an image sharing system according to an aspect of the present invention is an image sharing system including a plurality of the wearable devices and further including an external data server connected to the plurality of wearable devices. The wearable device transmits / receives image data obtained by capturing an image viewed by a user with a camera unit mounted on the wearable device and measurement data of a viewing distance corresponding to the image data to the external data server via a communication network. The external data server includes: a communication unit that transmits / receives data to / from the plurality of wearable devices; a storage unit that stores data received from the wearable devices; and a plurality of wearable devices From our first wearable device The received image data and viewing distance measurement data are received and stored in the storage unit, and the first stored in the storage unit in response to a request from a second wearable device among the plurality of wearable devices. A control unit that transmits image data and viewing distance data of the wearable device to the second wearable device that has made the request.

本発明のウェアラブルデバイスとその制御方法によれば、ユーザの視認する画像を撮影して、撮影した画像データをリアルタイムで個人特定が困難な低階調の画像データに変換して外部出力することによりプライバシーを保護するとともに通信速度を向上させることができる。
また、本発明のウェアラブルデバイスを複数備え、更に複数のウェアラブルデバイスに接続される外部記憶装置とから構成される画像共有システムによれば、プライバシーが保護された状態で無線ネットワークを通じたユーザ間でリアルタイムの情報交換が可能なコミュニケーションツール及び手段を提供することができる。
According to the wearable device and its control method of the present invention, by capturing an image visually recognized by the user, converting the captured image data into low-gradation image data that is difficult to identify in real time and outputting the converted image data externally Privacy can be protected and communication speed can be improved.
In addition, according to the image sharing system including a plurality of wearable devices of the present invention and further comprising an external storage device connected to the plurality of wearable devices, real-time between users through a wireless network in a state where privacy is protected It is possible to provide a communication tool and means capable of exchanging information.

本発明の一実施形態によるウェアラブルデバイスを示す斜視図である。1 is a perspective view illustrating a wearable device according to an embodiment of the present invention. 本発明の一実施形態によるウェアラブルデバイスの構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of a wearable device according to an embodiment of the present invention. 本発明の一実施形態によるウェアラブルデバイスの画像投影部の構成を概略的に示す図である。It is a figure which shows schematically the structure of the image projection part of the wearable device by one Embodiment of this invention. 本発明の第1の実施形態によるウェアラブルデバイスの制御方法を示すフローチャートである。3 is a flowchart illustrating a wearable device control method according to the first exemplary embodiment of the present invention. 本発明の第2の実施形態によるウェアラブルデバイスの制御方法を示すフローチャートである。5 is a flowchart illustrating a method for controlling a wearable device according to a second embodiment of the present invention. 本発明の一実施形態によるウェアラブルデバイスを用いた画像共有システムの構成を示す図である。1 is a diagram illustrating a configuration of an image sharing system using a wearable device according to an embodiment of the present invention. 本発明の一実施形態によるウェアラブルデバイスを用いた画像共有システムの制御方法を示すフローチャートである。3 is a flowchart illustrating a control method of an image sharing system using a wearable device according to an embodiment of the present invention. 本発明の他の実施形態によるウェアラブルデバイスを用いた画像共有システムの制御方法を示すフローチャートである。6 is a flowchart illustrating a control method of an image sharing system using a wearable device according to another embodiment of the present invention. 本発明の更に他の実施形態 によるウェアラブルデバイスを用いた画像共有システムの制御方法を示すフローチャートである。6 is a flowchart illustrating a control method of an image sharing system using a wearable device according to still another embodiment of the present invention.

以下、本発明を実施するための形態の具体例を、図面を参照しながら詳細に説明する。   Hereinafter, specific examples of embodiments for carrying out the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態によるウェアラブルデバイスを示す斜視図である。図2は、本発明の一実施形態によるウェアラブルデバイスの構成を概略的に示すブロック図である。   FIG. 1 is a perspective view illustrating a wearable device according to an embodiment of the present invention. FIG. 2 is a block diagram schematically showing the configuration of a wearable device according to an embodiment of the present invention.

図1及び図2を参照すると、ウェアラブルデバイス100は、画像投影部10、カメラ部20、マイク30、イヤホン40、及びタッチスイッチ50を備える。また、ウェアラブルデバイスの筐体60内には、制御部70、視野変動検出部81、無線通信部82、オーディオ処理部83、及び記憶部84が内蔵され、ウェアラブルデバイスの筐体90内にはバッテリー85を備える。   Referring to FIGS. 1 and 2, the wearable device 100 includes an image projection unit 10, a camera unit 20, a microphone 30, an earphone 40, and a touch switch 50. Further, a control unit 70, a visual field variation detection unit 81, a wireless communication unit 82, an audio processing unit 83, and a storage unit 84 are built in the wearable device housing 60, and a battery is installed in the wearable device housing 90. 85.

ウェアラブルデバイス100は、ユーザが視認する外界像をカメラ部20で撮影し、撮影した画像データを制御部70に送出する。制御部70は、受信した画像データをユーザからの指示に従って処理し、画像投影部10を通じて画像データに基づく画像光をユーザの眼に投影するように制御する。   The wearable device 100 captures an external image visually recognized by the user with the camera unit 20 and sends the captured image data to the control unit 70. The control unit 70 processes the received image data in accordance with an instruction from the user, and controls the image projection unit 10 to project image light based on the image data onto the user's eyes.

画像投影部10は、ウェアラブルデバイス100のディスプレイを構成し、オートフォーカス機能を有し、虚像の投影距離を調整してユーザが注視している位置に虚像を映し出す。これにより、ユーザはその虚像を空中に浮かんだ感覚で視認することができる。本機能の詳細については後述する。
また、画像投影部10は、無線通信部82を通じて受信したコンテンツ情報に基づく画像データをユーザの眼に投影することができる。
The image projection unit 10 constitutes the display of the wearable device 100, has an autofocus function, adjusts the projection distance of the virtual image, and projects the virtual image at the position where the user is gazing. Thereby, the user can visually recognize the virtual image as if it floated in the air. Details of this function will be described later.
The image projection unit 10 can project image data based on the content information received through the wireless communication unit 82 onto the user's eyes.

図2を参照すると、制御部70は、ウェアラブルデバイス100の全般的な動作のために各構成要素を制御するCPU71、画像データの画像変換を行いデータ圧縮等の処理を担う画像処理部72、及び入出力データの種別を判定して対応するインターフェイスと構成要素との接続切換え等を制御する入出力制御部73を備える。   Referring to FIG. 2, the control unit 70 includes a CPU 71 that controls each component for general operation of the wearable device 100, an image processing unit 72 that performs image conversion of image data and performs processing such as data compression, and An input / output control unit 73 that determines the type of input / output data and controls connection switching between a corresponding interface and a component is provided.

CPU(Central Processing Unit)71は、ウェアラブルデバイス100の各構成要素に対する電源供給を制御し、初期化過程を実行し、初期化過程が完了すると、各構成要素に対する各種データ処理のためのユーザインターフェースを制御し、ユーザによって生成されたタッチイベントに基づいて選択された機能を遂行し、入出力データの送受信等を制御する。   A CPU (Central Processing Unit) 71 controls power supply to each component of the wearable device 100 and executes an initialization process. When the initialization process is completed, a user interface for various data processing for each component is provided. And performs a function selected based on a touch event generated by the user, and controls transmission / reception of input / output data.

画像処理部72は、画像データの画像解析による人物識別、二値化処理等の低階調画像又はその他の形式の低解像度画像へのデータ変換処理、及びデータ圧縮解凍処理等を行う専用プロセッサ(例えば、DSP)を備える。
入出力制御部73は、画像データ、音声データ、及び各種コンテンツデータの入出力を制御し、ユーザの指示に基づき、それぞれ対応する構成要素に伝送する。
The image processing unit 72 is a dedicated processor (personal identification by image analysis of image data, data conversion processing to a low gradation image such as binarization processing or other types of low resolution images, and data compression / decompression processing) For example, a DSP) is provided.
The input / output control unit 73 controls input / output of image data, audio data, and various content data, and transmits them to corresponding components based on user instructions.

視野変動検出部81は、ジャイロセンサ及び加速度センサ(図示せず)を備え、ユーザの視野方向の変動を検出する。視野変動検出部81は、ジャイロセンサにより検出される角速度値及び/又は加速度センサーにより検出される加速度値が、ある基準値に対して所定の閾値以上変化したときに、ユーザの視野変動があったものと判断し、その検知信号を制御部70に送出する。   The visual field fluctuation detection unit 81 includes a gyro sensor and an acceleration sensor (not shown), and detects fluctuations in the visual field direction of the user. The visual field fluctuation detection unit 81 has a visual field fluctuation of the user when the angular velocity value detected by the gyro sensor and / or the acceleration value detected by the acceleration sensor changes more than a predetermined threshold with respect to a certain reference value. The detection signal is sent to the control unit 70.

制御部70は、視野変動検出部81からの検知信号を受信すると、オートフォーカス機能を作動させる命令信号を画像投影部10に送出する。すなわち、オートフォーカス機能は常時作動とせず、視野方向の変動を検出した時のみに作動するように制御する。これにより、ウェアラブルデバイス100が備えるバッテリー85の電力消費を抑制することが可能になる。   When the control unit 70 receives the detection signal from the visual field fluctuation detection unit 81, the control unit 70 sends a command signal for activating the autofocus function to the image projection unit 10. That is, the autofocus function is not always activated, and is controlled so that it is activated only when a change in the visual field direction is detected. Thereby, it becomes possible to suppress the power consumption of the battery 85 provided in the wearable device 100.

無線通信部82は、音声通話のための通信チャネルの形成、及び画像データ又は文字データを伝送するための通信チャネル形成などを制御部70の制御の下に行う。即ち、無線通信部82は、音声通話チャネル、文字データ通信チャネル、及び画像データ通信チャネルなどを移動通信システムの間に形成する。無線通信部82の運用のために、ウェアラブルデバイス100は、様々な情報、例えば通信先リスト情報などを画像投影部10に出力するように制御する。無線通信部82は、ブルートゥース(登録商標)、WiFi(登録商標)などで構成される。   The wireless communication unit 82 performs formation of a communication channel for a voice call, formation of a communication channel for transmitting image data or character data, and the like under the control of the control unit 70. That is, the wireless communication unit 82 forms a voice call channel, a character data communication channel, an image data communication channel, and the like between mobile communication systems. For the operation of the wireless communication unit 82, the wearable device 100 controls to output various information such as communication destination list information to the image projection unit 10. The wireless communication unit 82 is configured by Bluetooth (registered trademark), WiFi (registered trademark), or the like.

オーディオ処理部83は、通話時に送受信されるオーディオデータ、受信したメッセージに含まれるオーディオデータ、及び外部記憶装置から受信したオーディオファイル再生によるオーディオデータなどをイヤホン40に出力し、通話時にユーザの音声又はその他のオーディオ信号を、マイク30を通じて収集する。   The audio processing unit 83 outputs audio data transmitted / received during a call, audio data included in the received message, audio data by audio file playback received from an external storage device, and the like to the earphone 40, and the user's voice or Other audio signals are collected through the microphone 30.

タッチスイッチ50は、ウェアラブルデバイス100のフレーム側部に配置され、画像投影部10に出力する特定イメージや特定機能をユーザが指示するために、タッチスイッチ50の特定の領域を特定の所作でタッチした場合、それに対応するタッチイベントを生成するようにサポートする。   The touch switch 50 is disposed on the frame side portion of the wearable device 100, and the user touches a specific area of the touch switch 50 with a specific operation in order to instruct a specific image or a specific function to be output to the image projection unit 10. If so, support to generate the corresponding touch event.

記憶部84は、図示しないがフラッシュメモリ(フラッシュEEPROM)、RAM等で構成され、本実施形態による機能動作に必要な各種アプリケーションプログラム及びタッチスイッチ50の運用のためのメニューマップなどを含む。ここで、メニューマップは、様々な形態を使用することができる。即ち、メニューマップは、現在活性化されているアプリケーションプログラムの運用制御のためのメニューマップであってもよく、ウェアラブルデバイス100が提供する様々なメニューをリストとして有するメニューマップであってもよい。また、記憶部84は、プログラム領域とデータ領域を含む。   The storage unit 84 is configured by a flash memory (flash EEPROM), a RAM, and the like (not shown), and includes various application programs necessary for the functional operation according to the present embodiment, a menu map for operating the touch switch 50, and the like. Here, the menu map can use various forms. That is, the menu map may be a menu map for operation control of the currently activated application program, or a menu map having various menus provided by the wearable device 100 as a list. The storage unit 84 includes a program area and a data area.

プログラム領域は、ウェアラブルデバイス100の起動及び上述した各構成要素の運用のためのOS(Operating System)、様々な機能を実行するためのアプリケーションプログラム、例えば、通話機能サポートのためのアプリケーションプログラム、インターネットサーバーに接続するためのウェブブラウザ、オーディオデータを再生するためのMP3アプリケーションプログラム、静止画像などを表示するためのイメージ出力アプリケーションプログラム、動画像圧縮再生アプリケーションプログラムなどを保存する。
特に、本実施形態のプログラム領域には、画像変換処理アプリケーションプログラムを含む。
The program area includes an OS (Operating System) for starting up the wearable device 100 and operating each of the above-described components, an application program for executing various functions, for example, an application program for supporting a call function, and an Internet server A web browser for connecting to the computer, an MP3 application program for reproducing audio data, an image output application program for displaying still images, a moving image compression / reproduction application program, and the like are stored.
In particular, the program area of this embodiment includes an image conversion processing application program.

画像変換処理アプリケーションプログラムは、メニュー又はタッチ所作による選択信号によって、撮影画像にプライバシー保護を設定する場合、カメラ部20で撮影した画像データに、予め設定した画像変換処理(例えば、二値化或いは三値化等の低階調化処理又はその他の低解像度化処理)を行うルーチンを含む。例えば、プライバシー保護が設定されるウェアラブルデバイスの使用モードとして、共有モード(他のウェアラブルデバイスユーザと画像データを送受信するモード)、プライベートモード(画像データを外部装置に送出するモード)を設定することができる。   The image conversion processing application program, when setting privacy protection for a captured image by a selection signal based on a menu or a touch action, applies image conversion processing (for example, binarization or ternization) to image data captured by the camera unit 20 in advance. And a routine for performing gradation reduction processing such as digitization or other resolution reduction processing. For example, a sharing mode (a mode for transmitting / receiving image data to / from other wearable device users) and a private mode (a mode for transmitting image data to an external device) may be set as the use mode of the wearable device for which privacy protection is set. it can.

データ領域は、ウェアラブルデバイス100の使用によって発生する各種データが保存される領域であり、メニューマップ情報、各種機能に対応する少なくとも1つのアイコン又は様々なコンテンツを保存する。また、データ領域には、カメラ部20で撮影した画像データ、外部から受信した画像データ、及び各種コンテンツ情報データなどが一時保存される。特に、本実施形態のデータ領域は、カメラ部20で撮影した画像データを画像処理部72で画像変換する際、画像データのバッファメモリとして機能し、通信機能をサポートするアプリケーションプログラムの活性化時に上記変換データを無線通信部82に送出する。   The data area is an area for storing various data generated by using the wearable device 100, and stores menu map information, at least one icon corresponding to various functions, or various contents. The data area temporarily stores image data captured by the camera unit 20, image data received from the outside, various content information data, and the like. In particular, the data area of the present embodiment functions as a buffer memory for image data when image data captured by the camera unit 20 is converted by the image processing unit 72, and is activated when an application program that supports a communication function is activated. The converted data is sent to the wireless communication unit 82.

次に、図3を参照して、本実施形態の画像投影部10について、より詳しく説明する。   Next, the image projection unit 10 of the present embodiment will be described in more detail with reference to FIG.

画像投影部10は、画像データを表示する表示部11、表示部11から出射された画像光をユーザの眼Eに導く光学モジュール12、及びユーザの「視距離」を測定する測距部13を備える。ここで「視距離」とは、ユーザの眼Eから注視点までの距離を意味する。   The image projection unit 10 includes a display unit 11 that displays image data, an optical module 12 that guides image light emitted from the display unit 11 to the user's eye E, and a distance measurement unit 13 that measures the user's “viewing distance”. Prepare. Here, the “viewing distance” means a distance from the user's eye E to the gazing point.

表示部11は、図示しないが、表示素子と光源から構成され、画像データを画像光に変換して光学モジュール12に出射する。
表示素子は、例えば、光が通過する領域となる各画素がマトリクス状に配置された透過型の液晶表示素子又は反射型の液晶表示素子で構成される。光源は、R(赤色)、G(緑色)、B(青色)の各色の光を出射するものであり、例えばLED(発光ダイオード)から成る。なお、光源は、RGB一体型のLEDパネルで構成されることが好ましいが、単色光や白色光を出射するものであってもよい。
Although not shown, the display unit 11 includes a display element and a light source, converts image data into image light, and outputs the image light to the optical module 12.
The display element is constituted by, for example, a transmissive liquid crystal display element or a reflective liquid crystal display element in which pixels that are regions through which light passes are arranged in a matrix. The light source emits light of each color of R (red), G (green), and B (blue), and includes, for example, an LED (light emitting diode). The light source is preferably composed of an RGB integrated LED panel, but may emit monochromatic light or white light.

光学モジュール12は、表示部11からの画像光をユーザの眼Eに導く光学系である。光学モジュール12は、プリズム14、補正レンズ15、及び補正レンズの焦点位置を調整することで虚像の投影距離を調整する投影距離調整部16を備える。
プリズム14は、表示部11からの画像光の光路を直角に折り曲げる手段として機能する導光部材である。プリズム14は、単一のプリズムで構成されてもよいし、複数プリズムを組み合わせて構成されてもよい。
The optical module 12 is an optical system that guides image light from the display unit 11 to the user's eye E. The optical module 12 includes a prism 14, a correction lens 15, and a projection distance adjustment unit 16 that adjusts the projection distance of the virtual image by adjusting the focal position of the correction lens.
The prism 14 is a light guide member that functions as means for bending the optical path of the image light from the display unit 11 at a right angle. The prism 14 may be configured by a single prism or may be configured by combining a plurality of prisms.

測距部13は、図示しないが、ユーザの眼Eの屈折力を計測する測距センサーを備え、測距センサーから得られた屈折力に基づいて、ユーザの眼Eが焦点を合わせている注視点の位置を特定する。これにより、測距部13は、ユーザの眼Eから注視点までの距離(視距離)を測定する。測距部13は、計測した視距離に関するデータを、制御部70に送出する。   Although not shown, the ranging unit 13 includes a ranging sensor that measures the refractive power of the user's eye E, and the user's eye E is focused based on the refractive power obtained from the ranging sensor. Specify the position of the viewpoint. Thereby, the distance measuring unit 13 measures the distance (viewing distance) from the user's eye E to the gazing point. The distance measuring unit 13 sends data related to the measured viewing distance to the control unit 70.

制御部70は、視距離に関するデータに基づき、光学モジュール12の投影距離調整部16を制御する。すなわち、投影距離調整部16は、制御部70から視距離に関するデータに対応する制御信号を受けて、補正レンズ15の物理的な位置を前後させることにより、プリズム14に画像光が集光する面積を調整して虚像の投影距離を調節する。なお、投影距離調整部16が虚像の投影距離を調整する方法は、上記に限定されるものではなく、適宜周知の方法を用い得る。   The control unit 70 controls the projection distance adjustment unit 16 of the optical module 12 based on the data regarding the viewing distance. That is, the projection distance adjustment unit 16 receives a control signal corresponding to the data regarding the viewing distance from the control unit 70 and moves the physical position of the correction lens 15 back and forth, thereby condensing the image light on the prism 14. To adjust the projection distance of the virtual image. Note that the method by which the projection distance adjustment unit 16 adjusts the projection distance of the virtual image is not limited to the above, and a known method can be used as appropriate.

以下、本発明の一実施形態によるウェアラブルデバイス100の制御方法をより詳細に説明する。   Hereinafter, a method for controlling the wearable device 100 according to an embodiment of the present invention will be described in more detail.

図4は、本発明の第1の実施形態によるウェアラブルデバイスの制御方法を示すフローチャートである。   FIG. 4 is a flowchart illustrating a wearable device control method according to the first embodiment of the present invention.

図4を参照すると、先ず、ユーザがウェアラブルデバイス100を装着する(ステップS100)と、ウェアラブルデバイス100に備わるセンサー(図示せず)が装着を感知して電源が供給され、供給された電源を利用してウェアラブルデバイス100の制御部70は起動を完了して予め設定されたスケジュール情報に従って初期画像又はメニュー画像を画像投影部10に出力する(ステップS110)。その後、制御部70はユーザによる特定の入力イベントが例えばタッチスイッチ50に対して生成されるか否かを確認する。   Referring to FIG. 4, first, when the user wears wearable device 100 (step S100), a sensor (not shown) included in wearable device 100 senses the wear and power is supplied, and the supplied power is used. Then, the control unit 70 of the wearable device 100 completes activation and outputs an initial image or menu image to the image projection unit 10 according to preset schedule information (step S110). Thereafter, the control unit 70 confirms whether a specific input event by the user is generated for the touch switch 50, for example.

制御部70は入力イベントが生成されると、該当入力イベントがカメラ部20による撮影開始を指示する入力イベントであるか否かを確認する(ステップS120)。
制御部70は、カメラ部20を起動するための入力イベント発生でない場合、ステップS120の前に戻り、入力イベントが生成されるか否かの確認を行うように制御する。
なお、カメラ部の起動開始を確認するステップS120を省略して、ステップS110で電源供給開始を受けてカメラ部20を作動させてもよい。
When the input event is generated, the control unit 70 checks whether or not the corresponding input event is an input event that instructs the camera unit 20 to start photographing (step S120).
If the input event for activating the camera unit 20 is not generated, the control unit 70 returns to step S120 and performs control so as to check whether an input event is generated.
Note that step S120 for confirming the start of activation of the camera unit may be omitted, and the camera unit 20 may be operated in response to the start of power supply in step S110.

一方、ステップS120でカメラ撮影開始を指示する入力イベントが発生すると、制御部70はカメラ部20を起動し、カメラ部20はユーザの視認する外景像を撮影して撮影した画像データを制御部70に送出する。これと同時に、制御部70は、測距部13を起動して、ユーザが視認する注視点までの視距離を計測するように制御する。測距部13は計測した視距離に関するデータを制御部70に送出する(ステップS130)。
なお、「視認」とは、外景に基づく画像光がユーザの眼(網膜上)に結像されてユーザが画像を認識する態様と、表示部に表示された画像に基づく画像光をユーザが認識する態様の2つの態様を含む。
On the other hand, when an input event for instructing camera start is generated in step S120, the control unit 70 activates the camera unit 20, and the camera unit 20 captures and captures image data obtained by capturing an outside scene image visually recognized by the user. To send. At the same time, the control unit 70 activates the distance measuring unit 13 and performs control so as to measure the viewing distance to the gazing point visually recognized by the user. The distance measuring unit 13 sends data relating to the measured viewing distance to the control unit 70 (step S130).
Note that “visual recognition” means that the user recognizes the image light based on the image displayed on the display unit and the aspect in which the image light based on the outside scene is imaged on the user's eyes (on the retina) and the user recognizes the image. Including two aspects.

制御部70は、カメラ部20からの画像データ及び測距部13からの視距離に関するデータを画像投影部10に送出し、画像投影部10は上記2つのデータに基づいてユーザの眼に視距離に対応する虚像を投影する(ステップS140)。   The control unit 70 sends the image data from the camera unit 20 and the data related to the viewing distance from the distance measuring unit 13 to the image projecting unit 10, and the image projecting unit 10 provides the viewing distance to the user's eyes based on the two data. A virtual image corresponding to is projected (step S140).

また、制御部70は、視野変動検出部81から出力される信号を確認する(ステップS150)。これにより、ユーザの注視状態を判断する。すなわち、視野変動検出部81から視野変動を知らせる第1の検知信号を受けた後、次の視野変動を知らせる第2の検知信号を受けるまでの期間が、予め設定した時間(判定時間)を超過した場合、ユーザがその方向を注視していると判断する(ステップS160)。   Further, the control unit 70 confirms the signal output from the visual field fluctuation detection unit 81 (step S150). Thereby, a user's gaze state is judged. That is, after receiving the first detection signal informing the visual field variation from the visual field variation detection unit 81, the period until receiving the second detection signal informing the next visual field variation exceeds a preset time (determination time). If so, it is determined that the user is watching the direction (step S160).

制御部70は、予め設定した判定時間が経過すると、上記判定時間の到達時にユーザが視認している画像に対応する画像データを静止画として記憶部84に保存する(ステップS170)。この際、制御部70は、注視判定時間の経過をユーザに認知させるためのオブジェクトを画像投影部10からユーザの眼に投影してもよい。
なお、上記判定時間は、例えば3秒〜6秒とし、ユーザに認知させるためのオブジェクト表示を上記第1の検知信号を受けて、例えば0.5秒〜2秒後から開始してもよい。
When the preset determination time has elapsed, the control unit 70 stores the image data corresponding to the image that the user is viewing when the determination time is reached in the storage unit 84 as a still image (step S170). At this time, the control unit 70 may project an object for allowing the user to recognize the elapse of the gaze determination time from the image projection unit 10 to the user's eyes.
The determination time may be, for example, 3 to 6 seconds, and object display for the user to recognize may be started, for example, 0.5 to 2 seconds after receiving the first detection signal.

その後、制御部70は、ユーザによる特定の入力イベントが生成されるか否かを確認する(ステップS180)。カメラ部20の作動終了を指示する入力イベントの発生がない場合、制御部70は、ステップS130の前に分岐して、以降のステップを繰り返して行うように制御する。
一方、カメラ部20の作動終了の入力イベントが発生した場合、制御部70は、カメラ部20の作動を停止してステップS120の前に分岐し、以降のステップを繰り返して行うように制御する。
Thereafter, the control unit 70 confirms whether or not a specific input event by the user is generated (step S180). When there is no occurrence of an input event for instructing the end of the operation of the camera unit 20, the control unit 70 branches before step S130 and performs control so that the subsequent steps are repeated.
On the other hand, when an input event for ending the operation of the camera unit 20 occurs, the control unit 70 stops the operation of the camera unit 20, branches before step S120, and controls to repeat the subsequent steps.

図5は、本発明の第2の実施形態によるウェアラブルデバイスの制御方法を示すフローチャートである。本実施形態では、ユーザがウェアラブルデバイスを装着して、カメラ部を作動させた状態以降の制御方法の一例を説明する。   FIG. 5 is a flowchart illustrating a wearable device control method according to the second exemplary embodiment of the present invention. In the present embodiment, an example of a control method after a user wears a wearable device and activates the camera unit will be described.

図5を参照すると、先ず、ユーザがウェアラブルデバイス100を装着し、カメラ部20を作動させて外界像の撮影を開始する(ステップS210)と、制御部70はユーザによる特定の入力イベントが例えばタッチスイッチ50に対して生成されるか否かを確認する。   Referring to FIG. 5, first, when the user wears the wearable device 100 and activates the camera unit 20 to start shooting an external image (step S210), the control unit 70 touches a specific input event by the user, for example, Whether or not it is generated for the switch 50 is confirmed.

制御部70は、入力イベントが生成されると、該当入力イベントが撮影画像をプライベートモードで出力することを選択するための入力イベントであるか否かを確認する(ステップS220)。ここで、プライベートモードとは、カメラ部20で撮影した画像データをリアルタイムで画像処理して、画像中の人物や場所が特定し難い画像(例えば、二値画像)に変換するモードである。   When the input event is generated, the control unit 70 confirms whether or not the corresponding input event is an input event for selecting to output the captured image in the private mode (step S220). Here, the private mode is a mode in which image data captured by the camera unit 20 is subjected to image processing in real time and converted into an image (for example, a binary image) in which a person or place in the image is difficult to identify.

制御部70は、プライベートモードを選択するための入力イベントでない場合、ステップS240に分岐し、撮影した画像データ及び視距離に関するデータを画像投影部10に送出する。画像投影部10は上記2つのデータに基づいてユーザの眼に視距離に対応する虚像を投影する(ステップS250)。これにより、ユーザの眼には画像投影部10で撮影した画像がそのまま投影される(以下、通常モードと呼ぶ)。   If it is not an input event for selecting the private mode, the control unit 70 branches to step S240, and sends the captured image data and data relating to the viewing distance to the image projection unit 10. The image projection unit 10 projects a virtual image corresponding to the viewing distance on the user's eye based on the two data (step S250). As a result, the image captured by the image projection unit 10 is projected as it is onto the user's eyes (hereinafter referred to as the normal mode).

一方、ステップS220でプライベートモードを選択するための入力イベントが発生すると、制御部70は、画像処理部72を制御して、撮影した画像データをリアルタイムで画像変換(例えば、二値化処理)する(ステップS230)。   On the other hand, when an input event for selecting the private mode occurs in step S220, the control unit 70 controls the image processing unit 72 to perform image conversion (for example, binarization processing) on the captured image data in real time. (Step S230).

そして、制御部70は画像処理部72で処理した画像データ(例えば、二値画像データ)及び視距離に関するデータを画像投影部10に送出する(ステップS240)。したがって、この場合、ユーザの眼には二値画像が虚像として投影される。   Then, the control unit 70 sends the image data (for example, binary image data) processed by the image processing unit 72 and data relating to the viewing distance to the image projection unit 10 (step S240). Therefore, in this case, the binary image is projected as a virtual image on the user's eyes.

制御部70は、カメラ撮影中もユーザによる特定の入力イベントが生成されるか否かを確認する。制御部70は、入力イベントが生成されると、該当入力イベントが撮影画像を外部出力するモードを選択する入力イベントであるか否かを確認する(ステップS260)。   The control unit 70 confirms whether a specific input event by the user is generated even during camera shooting. When the input event is generated, the control unit 70 checks whether or not the corresponding input event is an input event for selecting a mode for externally outputting a captured image (step S260).

ここで、撮影画像を外部出力するモードとは、制御部70が入出力制御部73を制御してユーザの指示に基づく外部機器との接続手段を選択し、無線通信部82が、選択された接続手段を作動させて外部機器との通信チャネルを確立し、ユーザが撮影している画像データを外部機器に送信するモードである。外部機器との接続手段は、無線通信部82に備えられたブルートゥース(登録商標)又はWiFi(登録商標)通信等を用いる。また、接続先の外部機器は、スマートフォン、タブレット端末、パソコン、及びデータ(若しくはWeb)サーバである。ユーザが装着しているウェアラブルデバイスと同型の、すなわち同一の構成及び同一の機能を有するウェアラブルデバイスとのデータ共有については後述する。   Here, the mode in which the captured image is output to the outside is a mode in which the control unit 70 controls the input / output control unit 73 to select a connection means with an external device based on a user instruction, and the wireless communication unit 82 is selected. In this mode, the connection means is operated to establish a communication channel with the external device, and image data captured by the user is transmitted to the external device. As a means for connecting to an external device, Bluetooth (registered trademark) or WiFi (registered trademark) communication provided in the wireless communication unit 82 is used. The external devices to be connected are a smartphone, a tablet terminal, a personal computer, and a data (or Web) server. Data sharing with a wearable device of the same type as the wearable device worn by the user, that is, the wearable device having the same configuration and the same function will be described later.

制御部70は、外部出力を選択するための入力イベント発生でない場合、ステップS280に分岐し、以降のステップを繰り返して行うよう制御する。   If the input event for selecting the external output is not generated, the control unit 70 branches to step S280 and controls to repeat the subsequent steps.

一方、ステップS260で外部出力を選択するための入力イベントが発生すると、制御部70は、ユーザの指示によらず自動的にプライベートモードが選択されているか否かを確認する(ステップS265)。   On the other hand, when an input event for selecting an external output occurs in step S260, the control unit 70 checks whether or not the private mode is automatically selected regardless of a user instruction (step S265).

ステップ265で、プライベートモードが選択されていることが確認された場合、制御部70は、入出力制御部73を制御して、ユーザの指示に基づく外部機器との接続手段を選択し、無線通信部82を通じて、画像処理された画像データを外部機器に送信する(ステップS270)。   If it is confirmed in step 265 that the private mode is selected, the control unit 70 controls the input / output control unit 73 to select a connection means with an external device based on the user's instruction, and perform wireless communication. The image processed image data is transmitted to the external device through the unit 82 (step S270).

一方、プライベートモードが選択されていない場合、制御部70は、ステップS230の前に分岐し、画像処理部72を制御して撮影した画像データの画像変換処理(例えば、二値化処理)を開始(プライベートモードへ切換え)し、以降のステップを実行する。これにより、撮影画像に人物が映り込んだとしても、外部に出力されうる画像データは、個人特定が困難な低階調の画像データ(例えば二値画像データ)に変換されたものに制限されるため、プライバシーが保護される。また、二値化等の画像変換処理によって画像データが圧縮されるため、通信速度が向上する。
なお、ステップS265を省略して、ステップS220でユーザが選択したモード(通常モード又はプライベートモード)に対応する画像データを外部機器に送信できるように設定することも可能である。
On the other hand, if the private mode is not selected, the control unit 70 branches before step S230 and starts the image conversion process (for example, binarization process) of the image data captured by controlling the image processing unit 72. (Switch to private mode) and execute the following steps. As a result, even if a person appears in the captured image, the image data that can be output to the outside is limited to that converted into low-gradation image data (for example, binary image data) that is difficult to identify individuals. Therefore, privacy is protected. Further, since the image data is compressed by image conversion processing such as binarization, the communication speed is improved.
Note that step S265 may be omitted, and setting may be made so that image data corresponding to the mode (normal mode or private mode) selected by the user in step S220 can be transmitted to the external device.

その後、制御部70は、プライベートモード解除のための入力イベントが生成されるか否かを確認する(ステップS280)。プライベートモード解除のための入力イベント発生がない場合、ステップS230の前に分岐し、以降のステップを繰り返して行うように制御する。
また、プライベートモード解除のための入力イベントが発生した場合、制御部70は、画像変換処理を停止(ステップS290)した後、ステップS220の前に分岐して以降のステップを繰り返して行うように制御する。
Thereafter, the control unit 70 checks whether or not an input event for releasing the private mode is generated (step S280). If there is no occurrence of an input event for releasing the private mode, control branches to before step S230 and the subsequent steps are repeated.
In addition, when an input event for releasing the private mode occurs, the control unit 70 stops the image conversion process (step S290), branches before step S220, and repeats the subsequent steps. To do.

なお、本実施形態では、画像データの外部出力を選択する場合に、ユーザがプライベートモードを選択するか否かを指示するフローを示したが、これに限定されない。例えば、図5のステップS260で、画像データの外部出力を選択するための入力イベントが発生した場合、ステップS265において、制御部70は、撮影した画像データに人物として識別される画像が含まれているか否かを画像処理部72の画像解析機能を用いて検査し、撮影した画像データに人物として識別される画像が含まれていると判断されるとユーザ指示によらずに自動的に画像処理部72により低階調の画像データに変換するように制御する設定を適用できる。   In the present embodiment, the flow for instructing whether or not the user selects the private mode when selecting the external output of the image data is shown, but the present invention is not limited to this. For example, when an input event for selecting external output of image data occurs in step S260 of FIG. 5, in step S265, the control unit 70 includes an image identified as a person in the captured image data. Whether or not the image is identified using the image analysis function of the image processing unit 72 and it is determined that an image identified as a person is included in the photographed image data is automatically processed without a user instruction. A setting for controlling the image data to be converted into low gradation image data by the unit 72 can be applied.

以下、本発明の一実施形態によるウェアラブルデバイスを用いた画像共有システムの構成及びその制御方法を詳細に説明する。   Hereinafter, a configuration of an image sharing system using a wearable device according to an embodiment of the present invention and a control method thereof will be described in detail.

図6は、本発明の一実施形態によるウェアラブルデバイスを用いた画像共有システムの構成を示す図である。   FIG. 6 is a diagram illustrating a configuration of an image sharing system using a wearable device according to an embodiment of the present invention.

図6を参照すると、ユーザ1が装着するウェアラブルデバイス(WD1)101と同型のウェアラブルデバイス(WD2)102及び(WD3)103が、短距離無線通信(例えば、ブルートゥース(登録商標)通信)が可能な範囲内200に存在する。それぞれのウェアラブルデバイス(WD1〜WD3)101〜103は、短距離無線通信をサポートする無線通信部を備えており、ウェアラブルデバイス101(WD1)は、これらの外部ウェアラブルデバイスを自動的に探索し、ユーザ1が所望の接続相手を指定してペアリング(リンクキー交換及びマスタ−スレーブ通信の確立)を行うことで、指定した1つ以上のウェアラブルデバイスと直接データを送受信(共有)する。   Referring to FIG. 6, wearable devices (WD2) 102 and (WD3) 103 of the same type as wearable device (WD1) 101 worn by user 1 can perform short-range wireless communication (for example, Bluetooth (registered trademark) communication). It exists in the range 200. Each of the wearable devices (WD1 to WD3) 101 to 103 includes a wireless communication unit that supports short-range wireless communication. The wearable device 101 (WD1) automatically searches for these external wearable devices, and the user 1 designates a desired connection partner and performs pairing (link key exchange and establishment of master-slave communication), thereby directly transmitting / receiving (sharing) data to / from one or more designated wearable devices.

一方、ウェアラブルデバイス(WD1)101は、短距離無線通信可能範囲外に存在するウェアラブルデバイス(WD4)104に対しては、WiFi通信等を利用して近隣のアクセスポイントAPに接続し、インターネット回線等の通信ネットワーク400を経由して通信する。
また、ウェアラブルデバイス(WD1)101は、同様にWiFi通信を利用してインターネット回線等の通信ネットワーク400に接続されたデータベースサーバ(又はWebサーバ)300等と通信する。
On the other hand, the wearable device (WD1) 101 connects to a nearby access point AP using WiFi communication or the like to the wearable device (WD4) 104 existing outside the short-range wireless communication range, and the Internet line or the like. The communication network 400 is used for communication.
Similarly, wearable device (WD1) 101 communicates with database server (or Web server) 300 or the like connected to communication network 400 such as an Internet line using WiFi communication.

データベースサーバ300は、制御部310、記憶部320、及び通信部330を備え、ウェアラブルデバイス(WD1)101からの要求に応じて、記憶部320に保存されている各種情報やコンテンツデータをウェアラブルデバイス(WD1)101に提供し、又ウェアラブルデバイス101(WD1)から送信された画像データ及び各種データを受信して記憶部320に保存し、ユーザ1が許可した他のウェアラブルデバイス(例えば、WD4)からの要求に応じて、ユーザ1が記憶部320に保存した上記データをウェアラブルデバイス(WD4)104に転送する。   The database server 300 includes a control unit 310, a storage unit 320, and a communication unit 330. In response to a request from the wearable device (WD1) 101, the database server 300 stores various information and content data stored in the storage unit 320 as a wearable device ( WD1) 101, and receives image data and various data transmitted from wearable device 101 (WD1), stores them in storage unit 320, and stores them from other wearable devices (for example, WD4) permitted by user 1. In response to the request, the user 1 transfers the data stored in the storage unit 320 to the wearable device (WD4) 104.

図7は、本発明の一実施形態によるウェアラブルデバイスを用いた画像共有システムの制御方法を示すフローチャートである。   FIG. 7 is a flowchart illustrating a method for controlling an image sharing system using a wearable device according to an embodiment of the present invention.

図6及び図7を参照すると、先ず、ユーザ1がウェアラブルデバイス(WD1)101を装着し、カメラ部20を作動させて外界像の撮影を開始する(ステップS310)と、ウェアラブルデバイス101の制御部70はユーザ1による特定の入力イベントが例えばタッチスイッチ50に対して生成されるか否かを確認する。   6 and 7, first, when the user 1 wears the wearable device (WD1) 101 and activates the camera unit 20 to start capturing an external image (step S310), the control unit of the wearable device 101 is started. 70 confirms whether a specific input event by the user 1 is generated for the touch switch 50, for example.

制御部70は、入力イベントが生成されると、該当入力イベントが撮影画像を共有モードで出力することを選択するための入力イベントであるか否かを確認する(ステップS320)。   When the input event is generated, the control unit 70 confirms whether or not the corresponding input event is an input event for selecting to output the captured image in the sharing mode (step S320).

ここで、共有モードとは、無線通信部82を作動させて短距離無線通信可能範囲内に存在する同型のウェアラブルデバイス(WD2)102又は/及び(WD3)103との通信チャネルを確立し、ユーザ1が撮影している画像データをリアルタイムで接続先のウェアラブルデバイスに送信し、また音声通話を行うモードである。   Here, the shared mode is to establish a communication channel with the wearable device (WD2) 102 and / or (WD3) 103 of the same type existing within the short-range wireless communication range by operating the wireless communication unit 82, 1 is a mode in which image data being photographed is transmitted in real time to a wearable device to be connected and a voice call is made.

制御部70は、撮影画像を共有モードで出力することを選択するための入力イベント発生でない場合、ステップS320の前に戻り、以降の過程を繰り返して行うように制御する。   If the input event for selecting to output the captured image in the sharing mode is not generated, the control unit 70 returns to the step before step S320 and performs control so that the subsequent steps are repeated.

一方、ステップS320で撮影画像を共有モードで出力することを選択するための入力イベントが発生すると、制御部70はステップS330に進んで画像データにプライベートモードを適用するか否かを確認する。   On the other hand, when an input event for selecting to output the captured image in the sharing mode occurs in step S320, the control unit 70 proceeds to step S330 and confirms whether to apply the private mode to the image data.

制御部70は、プライベートモードを適用しない場合、ステップS350に分岐して、撮影した画像データ及び視距離に関するデータを画像投影部10に送出する。
画像投影部10は、受信した画像データ及び視距離に関するデータに基づいて、ユーザ1の眼に視距離に対応する虚像を投影する(ステップS360)。これにより、ユーザ1の眼にはユーザ1の視認する画像がそのまま虚像として投影される。
When the private mode is not applied, the control unit 70 branches to step S350, and sends the captured image data and data relating to the viewing distance to the image projection unit 10.
The image projecting unit 10 projects a virtual image corresponding to the viewing distance onto the eyes of the user 1 based on the received image data and data regarding the viewing distance (step S360). Thereby, the image visually recognized by the user 1 is directly projected as a virtual image on the eyes of the user 1.

一方、ステップS330でプライベートモード適用を指示する入力イベントが発生すると、制御部70は、画像処理部72を制御して撮影した画像データをリアルタイムで画像変換(例えば、二値化処理)する(ステップS340)。   On the other hand, when an input event for instructing private mode application occurs in step S330, the control unit 70 controls the image processing unit 72 to perform image conversion (for example, binarization processing) in real time (step binarization processing). S340).

そして、制御部70は、画像処理部72で画像処理した画像データ(二値画像データ)及び視距離に関するデータを画像投影部10に送出する(ステップS350)。したがって、ユーザ1の眼には二値画像が虚像として投影される(ステップS360)。   Then, the control unit 70 sends the image data (binary image data) image-processed by the image processing unit 72 and data regarding the viewing distance to the image projection unit 10 (step S350). Accordingly, the binary image is projected as a virtual image on the eyes of the user 1 (step S360).

また、制御部70は、画像投影部10に送出した画像データ及び視距離に関するデータを無線通信部82に送出する(ステップS355)。   Further, the control unit 70 sends the image data sent to the image projection unit 10 and the data related to the viewing distance to the wireless communication unit 82 (step S355).

無線通信部82は、ブルートゥース(登録商標)機能を利用して短距離無線通信可能範囲内に存在する外部のウェアラブルデバイス(WD2)102又は/及び(WD3)103に画像データ及び視距離に関するデータを送信する(ステップS370)。   The wireless communication unit 82 uses the Bluetooth (registered trademark) function to send image data and data regarding the viewing distance to the external wearable device (WD2) 102 and / or (WD3) 103 existing within the short-range wireless communication range. Transmit (step S370).

ここで、ユーザ2が装着しているウェアラブルデバイス(WD2)102は、ユーザ1が装着しているウェアラブルデバイス(WD1)と同一の構成を有しているため、受信した上記2つのデータに基づき、ウェアラブルデバイス(WD2)を装着したユーザ2の眼にはユーザ1が視認する画像がユーザ1と同じ視距離に虚像として投影される。したがって、ユーザ1とユーザ2は、仮想的に同じ外景像を共有することが可能になる。   Here, since the wearable device (WD2) 102 worn by the user 2 has the same configuration as the wearable device (WD1) worn by the user 1, based on the two received data, An image visually recognized by the user 1 is projected as a virtual image at the same viewing distance as the user 1 on the eyes of the user 2 wearing the wearable device (WD2). Therefore, the user 1 and the user 2 can virtually share the same outside scene image.

なお、本実施形態では、共有する画像データは、ユーザ1によって画像変換処理を行うか否かが選択される制御方法を示したが、これに限定されない。プライバシー保護及び通信速度の観点からは、二値画像を用いることが望ましく、この場合、撮影した画像に人物が含まれているか否かを画像処理部72の画像解析機能を用いて検査し、撮影した画像に人物が含まれていると判断されるとユーザ指示によらず自動的に画像変換処理を行うようにプログラムすることも可能である。   In the present embodiment, the control method for selecting whether to perform image conversion processing by the user 1 is shown for the image data to be shared. However, the present invention is not limited to this. From the viewpoint of privacy protection and communication speed, it is desirable to use a binary image. In this case, whether or not a person is included in the photographed image is inspected using the image analysis function of the image processing unit 72 and photographed. If it is determined that a person is included in the image, it is possible to program to automatically perform image conversion processing regardless of a user instruction.

その後、制御部70は、共有モード解除の入力イベントが生成されるか否かを確認する(ステップ380)。共有モード解除の入力イベント発生がない場合、ステップS330の前に分岐し、以降のステップを繰り返して行うように制御する。
また、共有モード解除の入力イベントが発生した場合、制御部70は、外部のウェアラブルデバイスへの画像データ送信を停止してステップS320の前に分岐し、以降のステップを繰り返して行うように制御する。
Thereafter, the control unit 70 confirms whether or not an input event for releasing the sharing mode is generated (step 380). If there is no input event for releasing the sharing mode, the process branches to before step S330, and the subsequent steps are repeated.
When an input event for canceling the sharing mode occurs, the control unit 70 controls to stop image data transmission to an external wearable device, branch before step S320, and repeat the subsequent steps. .

図8は、本発明の他の実施形態によるウェアラブルデバイスを用いた画像共有システムの制御方法を示すフローチャートである。   FIG. 8 is a flowchart illustrating a control method of an image sharing system using a wearable device according to another embodiment of the present invention.

図8及び図6を参照すると、先ず、ユーザ1がウェアラブルデバイス(WD1)101を装着すると、電源が供給され、供給された電源を利用してウェアラブルデバイス(WD1)101の制御部70は起動を完了し、動作モードに応じた画像を画像投影部10に出力する。その後、制御部70は無線通信部82に外部ユーザからの呼出による入力イベントが受信されるか否かを確認する。例えば、ブルートゥース(登録商標)通信機能を作動させて、外部のウェアラブルデバイスからの探索を可能な状態に設定する。   Referring to FIGS. 8 and 6, first, when the user 1 wears the wearable device (WD1) 101, power is supplied, and the control unit 70 of the wearable device (WD1) 101 starts up using the supplied power. After completion, an image corresponding to the operation mode is output to the image projection unit 10. Thereafter, the control unit 70 confirms whether or not an input event due to a call from an external user is received by the wireless communication unit 82. For example, the Bluetooth (registered trademark) communication function is activated, and a search from an external wearable device is set to a possible state.

制御部70は、無線通信部82に対する外部のウェアラブルデバイス(WD2)102からの呼出による入力イベントが生成されると(ステップS410)、該当する呼出に応答するか否かを確認する(ステップS420)。   When an input event is generated by a call from the external wearable device (WD2) 102 to the wireless communication unit 82 (step S410), the control unit 70 checks whether or not to respond to the corresponding call (step S420). .

ユーザ1が該当する呼出に応答しないよう指示した場合、制御部70は、無線通信部82が応答しないように制御して、ステップS420に戻り、以後のステップを繰り返す。   When the user 1 instructs not to answer the corresponding call, the control unit 70 controls the wireless communication unit 82 not to answer, returns to step S420, and repeats the subsequent steps.

一方、ステップS420でユーザ1が該当する呼出に応答することを許可した場合、制御部70は、無線通信部82を制御して、外部のウェアラブルデバイス(WD2)102との通信チャネルを確立し、外部のウェアラブルデバイス(WD2)102から送信された各種データを受信する。   On the other hand, when the user 1 is permitted to answer the corresponding call in step S420, the control unit 70 controls the wireless communication unit 82 to establish a communication channel with the external wearable device (WD2) 102, Various data transmitted from the external wearable device (WD2) 102 is received.

ウェアラブルデバイス(WD1)101の制御部70は、外部のウェアラブルデバイス(WD2)102から送信された各種データの内容を分析して、対応する処理を実行するように制御する(ステップS430)。   The control unit 70 of the wearable device (WD1) 101 analyzes the contents of various data transmitted from the external wearable device (WD2) 102 and performs control to execute corresponding processing (step S430).

受信した各種データの中に画像データが含まれる場合、制御部70は受信した画像データを画像投影部10に送出する。これと同時に、制御部70は受信した視距離に関するデータを画像投影部10に送出する(ステップS440)。   When image data is included in the various received data, the control unit 70 sends the received image data to the image projection unit 10. At the same time, the control unit 70 sends the received data relating to the viewing distance to the image projection unit 10 (step S440).

画像投影部10は、受信した画像データ及び視距離に関するデータに基づき、ユーザ1の眼に、外部のウェアラブルデバイス(WD2)102を装着するユーザ2が視認する距離に対応する位置に虚像が表示されるよう画像光を投影する(ステップS450)。   The image projection unit 10 displays a virtual image at a position corresponding to the distance visually recognized by the user 2 wearing the external wearable device (WD2) 102 on the eyes of the user 1 based on the received image data and data on the viewing distance. Then, the image light is projected (step S450).

また、制御部70は、受信した各種データに音声データが含まれる場合、該当する音声データをオーディオ処理部83に送出する(ステップS460)。   In addition, when the received various data includes audio data, the control unit 70 sends the corresponding audio data to the audio processing unit 83 (step S460).

オーディオ処理部83は、音声データをアナログ信号に変換してイヤホン40を通してユーザ1の耳に再生する(ステップS470)。   The audio processing unit 83 converts the audio data into an analog signal and reproduces it to the ear of the user 1 through the earphone 40 (step S470).

その後、制御部70は、ユーザ1による特定の入力イベントが生成されるか否かを確認する。ウェアラブルデバイス(WD2)102との通信を終了するための入力イベント発生がない場合、ステップS430の前に分岐し、以降のステップを繰り返して行うように制御する。
また、通信終了を指示する入力イベントが発生した場合、制御部70は、無線通信部82による通信を停止してステップS420の前に分岐し、以降のステップを繰り返して行うように制御する。
Thereafter, the control unit 70 confirms whether or not a specific input event by the user 1 is generated. If there is no occurrence of an input event for ending communication with the wearable device (WD2) 102, control is performed so as to branch before step S430 and repeat the subsequent steps.
Further, when an input event for instructing the end of communication occurs, the control unit 70 controls to stop communication by the wireless communication unit 82, branch before step S420, and repeat the subsequent steps.

図9は、本発明の更に他の実施形態によるウェアラブルデバイスを用いた画像共有システムの制御方法を示すフローチャートである。   FIG. 9 is a flowchart illustrating a control method of an image sharing system using a wearable device according to still another embodiment of the present invention.

図9及び図6を参照すると、先ず、ユーザ1がウェアラブルデバイス(WD1)101を装着して、カメラ部20を作動させて外界像の撮影する(ステップS510)と、制御部70はユーザ1による特定の入力イベントが例えばタッチスイッチ50に対して生成されるか否かを確認する。   Referring to FIG. 9 and FIG. 6, first, when the user 1 wears the wearable device (WD1) 101 and operates the camera unit 20 to capture an external image (step S510), the control unit 70 is controlled by the user 1. It is confirmed whether or not a specific input event is generated for the touch switch 50, for example.

制御部70は、入力イベントが生成されると、該当入力イベントが撮影画像を、外部サーバを介して転送するモードを選択するための入力イベントであるか否かを確認する(ステップS520)。ここで、撮影画像を、外部サーバを介して転送するモードとは、ユーザ1が撮影している画像データを短距離無線通信可能範囲外に存在するウェアラブルデバイス(WD4)104に対して転送するモードである。   When the input event is generated, the control unit 70 confirms whether or not the input event is an input event for selecting a mode for transferring a captured image via an external server (step S520). Here, the mode in which the captured image is transferred via the external server is a mode in which the image data captured by the user 1 is transferred to the wearable device (WD4) 104 existing outside the short-range wireless communication range. It is.

制御部70は、撮影画像を、外部サーバを介して転送するモードを選択するための入力イベント発生でない場合、ステップS520の前に戻り、以降の過程を繰り返して行うように制御する。   If the input event for selecting the mode for transferring the captured image via the external server has not occurred, the control unit 70 returns to step S520 and controls to repeat the subsequent steps.

一方、ステップS520で撮影画像を、外部サーバを介して転送するモードを選択する入力イベントが発生すると、制御部70はステップS530に進んで画像データにプライベートモードを適用するか否かを確認する。   On the other hand, when an input event for selecting a mode for transferring a captured image via an external server occurs in step S520, the control unit 70 proceeds to step S530 and confirms whether to apply the private mode to the image data.

制御部70は、プライベートモードを適用しない場合、ステップS550に分岐し、撮影した画像データ及び視距離に関するデータを画像投影部10に送出する。
画像投影部10は、上記の画像データ及び視距離に関するデータに基づいて、ユーザ1の眼に視距離に対応する虚像を投影する(ステップS560)。これにより、ユーザ1の眼にはユーザ1の視認する画像がそのまま投影される。
When the private mode is not applied, the control unit 70 branches to step S550, and sends the captured image data and data related to the viewing distance to the image projection unit 10.
The image projection unit 10 projects a virtual image corresponding to the viewing distance onto the eyes of the user 1 based on the image data and the data related to the viewing distance (step S560). Thereby, the image visually recognized by the user 1 is projected as it is onto the eyes of the user 1.

一方、ステップS530でプライベートモード適用を指示する入力イベントが発生すると、制御部70は、画像処理部72を制御して撮影した画像データをリアルタイムで画像変換(例えば、二値化処理)する(ステップS540)。   On the other hand, when an input event for instructing private mode application occurs in step S530, the control unit 70 controls the image processing unit 72 to perform image conversion (for example, binarization processing) in real time (step binarization processing). S540).

そして、制御部70は、画像処理部72で処理した画像データ(二値画像データ)及び視距離に関するデータを画像投影部10に送出する(ステップS550)。したがって、ユーザ1の眼には二値画像が虚像として投影される(ステップS560)。   Then, the control unit 70 sends the image data (binary image data) processed by the image processing unit 72 and data relating to the viewing distance to the image projection unit 10 (step S550). Accordingly, the binary image is projected as a virtual image on the eyes of the user 1 (step S560).

また、制御部70は、画像投影部10に送出した画像データ及び視距離に関するデータを無線通信部82に送出する(ステップS555)。   Further, the control unit 70 sends the image data sent to the image projection unit 10 and the data related to the viewing distance to the wireless communication unit 82 (step S555).

無線通信部82は、WiFi(登録商標)機能を利用して近隣のアクセスポイントAPに接続し、インターネット回線等の通信ネットワーク400を経由してウェアラブルデバイス(WD4)104及び外部データサーバ300との通信を確立する。   The wireless communication unit 82 connects to a nearby access point AP using a WiFi (registered trademark) function, and communicates with the wearable device (WD4) 104 and the external data server 300 via a communication network 400 such as an Internet line. Establish.

次に、ウェアラブルデバイス(WD1)101は、画像データ及び視距離に関するデータを外部データサーバに送信する(ステップS570)。
外部データサーバ300は、ウェアラブルデバイス(WD1)101から送信されたデータを記憶部320に保存し、ウェアラブルデバイス(WD4)104が、サーバ300から上記保存されたデータをダウンロードすることにより、データの転送が完了する。
ここで、ウェアラブルデバイス(WD1)101、(WD4)104、及び外部データサーバ300は、それぞれMACアドレスを有し、TCP/IPプロトコルに基づいて通信する。
Next, wearable device (WD1) 101 transmits image data and data relating to the viewing distance to the external data server (step S570).
The external data server 300 stores the data transmitted from the wearable device (WD1) 101 in the storage unit 320, and the wearable device (WD4) 104 downloads the stored data from the server 300, thereby transferring the data. Is completed.
Here, wearable devices (WD1) 101, (WD4) 104, and external data server 300 each have a MAC address and communicate based on the TCP / IP protocol.

また、ユーザ4が装着しているウェアラブルデバイス(WD4)104は、ユーザ1が装着しているウェアラブルデバイス(WD1)と同一の構成を有しているため、受信した画像データ及び視距離に関するデータに基づき、ウェアラブルデバイス(WD4)を装着したユーザ4の眼にはユーザ1が視認する画像がユーザ1と同じ視距離に虚像として投影される。したがって、ユーザ1とユーザ4は、仮想的に同じ外景像を共有することが可能になる。   Further, since the wearable device (WD4) 104 worn by the user 4 has the same configuration as the wearable device (WD1) worn by the user 1, the received image data and data relating to the viewing distance are included. Based on this, an image visually recognized by the user 1 is projected as a virtual image at the same viewing distance as the user 1 on the eyes of the user 4 wearing the wearable device (WD4). Therefore, the user 1 and the user 4 can virtually share the same outside scene image.

その後、制御部70は、外部データサーバを介して転送するモード解除の入力イベントが生成されるか否かを確認する(ステップS580)。外部データサーバを介して転送するモード解除のための入力イベント発生がない場合、ステップS530の前に分岐し、以降のステップを繰り返して行うように制御する。
一方、外部サーバを介して転送するモード解除の入力イベントが発生した場合、外部データサーバへの画像データ送信を停止してステップS520の前に分岐し、以降のステップを繰り返して行うように制御する。
Thereafter, the control unit 70 checks whether or not a mode release input event to be transferred via the external data server is generated (step S580). If there is no occurrence of an input event for canceling the mode to be transferred via the external data server, control is performed so as to branch before step S530 and repeat the subsequent steps.
On the other hand, when an input event for canceling the mode to be transferred via the external server occurs, control is performed so that image data transmission to the external data server is stopped and branched before step S520, and the subsequent steps are repeated. .

以上、本発明の実施形態について図面を参照しながら詳細に説明したが、本発明は、上述の実施形態に限定されるものではなく、本発明の技術的範囲から逸脱しない範囲内で多様に変更実施することが可能である。   As mentioned above, although embodiment of this invention was described in detail, referring drawings, this invention is not limited to the above-mentioned embodiment, In the range which does not deviate from the technical scope of this invention, it changes variously. It is possible to implement.

10 画像投影部
11 表示部
12 光学モジュール
13 測距部
14 プリズム
15 補正レンズ
16 投影距離調整部
20 カメラ部
30 マイク
40 イヤホン
50 タッチスイッチ
60 筐体
70、310 制御部
71 CPU
72 画像処理部
73 入出力制御部
81 視野変動検出部
82 無線通信部
83 オーディオ処理部
84、320 記憶部
85 バッテリー
90 筐体
100、101、102、103、104 ウェアラブルデバイス
200 短距離無線通信が可能な範囲内
300 データサーバ
330 通信部
400 通信ネットワーク
DESCRIPTION OF SYMBOLS 10 Image projection part 11 Display part 12 Optical module 13 Distance measurement part 14 Prism 15 Correction lens 16 Projection distance adjustment part 20 Camera part 30 Microphone 40 Earphone 50 Touch switch 60 Case 70, 310 Control part 71 CPU
72 Image processing unit 73 Input / output control unit 81 Field of view fluctuation detection unit 82 Wireless communication unit 83 Audio processing unit 84, 320 Storage unit 85 Battery 90 Case 100, 101, 102, 103, 104 Wearable device 200 Short-range wireless communication is possible Within 300 range Data server 330 Communication unit 400 Communication network

Claims (7)

ユーザの頭部に装着され、該ユーザに対して画像データに基づく画像光による画像が外界の視野像とともにユーザに視認されるディスプレイを備えたウェアラブルデバイスであって、
ユーザが視認する外界像を撮影するカメラ部と、
ユーザの眼から注視点までの距離である視距離を測定する測距部と、
前記カメラ部によりユーザが視認する外界像を撮影した画像データ及び該撮影した画像データに対応して測定されたユーザの視距離の測定データに基づき、前記ユーザが視認する外界像を撮影した画像データによる画像光を前記測定されたユーザの視距離に視認される虚像としてユーザの眼に投影する画像投影部と、
ウェアラブルデバイスを制御しウェアラブルデバイスとして機能させるためのプログラム及び各種データを保存する記憶部と、
前記カメラ部によりユーザが視認する外界像を撮影した画像データをリアルタイムで画像処理する画像処理部と、
ユーザ間で情報交換する機能を有する外部機器と音声通話チャネル、文字データ通信チャネル、及び画像データ通信チャネルを形成して、データを送受信する無線通信部と、
前記それぞれの構成要素の動作を制御する制御部と、を備え、
前記画像処理部は、
前記カメラ部によりユーザが視認する外界像を撮影した画像データに人物として識別される画像が含まれているか否かを判断する手段を更に有し、
前記制御部は、
前記カメラ部によりユーザが視認する外界像を撮影した画像データを、前記無線通信部を介して前記外部機器の中のユーザが指定する少なくとも1つに送信する場合、前記画像処理部により前記撮影した画像データに人物として識別される画像が含まれていると判断されると、ユーザ指示によらず自動的に前記撮影した画像データを前記画像処理部によりリアルタイムで個人特定が困難な低階調の画像データに変換して前記外部機器に送信するように制御することを特徴とするウェアラブルデバイス。
A wearable device that includes a display that is mounted on a user's head and allows the user to view an image of image light based on image data together with a visual field image of the outside world.
A camera unit that captures an external image visually recognized by the user;
A distance measuring unit that measures a visual distance that is a distance from the user's eye to the gazing point;
Image data obtained by photographing the external image viewed by the user based on image data obtained by photographing the external image visually recognized by the user by the camera unit and measurement data of the viewing distance of the user measured corresponding to the photographed image data. An image projection unit that projects the image light on the user's eyes as a virtual image visually recognized at the measured viewing distance of the user;
A storage unit for storing a program and various data for controlling the wearable device to function as a wearable device;
An image processing unit that performs real-time image processing on image data obtained by capturing an external image visually recognized by the user with the camera unit;
A wireless communication unit that transmits and receives data by forming a voice call channel, a character data communication channel, and an image data communication channel with an external device having a function of exchanging information between users ;
A control unit for controlling the operation of each of the components,
The image processing unit
And further comprising means for determining whether or not an image identified as a person is included in image data obtained by capturing an external image visually recognized by the user by the camera unit,
The controller is
The image data obtained by photographing the external image visually recognized by the user by the camera unit, when transmitting said at least one to the user specified in the external device via the wireless communication unit, and the captured by the image processing unit When it is determined that the image data includes an image that is identified as a person, the image processing unit automatically converts the captured image data into a low gradation that is difficult to identify in real time by the image processing unit. A wearable device that controls to convert to image data and transmit the image data to the external device.
前記カメラ部によりユーザが視認する外界像を撮影した画像データを前記画像処理部により低階調の画像データに変換する処理は、二値化処理または三値化処理であることを特徴とする請求項1に記載のウェアラブルデバイス。   The process of converting image data obtained by capturing an external image visually recognized by a user with the camera unit into low-gradation image data with the image processing unit is a binarization process or a ternary process. The wearable device according to Item 1. 前記外部機器が、ユーザが装着するウェアラブルデバイスと同一構成のウェアラブルデバイスである場合、前記カメラ部によりユーザが視認する外界像を撮影した画像データとともに該画像データに対応して測定されたユーザの視距離の測定データを送信することを特徴とする請求項1又は2に記載のウェアラブルデバイス。   When the external device is a wearable device having the same configuration as the wearable device worn by the user, the user's view measured corresponding to the image data together with image data obtained by capturing an external image visually recognized by the user by the camera unit. The wearable device according to claim 1, wherein distance measurement data is transmitted. ユーザの頭部に装着され、該ユーザに対して画像データに基づく画像光による画像が外界の視野像とともにユーザに視認されるディスプレイを備えたウェアラブルデバイスの制御方法であって、
カメラ部によりユーザが視認する外界像を撮影するステップと、
測距部によりユーザの眼から注視点までの距離である視距離を測定するステップと、
画像投影部により前記カメラ部によりユーザが視認する外界像を撮影した画像データ及び該撮影した画像データに対応して測定されたユーザの視距離の測定データに基づき、前記ユーザが視認する外界像を撮影した画像データによる画像光を前記測定されたユーザの視距離に視認される虚像としてユーザの眼に投影するステップと、
前記カメラ部によりユーザが視認する外界像を撮影した画像データを、無線通信部を介してユーザ間で情報交換する機能を有する外部機器の中のユーザが指定する少なくとも1つに送信するステップと、を有し、
前記カメラ部によりユーザが視認する外界像を撮影した画像データを、前記無線通信部を介して前記外部機器の中のユーザが指定する少なくとも1つに送信するステップは、
前記カメラ部によりユーザが視認する外界像を撮影した画像データに人物として識別される画像が含まれているか否かを判断するステップを更に有し、
前記撮影した画像データに人物として識別される画像が含まれていると判断されると、
ユーザ指示によらず自動的に前記撮影した画像データを画像処理部によりリアルタイムで個人特定が困難な低階調の画像データに変換して送信するステップを含むことを特徴とするウェアラブルデバイスの制御方法。
A control method for a wearable device comprising a display that is mounted on a user's head and allows the user to view an image of image light based on image data together with a visual field image of the outside world.
Photographing an external image visually recognized by the user with the camera unit;
Measuring a viewing distance, which is a distance from the user's eye to the gazing point, by a distance measuring unit;
Based on the image data obtained by photographing the external image visually recognized by the user by the camera unit by the image projection unit and the measurement data of the viewing distance of the user measured corresponding to the photographed image data, the external image viewed by the user is obtained. Projecting image light from the captured image data onto the user's eyes as a virtual image viewed at the measured user viewing distance;
Transmitting image data obtained by capturing an external image visually recognized by the user by the camera unit to at least one designated by a user in an external device having a function of exchanging information between users via a wireless communication unit; Have
The image data obtained by photographing the external image visually recognized by the user by the camera unit, wherein the step of transmitting at least one designated by the user in the external device via the wireless communication unit,
Further comprising the step of determining whether or not an image identified as a person is included in the image data obtained by capturing an external image visually recognized by the user by the camera unit;
When it is determined that the photographed image data includes an image identified as a person,
The method of the wearable device, characterized in that it comprises the step of personally identifiable in real time and transmits the converted to the image data of the hard low-gradation image data obtained by automatically the shot regardless of the user's instruction by the image processing unit .
前記カメラ部によりユーザが視認する外界像を撮影した画像データを低階調の画像データに変換する処理は、二値化処理または三値化処理であることを特徴とする請求項4に記載のウェアラブルデバイスの制御方法。   5. The process of converting image data obtained by capturing an external image visually recognized by the user with the camera unit into low-gradation image data is a binarization process or a ternary process. Wearable device control method. 前記カメラ部によりユーザが視認する外界像を撮影した画像データを、前記無線通信部を介してユーザが指定する少なくとも1つの前記外部機器に送信するステップは、
前記外部機器が、ユーザが装着するウェアラブルデバイスと同一構成のウェアラブルデバイスである場合、前記カメラ部によりユーザが視認する外界像を撮影した画像データとともに該画像データに対応して測定されたユーザの視距離の測定データを送信するステップを含むことを特徴とする請求項4又は5に記載のウェアラブルデバイス。
Transmitting the image data obtained by photographing the external image visually recognized by the user by the camera unit, at least one of the external device user to specify via the wireless communication unit,
When the external device is a wearable device having the same configuration as the wearable device worn by the user, the user's view measured corresponding to the image data together with image data obtained by capturing an external image visually recognized by the user by the camera unit. The wearable device according to claim 4, further comprising a step of transmitting distance measurement data.
請求項3に記載のウェアラブルデバイスを複数備え、複数のウェアラブルデバイスに接続された外部データサーバを更に含む画像共有システムであって、
前記ウェアラブルデバイスは、
前記ウェアラブルデバイスに搭載されたカメラ部によりユーザが視認する外界像を撮影した画像データ及び該画像データに対応して測定されたユーザの視距離の測定データを前記外部データサーバに通信ネットワークを介して送受信するための無線通信部を備え、
前記外部データサーバは、
前記複数のウェアラブルデバイスとデータの送受信を行う通信部と、
前記ウェアラブルデバイスから受信したデータを保存する記憶部と、
前記複数のウェアラブルデバイスのうちの第1のウェアラブルデバイスから送信される第1のウェアラブルデバイスのユーザが視認する外界像を撮影した画像データを前記第1のウェアラブルデバイスの画像処理部で処理した画像データ及び前記撮影した画像データに対応して測定されたユーザの視距離の測定データを受信して前記記憶部に保存し、前記複数のウェアラブルデバイスうちの第2のウェアラブルデバイスからの要求に応じて前記記憶部に保存された前記第1のウェアラブルデバイスのユーザが視認する外界像を撮影した画像データを前記第1のウェアラブルデバイスの画像処理部で処理した画像データ及び前記撮影した画像データに対応して測定されたユーザの視距離の測定データを前記要求のあった第2のウェアラブルデバイスに送信する制御部と、を備えることを特徴とする画像共有システム。

An image sharing system comprising a plurality of wearable devices according to claim 3, further comprising an external data server connected to the plurality of wearable devices,
The wearable device is:
Image data obtained by capturing an external image visually recognized by a user with a camera unit mounted on the wearable device, and measurement data of a user's viewing distance measured corresponding to the image data are transmitted to the external data server via a communication network. A wireless communication unit for transmitting and receiving,
The external data server is
A communication unit for transmitting and receiving data to and from the plurality of wearable devices;
A storage unit for storing data received from the wearable device;
Image data obtained by processing image data obtained by capturing an external image visually recognized by the user of the first wearable device transmitted from the first wearable device among the plurality of wearable devices by the image processing unit of the first wearable device And the measurement data of the user's viewing distance measured corresponding to the captured image data is received and stored in the storage unit, and in response to a request from a second wearable device among the plurality of wearable devices Corresponding to the image data processed by the image processing unit of the first wearable device and the captured image data of the image data captured by the user of the first wearable device stored in the storage unit and viewed by the user The measurement data of the measured viewing distance of the user is sent to the second wearable device that has made the request. Image sharing system, characterized in that it comprises a control unit, the to be transmitted to the scan.

JP2014092058A 2013-05-22 2014-04-25 Wearable device having privacy protection function of captured image, control method thereof, and image sharing system Active JP5955348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014092058A JP5955348B2 (en) 2013-05-22 2014-04-25 Wearable device having privacy protection function of captured image, control method thereof, and image sharing system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013107608 2013-05-22
JP2013107608 2013-05-22
JP2014092058A JP5955348B2 (en) 2013-05-22 2014-04-25 Wearable device having privacy protection function of captured image, control method thereof, and image sharing system

Publications (2)

Publication Number Publication Date
JP2015005972A JP2015005972A (en) 2015-01-08
JP5955348B2 true JP5955348B2 (en) 2016-07-20

Family

ID=52301496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014092058A Active JP5955348B2 (en) 2013-05-22 2014-04-25 Wearable device having privacy protection function of captured image, control method thereof, and image sharing system

Country Status (1)

Country Link
JP (1) JP5955348B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5420793B1 (en) * 2013-09-10 2014-02-19 テレパシー インク Head-mounted display with adjustable image viewing distance
WO2016117061A1 (en) * 2015-01-22 2016-07-28 株式会社野村総合研究所 Wearable terminal and information processing system using same
JP6367166B2 (en) 2015-09-01 2018-08-01 株式会社東芝 Electronic apparatus and method
JP2017118168A (en) * 2015-12-21 2017-06-29 サンリツオートメイション株式会社 Video management device, video management method and program
KR20180100329A (en) * 2016-02-10 2018-09-10 미폰 벤쳐스 인코포레이티드 User authentication and registration of wearable devices using biometrics
NZ744822A (en) * 2016-02-11 2020-01-31 Magic Leap Inc Multi-depth plane display system with reduced switching between depth planes
JP6729412B2 (en) 2017-01-18 2020-07-22 富士通株式会社 Data output control device, information processing device, and data output control method
JP2019197564A (en) * 2019-07-03 2019-11-14 株式会社東芝 Wearable terminal, system, and method

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09211376A (en) * 1996-01-31 1997-08-15 Nissan Motor Co Ltd Head mounted display device
JP3931393B2 (en) * 1997-09-04 2007-06-13 ソニー株式会社 Camera-integrated video recorder and photographing method
JP2001052270A (en) * 1999-08-10 2001-02-23 Tokyu Community Corp Remote monitor system
JP2001136514A (en) * 1999-11-01 2001-05-18 Canon Inc Camera control system, and control method and storage medium thereof
JP2002027425A (en) * 2000-07-04 2002-01-25 Canon Inc Image distribution device and method therefor
JP2002281486A (en) * 2001-03-16 2002-09-27 Dd Marketing:Kk System for acquiring image
JP3838506B2 (en) * 2001-11-13 2006-10-25 松下電器産業株式会社 Communication method and apparatus using image
JP2004228808A (en) * 2003-01-21 2004-08-12 Canon Inc Photographing device
JP2006308674A (en) * 2005-04-26 2006-11-09 Mitsubishi Electric Corp Image display device
JP2007235239A (en) * 2006-02-27 2007-09-13 Matsushita Electric Ind Co Ltd Image processing apparatus, image display apparatus and image processing method
SE532236C2 (en) * 2006-07-19 2009-11-17 Scalado Ab Method in connection with taking digital pictures
JP2009021914A (en) * 2007-07-13 2009-01-29 Sony Corp Imaging display system, imaging display device, and control method of imaging display device
JP5063396B2 (en) * 2008-02-12 2012-10-31 キヤノン株式会社 IMAGING DEVICE, IMAGE PROCESSING DEVICE, IMAGING DEVICE CONTROL METHOD, IMAGE PROCESSING METHOD, PROGRAM, AND STORAGE MEDIUM
JP2011039647A (en) * 2009-08-07 2011-02-24 Sony Corp Device and method for providing information, terminal device, information processing method, and program
JP5509986B2 (en) * 2010-03-26 2014-06-04 沖電気工業株式会社 Image processing apparatus, image processing system, and image processing program

Also Published As

Publication number Publication date
JP2015005972A (en) 2015-01-08

Similar Documents

Publication Publication Date Title
JP5955348B2 (en) Wearable device having privacy protection function of captured image, control method thereof, and image sharing system
US9423619B2 (en) Head mounted display and method of outputting a content using the same in which the same identical content is displayed
US11223718B2 (en) Communication control device, method of controlling communication, and program
JP6428268B2 (en) Image display device, image display method, and image display system
US20160133051A1 (en) Display device, method of controlling the same, and program
US9792710B2 (en) Display device, and method of controlling display device
US20160165220A1 (en) Display apparatus and method of controlling display apparatus
KR102088020B1 (en) A head mounted display ant the method of controlling thereof
US20130107062A1 (en) Image communication apparatus and imaging apparatus
US20150168729A1 (en) Head mounted display device
KR102056221B1 (en) Method and apparatus For Connecting Devices Using Eye-tracking
JPH086708A (en) Display device
WO2021013009A1 (en) Photographing method and terminal device
US9924087B2 (en) Information terminal apparatus, information acquisition apparatus, information support method, and recording medium recording information support program
JP6750697B2 (en) Information processing apparatus, information processing method, and program
JP2017102516A (en) Display device, communication system, control method for display device and program
JP2018067773A (en) Imaging device, control method thereof, program, and storage medium
US20230076335A1 (en) Remote control system, and remote operation apparatus, video image processing apparatus, and computer-readable medium
US9319980B1 (en) Efficient digital image distribution
US11327576B2 (en) Information processing apparatus, information processing method, and program
JP2019146118A (en) Communication device, communication method, communication program, and communication system
JP2022144581A (en) Display system, display device, and control method for display device
US20150220506A1 (en) Remote Document Annotation
JP6540004B2 (en) Display device and control method of display device
JP2015136030A (en) Imaging apparatus and electronic apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150603

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20150610

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20151002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160614

R150 Certificate of patent or registration of utility model

Ref document number: 5955348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250