JP2016115125A - Wearable search system - Google Patents

Wearable search system Download PDF

Info

Publication number
JP2016115125A
JP2016115125A JP2014252990A JP2014252990A JP2016115125A JP 2016115125 A JP2016115125 A JP 2016115125A JP 2014252990 A JP2014252990 A JP 2014252990A JP 2014252990 A JP2014252990 A JP 2014252990A JP 2016115125 A JP2016115125 A JP 2016115125A
Authority
JP
Japan
Prior art keywords
search
wearable
image
user
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014252990A
Other languages
Japanese (ja)
Other versions
JP6516464B2 (en
Inventor
剣明 呉
Jiangming Wu
剣明 呉
加藤 恒夫
Tsuneo Kato
恒夫 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2014252990A priority Critical patent/JP6516464B2/en
Publication of JP2016115125A publication Critical patent/JP2016115125A/en
Application granted granted Critical
Publication of JP6516464B2 publication Critical patent/JP6516464B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a wearable search system configured to search for an image with less power consumption, in indoor and outdoor use, only by intuitive action, without requiring voice or complicated operation.SOLUTION: A wearable search system includes a wearable computer 2 having a transparent display and a wearable action sensor 1. The wearable action sensor 1 identifies a search request action of a user, and transmits a start request to the wearable computer. The wearable computer 2 has a camera function for displaying a camera image on the transparent display, biases the camera function in response to the start request from the wearable action sensor 1, recognizes a hand area on the camera image, extracts a search image from a search image range having a predetermined positional relationship with the hand area, transmits a search request including the search image to an image recognition server 3 to execute searching, and overlay-displays a search result transmitted from the image recognition server 3 on the transparent display.SELECTED DRAWING: Figure 1

Description

本発明は、カメラ画像から検索対象を抽出して画像検索を実行し、ウェアラブルコンピュータの透過型ディスプレイに検索結果を表示するウェアラブル検索システムに係り、特に、ユーザの検索要求動作を検知してカメラ撮影を伴う画像検索を開始するウェアラブル検索システムに関する。   The present invention relates to a wearable search system that extracts a search target from a camera image, executes an image search, and displays a search result on a transparent display of a wearable computer. The present invention relates to a wearable search system for starting an image search involving a message.

スマートフォンの普及に伴い、ユーザはいつでもどこでも情報を手軽に取得できるようになった。しかしながら、スマートフォンの操作は難しくはないものの、画像検索を実行するたびに画面表示をオンにしたり、カメラやアプリケーションを起動させたりするなどの操作が必要である。   With the spread of smartphones, users can easily obtain information anytime and anywhere. However, although it is not difficult to operate the smartphone, it is necessary to perform operations such as turning on the screen display or starting a camera or an application each time an image search is executed.

例えば、電気店で新商品の詳細を調査したいとき、スマートフォンをポケットから取り出して画面表示をオンにしてからブラウザを立ち上げて商品名を入力したり、カメラを起動してQRコード(登録商標)を撮影したり、といった操作手順が必要である。   For example, when you want to investigate the details of a new product at an electronics store, take out the smartphone from the pocket and turn on the screen display, then launch the browser and enter the product name, or start the camera and QR code (registered trademark) An operation procedure such as shooting is required.

一方、近年になって常時着用できるスカウタータイプの透過型HMDが注目され、ユーザの視線を遮蔽せずに視界の中の小さなディスプレイを通して様々なコンテンツを表示し、よりタイムリーに情報を検索することが可能になった。   On the other hand, in recent years, scouter-type transmissive HMD that can be worn all the time has attracted attention, and various contents can be displayed through a small display in the field of view without blocking the user's line of sight, and information can be searched more timely. Became possible.

特許文献1には、このような透過型HMDとして、Google社のGoogle Glass(登録商標)が開示されている。「Google Glass」では、音声入出力を扱える対話インタフェースとタッチ操作の併用が勧められている。例えば、「OK,glass」という掛け声でグラスの画面をオンにし、音声コマンドを読み上げつつ、メガネのツル部分にあるタッチパッドを触って画面上の選択・確定アクションを行う。   Patent Document 1 discloses Google Glass (registered trademark) of Google Inc. as such a transmission type HMD. In "Google Glass", it is recommended to use a dialogue interface that can handle voice input and output and touch operation. For example, the screen of the glass is turned on with a shout of “OK, glass”, and the selection / confirmation action on the screen is performed by touching the touch pad on the temple of the glasses while reading out the voice command.

非特許文献1には、メガネのレンズのような近距離に配置された導光板に映像を投影し、映像をメガネの表面に表示しながら外の様子をシースルーで見ることが可能な光学透過型HMDの「MOVERIO」が開示されている。こうしたデバイスを利用すれば、視界を確保するとともに、視界上に実在する検索対象についての関連情報をHMD上に付加表示することが可能になる。   Non-Patent Document 1 discloses an optical transmission type in which an image is projected onto a light guide plate arranged at a short distance, such as a lens of glasses, and the outside can be seen through while displaying the image on the surface of the glasses. HMD's “MOVERIO” is disclosed. By using such a device, it is possible to secure a field of view and additionally display related information on a search target that exists in the field of view on the HMD.

特許文献2には、透過型HMDのカメラを用いて、画像認識で特定された視界上の対象物に関連情報を付加して提示する方式が開示されている。しかし、「MOVERIO」では、音声インタフェースを提供しておらず、画面のスイッチONやメガネとケーブルで繋いでいるタッチパネルのリモコンによる操作が必須である。   Patent Document 2 discloses a method of adding and presenting related information to an object on a field of view specified by image recognition using a transmissive HMD camera. However, “MOVERIO” does not provide an audio interface, and operation with a remote control on the touch panel connected to the screen switch ON or glasses with a cable is essential.

特許文献3には、透過型HMDを着用したユーザに対して、ユーザの位置および進行方向に応じた情報を提示する方式が開示されている。この方式では、GPSによりユーザ位置を特定したうえで、進行方向の直行方向を含まない第一の判定エリアの対象物、進行方向の直行方向を含む第二の判定エリアのそれぞれに対して関連情報を提供することができる。また、この方式はプッシュ型なので、画面のスイッチON以外の操作は不要である。   Patent Document 3 discloses a method of presenting information corresponding to a user's position and traveling direction to a user wearing a transmissive HMD. In this method, after identifying the user position by GPS, the relevant information for each object in the first determination area that does not include the direct direction of the traveling direction, and each of the second determination area that includes the direct direction of the traveling direction Can be provided. In addition, since this method is a push type, no operation other than the switch ON of the screen is required.

United States Patent Application No.0130044042United States Patent Application No.0130044042 特許第05215211号公報Japanese Patent No. 05215211 特開2012-78224号公報JP 2012-78224

シースルー型HMD Epson MOVERIO(セイコーエプソン株式会社)http://www.epson.jp/products/moverio/See-through HMD Epson MOVERIO (Seiko Epson Corporation) http://www.epson.jp/products/moverio/

Google Glassのユーザテスト結果によれば、公衆の場でデバイスに対して一々声を出して情報の確認を行うことに対する抵抗感が明らかになっている。また、カメラの撮影や写真の選択などにおいて音声にタッチ操作を併用する際、目に見えないツルの適所をタッチしたり、左右に動かしたり、上から下になぞったり、といった操作は直感的ではなく、煩雑であるという指摘も明らかになっている。   According to Google Glass user test results, there is a sense of resistance to verifying information aloud to devices in public. Also, when using touch operations on voice when shooting with a camera or selecting photos, it is not intuitive to touch an appropriate place on an invisible vine, move left or right, or trace from top to bottom. There is no indication that it is complicated.

非特許文献1の「MOVERIO」によれば、視界中の対象物に対してその関連情報を付加表示する情報提示を実現できる。しかしながら、ユーザの視界上において複数の対象物が混在する場合に認識対象を特定(指定)できない。また、「MOVERIO」では、手元のリモコンによるタッチ操作が必要であるため、グラスの画面表示をオンにしたり、アプリケーションを起動したり、上下左右選択したりするなどの操作は、Google Glassの場合と同様に直感的でなく、煩雑なものになってしまう。   According to “MOVERIO” of Non-Patent Document 1, it is possible to realize information presentation in which related information is additionally displayed on an object in view. However, the recognition target cannot be specified (designated) when a plurality of objects are present in the user's field of view. In addition, since “MOVERIO” requires touch operations with the remote control at hand, operations such as turning on the screen display of the glass, starting applications, and selecting up, down, left, and right are the same as with Google Glass. Similarly, it is not intuitive and complicated.

さらに、こうしたメガネデバイスの一般的な利用では、理論上約1日はバッテリが持つが、カメラを常時認識で利用すると過熱やバッテリ消費量激増の問題もあるため、頻繁なオン/オフ操作が必要となる。   Furthermore, in general use of these glasses devices, the battery is theoretically held for about one day, but if the camera is always used for recognition, there are problems of overheating and drastic increase in battery consumption, so frequent on / off operation is required. It becomes.

特許文献3では、GPSによる位置情報およびユーザの進行方向を利用することで、ユーザの視線を推定してそれに応じた対象物の情報を自動的にプッシュして提供することができる。ただし、ユーザが対象物のそばを通りかかったり、無意識に覘いたりすると、ユーザが実際には対象物に興味関心がなくても関連情報をプッシュしてしまう課題が解決されていない。また、この方式はGPSによる屋外の位置測定を前提にしているため、店舗内の商品調査など、屋内の利用シーンには対応できない。   In Patent Document 3, it is possible to estimate the user's line of sight by using the position information obtained by GPS and the traveling direction of the user, and automatically push and provide information on the object corresponding thereto. However, the problem that the user pushes the related information even if the user does not actually have interest in the object is not solved when the user passes by the object or unconsciously hits it. Also, since this method is based on outdoor position measurement using GPS, it cannot be used for indoor use scenes such as in-store product surveys.

本発明の目的は、上記の技術課題を解決し、発声や煩雑な操作を必要とせずに直感的な動作のみで、屋内外を問わず少ない電力消費で画像検索を可能にするウェアラブル検索システムを提供することにある。   An object of the present invention is to provide a wearable search system that solves the above technical problem and enables image search with low power consumption both indoors and outdoors, with only intuitive operation without requiring utterance or complicated operation. It is to provide.

上記の目的を達成するために、本発明は、透過型ディスプレイを備えたウェアラブルコンピュータおよびウェアラブル動作センサを含むウェアラブル検索システムにおいて、以下の構成を具備した点に特徴がある。   In order to achieve the above object, the present invention is characterized in that a wearable search system including a wearable computer having a transmissive display and a wearable motion sensor has the following configuration.

(1) ウェアラブル動作センサが、ユーザの検索要求動作を識別する手段と、検索要求動作に応答してウェアラブルコンピュータへ起動要求を送信する手段とを具備し、ウェアラブルコンピュータが、カメラ画像を透過型ディスプレイに表示するカメラ機能と、起動要求に応答して前記カメラ機能を付勢する手段と、カメラ画像上で手領域を認識する手段と、手領域と所定の位置関係にある検索画像範囲から検索画像を抽出する手段と、検索画像に関連する情報を検索する手段と、検索結果を透過型ディスプレイ上に表示する手段とを具備した。   (1) The wearable motion sensor includes means for identifying a user's search request operation, and means for transmitting an activation request to the wearable computer in response to the search request operation. The wearable computer displays the camera image as a transmissive display. A camera image to be displayed, means for energizing the camera function in response to an activation request, means for recognizing a hand area on the camera image, and a search image from a search image range having a predetermined positional relationship with the hand area , A means for searching for information related to the search image, and a means for displaying the search result on the transmissive display.

(2) 検索結果を表示する手段は、検索結果を検索画像範囲にオーバーレイ表示するようにした。   (2) The means for displaying the search result is displayed as an overlay on the search image range.

本発明によれば、以下のような効果が達成される。
(1) ユーザの検索要求動作を検知して画像検索の開始契機とするので、屋内外を問わず、発声や煩雑な動作を必要とせずに直感的な動作のみで画像検索が可能になる。
According to the present invention, the following effects are achieved.
(1) Since the search request operation of the user is detected and triggered as an image search start, it is possible to search for an image only by an intuitive operation regardless of whether indoors or outdoors.

(2) ユーザの検索要求動作が検知されるまでは、ウェアラブルコンピュータの画像検索アプリケーションが起動されず、電力消費量の大きなカメラ機能部が勢付されないので、ウェアラブルコンピュータの電力消費量が抑えられ、その使用可能時間を延ばすことが可能になる。   (2) The image search application of the wearable computer is not started until the user's search request operation is detected, and the camera function unit with large power consumption is not pushed, so the power consumption of the wearable computer is suppressed, The usable time can be extended.

(3) 検索結果が検索対象の表示位置にオーバーレイ表示されるので、検索対象と検索結果との対応付けが容易になる。   (3) Since the search result is displayed in an overlay at the display position of the search target, it becomes easy to associate the search target with the search result.

本発明を適用したウェラブル検索システムの構成を示した図である。It is the figure which showed the structure of the wearable search system to which this invention is applied. ウェアラブル動作センサの構成を示したブロック図である。It is the block diagram which showed the structure of the wearable motion sensor. 本発明が想定する検索動作の例(第1ジェスチャ)を示した図である。It is the figure which showed the example (1st gesture) of the search operation | movement which this invention assumes. 本発明が想定する検索動作の例(第2ジェスチャ)を示した図である。It is the figure which showed the example (2nd gesture) of the search operation | movement which this invention assumes. T-HMD2の主要部の構成を示した図である。It is the figure which showed the structure of the principal part of T-HMD2. 検索画像の抽出方法を説明するための図である。It is a figure for demonstrating the extraction method of a search image. 検索結果の表示例(その1)を示した図である。It is the figure which showed the example of a display of a search result (the 1). 検索結果の表示例(その2)を示した図である。It is the figure which showed the example of a display of a search result (the 2). 本発明の一実施形態の動作を示したフローチャートである。It is the flowchart which showed operation | movement of one Embodiment of this invention. T-HMDの他の実施形態の構成を示したブロック図である。It is the block diagram which showed the structure of other embodiment of T-HMD.

以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明を適用したウェラブル検索システムの構成を示した図であり、メガネタイプの透過型HMD(以下、T-HMDと表現する)2と、このT-HMD2を装着したユーザの検索動作を検知するウェアラブル動作センサ1により構成される。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram showing the configuration of a wearable search system to which the present invention is applied. A glasses type transparent HMD (hereinafter referred to as T-HMD) 2 and a search for a user wearing this T-HMD 2 It is comprised by the wearable motion sensor 1 which detects operation | movement.

T-HMD2は、ウェアラブル動作センサ1からの起動要求に応答して画像検索アプリケーションを起動し、内蔵カメラによる視界方向のカメラ撮影を開始する。画像検索アプリケーションは、カメラ画像から検索対象を抽出し、検索対象画像を含む検索要求を画像認識サーバ3へ送信して検索結果を取得する。検索結果はT-HMD2の透過型ディスプレイ上に表示される。   The T-HMD 2 activates the image search application in response to the activation request from the wearable motion sensor 1 and starts camera shooting in the viewing direction by the built-in camera. The image search application extracts a search target from the camera image, transmits a search request including the search target image to the image recognition server 3, and acquires a search result. The search results are displayed on the T-HMD2 transmissive display.

前記ウェアラブル動作センサ1としては、三次元の加速度センサを内蔵してユーザの手首に装着されるスマートウォッチやリストバンドを活用できる。前記T-HMD2としては、グーグルグラス(Google Glass:登録商標)や「MOVERIO」に代表されるメガネ型情報端末(スマートグラス)を活用できる。ユーザは、視界方向の様子をシースルーで見ながら、目の前に浮かぶようにT-HMDのディスプレイ上にオーバーレイ表示される情報を視認できる。   As the wearable motion sensor 1, a smart watch or a wristband that incorporates a three-dimensional acceleration sensor and is worn on the user's wrist can be used. As the T-HMD2, glasses-type information terminals (smart glasses) represented by Google Glass (registered trademark) and “MOVERIO” can be used. The user can see the information displayed in an overlay on the T-HMD display so as to float in front of the user while seeing the view direction in a see-through manner.

図2は、前記ウェアラブル動作センサ1の主要部の構成を示した図であり、ここではスマートウォッチへの適用を例にして説明する。なお、本発明の説明に不要な構成は図示が省略されている。   FIG. 2 is a diagram showing a configuration of a main part of the wearable motion sensor 1, and here, description will be made taking application to a smart watch as an example. It should be noted that the configuration unnecessary for the description of the present invention is not shown.

3D加速度センサ101は、x,y,zの各方向への加速度を所定のサンプリング周期で検知する。ユーザインタフェース(I/F)102は、ユーザ操作を受け付けるタッチセンサや物理的な操作子を提供する。時計機能部103は、スマートウォッチを腕時計として機能させるための時計機能およびその表示機能を備える。電源制御部104は、バッテリ105による各部への給電を制御する。   The 3D acceleration sensor 101 detects acceleration in the x, y, and z directions at a predetermined sampling period. The user interface (I / F) 102 provides a touch sensor that accepts a user operation and a physical operator. The clock function unit 103 includes a clock function and a display function for causing the smart watch to function as a wristwatch. The power control unit 104 controls power supply to each unit by the battery 105.

無線通信モジュール106は、BLE(Bluetooth(登録商標) Low Energy)106aやWi-Fi106bに代表される近距離無線通信用のインタフェースを含む。プロセッサ100は、ROM107に予め記憶されている各種の制御プログラムやRAM108に記憶されている各種のアプリケーションに基づいて、以下に詳述する各種の機能を実現する。   The wireless communication module 106 includes an interface for short-range wireless communication represented by a BLE (Bluetooth (registered trademark) Low Energy) 106a and a Wi-Fi 106b. The processor 100 implements various functions described in detail below based on various control programs stored in advance in the ROM 107 and various applications stored in the RAM 108.

プロセッサ100において、特徴量計算部100aは、3D加速度センサ101が出力する加速度信号を統計的に処理して特徴量(特徴ベクトル)を生成する。本実施形態では所定のサンプリング周期ごとにx,y,z方向の各加速度を検知し、一定期間(例えば、1sec)内に検知された複数回分の加速度の統計量として、例えば(1)平均値、(2)標準偏差、(3)絶対平均値、(4)歪度、(5)最大値、(6)最小値を計算し、これを1レコードとしてユーザ動作の特徴量とする。   In the processor 100, the feature amount calculation unit 100a statistically processes the acceleration signal output from the 3D acceleration sensor 101 to generate a feature amount (feature vector). In this embodiment, each acceleration in the x, y, and z directions is detected every predetermined sampling period, and, for example, (1) an average value is used as a statistical quantity of accelerations detected within a certain period (for example, 1 sec). , (2) standard deviation, (3) absolute average value, (4) skewness, (5) maximum value, and (6) minimum value are calculated, and this is used as a feature value of user action.

検索動作識別部100bは、動作判定アプリケーション108aの一機能であり、前記特徴量を、予め学習されている検索要求動作の判定指標(例えば、SVMにおける分離超平面)と比較することで、ユーザの動作が検索要求動作であるか否かを識別する。   The search operation identification unit 100b is a function of the operation determination application 108a, and compares the feature amount with a determination index (for example, a separation hyperplane in the SVM) of a search request operation that has been learned in advance. Whether the operation is a search request operation is identified.

起動要求部100cは、ユーザの動作が検索要求動作に識別されると、無線通信モジュール106による近距離無線通信により、前記T-HMD2へ起動要求を送信する。   When the user operation is identified as a search request operation, the activation request unit 100 c transmits an activation request to the T-HMD 2 by short-range wireless communication by the wireless communication module 106.

学習部100dは、検索要求動作およびそれ以外の動作をユーザへそれぞれ要求し、検索要求動作時に検知された加速度の特徴量を正例、それ以外の動作時に検知された加速度の特徴量を負例とする多数の学習データをSVM等の機械学習に適用し、ユーザの動作を検索要求動作またはそれ以外に識別する判定指標の学習結果108cとして、例えば分離超平面を構築する。   The learning unit 100d requests the user to perform a search request operation and other operations, positive examples of acceleration feature amounts detected during the search request operation, and negative examples of acceleration feature amounts detected during other operations. Is applied to machine learning such as SVM, and for example, a separation hyperplane is constructed as a learning result 108c of a determination index for identifying a user's operation as a search request operation or other.

なお、負例の学習データとしては、(1)ユーザが検索対象を指定していないのに検知されてしまう、(2)ユーザが検索対象を指定しているのに検知されない、の双方を適用することが望ましい。   As negative learning data, both (1) the user does not specify the search target and (2) the user specifies the search target but not detected are applied. It is desirable to do.

図3,4は、本発明が想定する検索動作の例を示した図であり、図3の第1ジェスチャは、人差し指と親指とでL型を模擬した両手を表裏で対角配置して検索対象の矩形範囲を指定する方法である。図4の第2ジェスチャは、人差し指と親指とでL型を模擬した両手を隣接配置して検索対象の矩形範囲を指定する方法である。   3 and 4 are diagrams showing an example of a search operation assumed by the present invention. The first gesture of FIG. 3 is a search by placing both hands simulating L-shaped with the index finger and the thumb diagonally on the front and back. This is a method of specifying the target rectangular range. The second gesture shown in FIG. 4 is a method of designating a rectangular range to be searched by placing both hands simulating an L shape with an index finger and a thumb adjacent to each other.

図5は、前記T-HMD2の主要部の構成を示した図であり、ここではスマートグラスへの適用を例にして説明する。なお、本発明の説明に不要な構成は図示が省略されている。   FIG. 5 is a diagram showing the configuration of the main part of the T-HMD 2. Here, application to smart glasses will be described as an example. It should be noted that the configuration unnecessary for the description of the present invention is not shown.

透過型ディスプレイ201は、ユーザの視界内にシースルー映像を表示する。カメラ機能部202は、ユーザの視界方向を撮影して、そのカメラ画像を透過型ディスプレイ201に出力する。ユーザインタフェース203は、タッチセンサ機能203a、マイク機能203b、スピーカ機能203cを提供する。電源制御部204は、バッテリ205による各部への給電を制御する。   The transmissive display 201 displays a see-through video in the user's field of view. The camera function unit 202 captures the direction of the user's field of view and outputs the camera image to the transmissive display 201. The user interface 203 provides a touch sensor function 203a, a microphone function 203b, and a speaker function 203c. The power control unit 204 controls power supply to each unit by the battery 205.

無線通信モジュール206は、BLE206a,Wi-Fi206bなどの近距離無線通信用のインタフェースおよび3G,4G,LTEなどの携帯通信用のインタフェース206cを含む。プロセッサ200は、ROM207に記憶されている各種の制御プログラムおよびRAM208に記憶されている各種のアプリケーションに基づいて、以下に詳述する各種の機能を実現する。   The wireless communication module 206 includes an interface for near field communication such as BLE 206a and Wi-Fi 206b and an interface 206c for portable communication such as 3G, 4G and LTE. The processor 200 implements various functions described in detail below based on various control programs stored in the ROM 207 and various applications stored in the RAM 208.

プロセッサ200において、起動要求検知部200aは、ウェアラブル動作センサ1から起動要求を受信すると画像検索アプリケーション208aを立ち上げる。これによりカメラ機能部202がカメラ撮影を開始するので、ここで初めて、カメラ撮影による電力消費が生じることになる。   In the processor 200, the activation request detection unit 200a activates the image search application 208a when receiving the activation request from the wearable motion sensor 1. As a result, the camera function unit 202 starts camera shooting, and power consumption due to camera shooting occurs for the first time.

手領域検出部200bは、カメラ画像から手領域を検出する。本実施形態では、カメラのフレーム画像から肌色とマッチする領域を検出して手領域と見なす。なお、肌色検出は照明などの環境変化の影響を受けやすいため、精度を高めるために、カメラフレームからの肌色検出において、RGBではなくHSV色空間でのマッチングを行い、キャプチャされた肌色画像に対してH(Hue:色相)およびS(Saturation:彩度)のレンジが近い領域を肌色として検出する。   The hand area detection unit 200b detects a hand area from the camera image. In this embodiment, an area that matches the skin color is detected from the frame image of the camera and is regarded as a hand area. Since skin color detection is easily affected by environmental changes such as lighting, in order to improve accuracy, skin color detection from the camera frame is matched in the HSV color space instead of RGB, and the captured skin color image is detected. Then, an area having a close range of H (Hue) and S (Saturation) is detected as a skin color.

これは、RGBと比較して、HSV色空間は人間の色の認識と親和性があり、色相と彩度の組み合わせは照明変化に対して変化が少ないからである。なお、アプリケーションの起動中に手領域をタップすると、肌色部分が改めてサンプリングされ、現在の環境下における肌色のデータに最適化された肌色検出が行われるようにしても良い。   This is because the HSV color space is more compatible with human color recognition than RGB, and the combination of hue and saturation is less affected by changes in illumination. If the hand area is tapped while the application is running, the flesh color portion may be sampled again, and flesh color detection optimized for flesh color data in the current environment may be performed.

検索画像抽出部200cは、カメラ画像上で手領域を追跡し、前記図3,4に関して説明した第1又は第2ジェスチャを識別できると、当該手領域と所定の位置関係にある矩形範囲内の画像領域を検索画像として抽出する。   When the search image extraction unit 200c tracks the hand region on the camera image and can identify the first or second gesture described with reference to FIGS. 3 and 4, the search image extraction unit 200c is in a rectangular range having a predetermined positional relationship with the hand region. An image area is extracted as a search image.

図6は、検索画像の抽出方法を説明するための図であり、ここでは、第2ジェスチャを例にして説明する。まず、フレーム画像から抽出した各指のエッジ(指先のポイント)の検出位置から構成された多角形を推定する(同図の破線)。そして、前記多角形の範囲内で指の付け根(指の股)の検出位置P1,P2に基づいて、両手の付け根を底辺の各頂点とし、人差し指の長さを高さとする矩形領域Aを認識して、その画像を切り出す。   FIG. 6 is a diagram for explaining a search image extraction method. Here, the second gesture will be described as an example. First, the polygon formed from the detection position of each finger edge (fingertip point) extracted from the frame image is estimated (broken line in the figure). Based on the detection positions P1 and P2 of the base of the finger (finger crotch) within the range of the polygon, a rectangular area A having the base of both hands as the apexes of the base and the length of the index finger is recognized. Then cut out the image.

図5へ戻り、検索実行部200dは、前記検索対象画像を含む検索要求メッセージを作成して画像認識サーバ3へ送信し、さらに画像認識サーバ3が応答した検索結果を受信する。前記画像認識サーバ3には、検索対象の登録画像に関連付けて、その関連情報が予め格納されており、画像類似検索により関連情報を抽出し、これを検索結果として応答する。関連情報は、対象物についての名称や詳細情報、およびWebサイトのURLのような参照先情報などから構成されている。   Returning to FIG. 5, the search execution unit 200 d creates a search request message including the search target image, transmits the search request message to the image recognition server 3, and receives a search result responded by the image recognition server 3. In the image recognition server 3, related information is stored in advance in association with a registered image to be searched, and related information is extracted by an image similarity search, and this is returned as a search result. The related information is composed of a name and detailed information about the object, reference destination information such as a URL of a Web site, and the like.

検索結果表示部200eは、図7,8に示したように、前記検索結果を検索対象との対応付けが容易に分かるように、透過型ディスプレイ201の前記矩形範囲の位置に、背景に溶け込んで「透けて」見えるようにエフェクトをかけてオーバーレイ表示する。   As shown in FIGS. 7 and 8, the search result display unit 200e blends the search result with the background at the position of the rectangular range of the transmissive display 201 so that the association with the search target can be easily understood. Apply an effect so that it can be seen through.

このようなエフェクト効果は、対応する背景の点(x, y)と検索結果の点(cx, cy)の色を一定の基準により混ぜ合わせることで得られる。例えば、半透明の例であれば、(x, y)のRGB成分が(255、0、0)(=赤)で、(cx, cy) が(0、0、255)(=青)ならば、その平均を取って(127、0、127)(=暗い紫)にする。   Such an effect can be obtained by mixing the colors of the corresponding background point (x, y) and the search result point (cx, cy) according to a certain standard. For example, in the case of a translucent example, if the RGB component of (x, y) is (255, 0, 0) (= red) and (cx, cy) is (0, 0, 255) (= blue) For example, the average is taken to (127, 0, 127) (= dark purple).

次いで、図9のフローチャートを参照して本発明の一実施形態の動作を説明する。ウェアラブル動作センサ1では、ステップS1においてユーザの動作が前記3D加速度センサ101によりx,y,z方向の各加速度Gx,Gy,Gzとして所定の周期で繰り返し検知される。ステップS2では、一定期間ごとに複数回分の各加速度Gx,Gy,Gzが前記特徴量計算部100aにより集計されて特徴量が計算される。   Next, the operation of the embodiment of the present invention will be described with reference to the flowchart of FIG. In the wearable motion sensor 1, in step S1, the user's motion is repeatedly detected by the 3D acceleration sensor 101 as accelerations Gx, Gy, and Gz in the x, y, and z directions at predetermined intervals. In step S2, a plurality of accelerations Gx, Gy, Gz for a plurality of times are collected by the feature amount calculation unit 100a for each fixed period, and a feature amount is calculated.

ステップS3では、前記検索動作識別部100bにより、SVM等の機械学習により構築された分離超平面と前記特徴量との比較結果に基づいて、ユーザの動作が検索要求動作であるか否かが識別される。本実施形態では、前記図3,4に示したように、ユーザが検索対象(ここでは、スマートフォン)を両手の親指および人差し指で囲むように両手を動作させると、これが検索要求動作に識別されてステップS4へ進み、無線通信モジュール106からT-HMD2へ起動要求のメッセージが送信される。   In step S3, the search operation identification unit 100b identifies whether or not the user's operation is a search request operation based on a comparison result between the separated hyperplane constructed by machine learning such as SVM and the feature amount. Is done. In the present embodiment, as shown in FIGS. 3 and 4, when the user operates both hands so that the search target (here, the smartphone) is surrounded by the thumb and index finger of both hands, this is identified as the search request operation. In step S4, the activation request message is transmitted from the wireless communication module 106 to the T-HMD2.

T-HMD2は、ステップS21において、前記起動要求が起動要求検知部200aにより検索検知されると、ステップS22では、予め実装されている画像検索アプリケーション208aが起動される。ステップS23では、前記画像検索アプリケーションによりカメラ機能部202が起動されてカメラ画像が取得される。   In step S21, when the activation request is detected and detected by the activation request detection unit 200a in step S21, the preinstalled image search application 208a is activated in step S22. In step S23, the camera function unit 202 is activated by the image search application and a camera image is acquired.

ステップS24では、カメラ画像から前記手領域検知部200bにより手領域が識別され、さらに手領域が検索対象を指定する第1又は第2ジェスチャであるか否かが、パターン認識や画像マッチング等の適宜の手法により実施される。   In step S24, the hand region is identified from the camera image by the hand region detection unit 200b, and whether or not the hand region is the first or second gesture for designating a search target is determined as appropriate, such as pattern recognition or image matching. This method is implemented.

第1又は第2ジェスチャであればステップS25へ進み、当該手領域と所定の位置関係にある矩形範囲内の画像が、前記検索画像抽出部200cにより検索画像として抽出される。ステップS26では、前記検索実行部200dにより、前記検索画像の添付された検索要求メッセージが生成されて前記インタフェース206cから画像認識サーバ3へインターネット経由で送信される。ステップS27では、画像認識サーバ3が応答した検索結果が受信される。ステップS28では、前記図7,8を参照して説明したように、検索結果がディスプレイ201上にオーバーレイ表示される。   If it is the first or second gesture, the process proceeds to step S25, and an image within a rectangular range having a predetermined positional relationship with the hand region is extracted as a search image by the search image extraction unit 200c. In step S26, the search execution unit 200d generates a search request message to which the search image is attached, and transmits the search request message from the interface 206c to the image recognition server 3 via the Internet. In step S27, the search result returned by the image recognition server 3 is received. In step S28, as described with reference to FIGS. 7 and 8, the search result is displayed on the display 201 as an overlay.

ステップS29では、前記検索要求ジェスチャが終了したか否かが判定される。検索要求ジェスチャが維持されていれば前記検索結果の表示が継続される。検索要求ジェスチャが終了していれば、ステップS30へ進んで検索結果の表示が消去される。   In step S29, it is determined whether or not the search request gesture has ended. If the search request gesture is maintained, the display of the search result is continued. If the search request gesture has been completed, the process proceeds to step S30 and the display of the search result is deleted.

ステップS31では、タイムアウト判定が行われ、タイムアウト前であれば、ステップS23へ戻って上記の各処理が繰り返される。これに対して、検索要求ジェスチャが所定時間以上継続して検知されずにタイムアウト判定されるとステップS32へ進み、画像検索アプリケーション208aが閉じられてカメラ撮影も終了する。   In step S31, a time-out determination is performed. If it is before the time-out, the process returns to step S23 and the above processes are repeated. On the other hand, if the search request gesture is not detected for a predetermined time or longer and a time-out determination is made, the process proceeds to step S32, the image search application 208a is closed, and the camera shooting is also ended.

本実施形態によれば、ユーザが検索対象を見つけて検索要求動作を行い、これが検知されるまでは、T-HMD2において画像検索アプリケーションが起動されず、電力消費量の大きなカメラ機能部が勢付されないので、ユーザの情報検索に係る操作性を損なうことなく、T-HMD2の電力消費量を減じることが可能になり、その使用可能時間を延ばすことが可能になる。   According to the present embodiment, until the user finds a search target and performs a search request operation, and this is detected, the image search application is not activated in T-HMD2, and the camera function unit that consumes a large amount of power is urged. Therefore, the power consumption of the T-HMD 2 can be reduced without impairing the operability related to the user's information search, and the usable time can be extended.

また、本実施形態によれば、ユーザは手で所定のジェスチャを表現するだけで検索を開始できるので、発声や煩雑な操作を伴わず、直感的な動作のみで、検索要求および検索対象の指定を行えるようになる。   Further, according to the present embodiment, since the user can start the search simply by expressing a predetermined gesture by hand, the search request and the search target designation can be performed only by an intuitive operation without utterance or complicated operation. Can be done.

なお、上記の実施形態では画像認識サーバ3がネットワーク上に設けられるものとして説明したが、本発明はこれのみに限定されるものではなく、図10に一例を示したように、画像認識サーバ3に相当する機能部209をT-HMD2内にローカルに設けても良い。   In the above embodiment, the image recognition server 3 is described as being provided on the network. However, the present invention is not limited to this, and the image recognition server 3 is illustrated as an example in FIG. A functional unit 209 corresponding to the above may be provided locally in the T-HMD 2.

また、上記の実施形態では、ユーザの動作を3D(3軸)の加速度センサにより検知するものとして説明したが、本発明はこれのみに限定されるものではなく、3軸のジャイロスコープや3軸の磁気センサ、あるいはこれらを適宜に組み合わせた6軸または9軸のセンサを採用しても良い。   In the above-described embodiment, the user's movement is detected by a 3D (3-axis) acceleration sensor. However, the present invention is not limited to this, and a 3-axis gyroscope or 3-axis Alternatively, a 6-axis or 9-axis sensor obtained by appropriately combining these sensors may be employed.

1…ウェアラブル動作センサ,2…透過型HMD(T-HMD),3…画像認識サーバ,100,200…プロセッサ,100a…特徴量計算部,100b…検索動作識別部,100c…起動要求部,100d…学習部,101…3D加速度センサ,102…ユーザインタフェース,103…時計機能部,104,204…電源制御部,105,205…バッテリ,106,206…無線通信モジュール,107,207…ROM,108,208…RAM,201…透過型ディスプレイ,202…カメラ機能部,203…ユーザインタフェース   DESCRIPTION OF SYMBOLS 1 ... Wearable motion sensor, 2 ... Transparent HMD (T-HMD), 3 ... Image recognition server, 100, 200 ... Processor, 100a ... Feature-value calculation part, 100b ... Search operation | movement identification part, 100c ... Start-up request part, 100d ... Learning unit, 101 ... 3D acceleration sensor, 102 ... User interface, 103 ... Clock function unit, 104, 204 ... Power supply control unit, 105, 205 ... Battery, 106, 206 ... Wireless communication module, 107, 207 ... ROM, 108 208 ... RAM, 201 ... transparent display, 202 ... camera function unit, 203 ... user interface

Claims (7)

透過型ディスプレイを備えたウェアラブルコンピュータおよびウェアラブル動作センサを含み、
前記ウェアラブル動作センサが、
ユーザの検索要求動作を識別する検索動作識別手段と、
前記検索要求動作に応答してウェアラブルコンピュータへ起動要求を送信する起動要求手段とを具備し、
前記ウェアラブルコンピュータが、
カメラ画像を透過型ディスプレイに表示するカメラ機能と、
前記起動要求に応答して前記カメラ機能を付勢する起動要求検知手段と、
前記カメラ画像上で手領域を認識する手領域認識手段と、
前記手領域と所定の位置関係にある検索画像範囲から検索画像を抽出する検索画像抽出手段と、
前記検索画像に関連する情報を検索する検索実行手段と、
前記検索結果を透過型ディスプレイ上に表示する検索結果表示手段とを具備したことを特徴とするウェアラブル検索システム。
Including a wearable computer with a transmissive display and a wearable motion sensor;
The wearable motion sensor is
A search action identifying means for identifying a user's search request action;
Activation request means for transmitting an activation request to the wearable computer in response to the search request operation,
The wearable computer is
A camera function for displaying camera images on a transmissive display;
Activation request detecting means for energizing the camera function in response to the activation request;
Hand region recognition means for recognizing a hand region on the camera image;
Search image extraction means for extracting a search image from a search image range in a predetermined positional relationship with the hand region;
Search execution means for searching for information related to the search image;
A wearable search system comprising search result display means for displaying the search results on a transparent display.
前記検索結果表示手段は、検索結果を前記検索画像範囲にオーバーレイ表示することを特徴とする請求項1に記載のウェアラブル検索システム。   The wearable search system according to claim 1, wherein the search result display means displays the search result in an overlay on the search image range. 前記ウェアラブル動作センサが、
ユーザの動作を所定の周期で3方向の動きとして検知する3D加速度センサ、3Dジャイロスコープもしくは3D磁気センサまたはこれらの組み合わせと、
所定の期間内に検知された複数回分の加速度に基づいてユーザ動作の特徴量を計算する特徴量計算手段とを具備し、
前記検索動作識別手段は、予め学習した識別指標と前記特徴量との比較結果に基づいてユーザ動作を識別することを特徴とする請求項1または2に記載のウェアラブル検索システム。
The wearable motion sensor is
A 3D acceleration sensor, a 3D gyroscope, a 3D magnetic sensor, or a combination thereof that detects a user's movement as a movement in three directions at a predetermined cycle;
Comprising a feature amount calculation means for calculating a feature amount of the user action based on a plurality of accelerations detected within a predetermined period,
The wearable search system according to claim 1, wherein the search operation identification unit identifies a user operation based on a comparison result between an identification index learned in advance and the feature amount.
前記ウェアラブル動作センサが、
検索要求動作を正例、検索要求動作以外を負例としてユーザ動作を学習し、正例および負例の各動作を識別する境界条件を設定する学習手段を具備し、
前記検索動作識別手段は、前記境界条件を識別指標とすることを特徴とする請求項3に記載のウェアラブル検索システム。
The wearable motion sensor is
A learning means for learning a user operation as a positive example of a search request operation, a negative example other than the search request operation, and setting boundary conditions for identifying each operation of the positive example and the negative example,
The wearable search system according to claim 3, wherein the search operation identification unit uses the boundary condition as an identification index.
前記検索実行手段は、前記検索画像を含む検索要求をネットワーク上の画像認識サーバへ送信して検索結果を取得することを特徴とする請求項1ないし4のいずれかに記載のウェアラブル検索システム。   The wearable search system according to any one of claims 1 to 4, wherein the search execution unit acquires a search result by transmitting a search request including the search image to an image recognition server on a network. 前記ウェアラブルコンピュータが、検索対象候補の関連情報を蓄積した画像認識サーバ機能部を含み、
前記検索実行手段は、前記検索画像を含む検索要求を画像認識サーバ機能部へ提供して検索結果を取得することを特徴とする請求項1ないし4のいずれかに記載のウェアラブル検索システム。
The wearable computer includes an image recognition server function unit storing related information of search target candidates,
The wearable search system according to any one of claims 1 to 4, wherein the search execution unit provides a search request including the search image to an image recognition server function unit to acquire a search result.
前記ウェアラブルコンピュータおよびウェアラブル動作センサが近距離無線通信インタフェースを具備し、
前記ウェアラブル動作センサは、前記起動要求を近距離無線通信によりウェアラブルコンピュータへ送信することを特徴とする請求項1ないし6のいずれかに記載のウェアラブル検索システム。
The wearable computer and the wearable motion sensor include a short-range wireless communication interface;
The wearable search system according to claim 1, wherein the wearable motion sensor transmits the activation request to the wearable computer by short-range wireless communication.
JP2014252990A 2014-12-15 2014-12-15 Wearable search system Active JP6516464B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014252990A JP6516464B2 (en) 2014-12-15 2014-12-15 Wearable search system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014252990A JP6516464B2 (en) 2014-12-15 2014-12-15 Wearable search system

Publications (2)

Publication Number Publication Date
JP2016115125A true JP2016115125A (en) 2016-06-23
JP6516464B2 JP6516464B2 (en) 2019-05-22

Family

ID=56141919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014252990A Active JP6516464B2 (en) 2014-12-15 2014-12-15 Wearable search system

Country Status (1)

Country Link
JP (1) JP6516464B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008096A1 (en) * 2016-07-05 2018-01-11 マクセル株式会社 Information display device and program
JP2020021287A (en) * 2018-07-31 2020-02-06 株式会社 情報システムエンジニアリング System and method for providing information
US10725561B2 (en) 2017-01-30 2020-07-28 Seiko Epson Corporation Display system that switches operation according to movement detected
US11409369B2 (en) 2019-02-15 2022-08-09 Hitachi, Ltd. Wearable user interface control system, information processing system using same, and control program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130142417A1 (en) * 2011-12-02 2013-06-06 Omek Interactive, Ltd. System and method for automatically defining and identifying a gesture
WO2013154864A1 (en) * 2012-04-09 2013-10-17 Qualcomm Incorporated Control of remote device based on gestures
JP2014503085A (en) * 2010-09-20 2014-02-06 コピン コーポレーション Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display
WO2014097706A1 (en) * 2012-12-21 2014-06-26 ソニー株式会社 Display control apparatus and storage medium
JP2014115457A (en) * 2012-12-10 2014-06-26 Sony Corp Information processor and recording medium
JP2014127987A (en) * 2012-12-27 2014-07-07 Sony Corp Information processing apparatus and recording medium
WO2014126966A1 (en) * 2013-02-14 2014-08-21 Qualcomm Incorporated Human-body-gesture-based region and volume selection for hmd

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014503085A (en) * 2010-09-20 2014-02-06 コピン コーポレーション Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display
US20130142417A1 (en) * 2011-12-02 2013-06-06 Omek Interactive, Ltd. System and method for automatically defining and identifying a gesture
WO2013154864A1 (en) * 2012-04-09 2013-10-17 Qualcomm Incorporated Control of remote device based on gestures
JP2014115457A (en) * 2012-12-10 2014-06-26 Sony Corp Information processor and recording medium
WO2014097706A1 (en) * 2012-12-21 2014-06-26 ソニー株式会社 Display control apparatus and storage medium
JP2014127987A (en) * 2012-12-27 2014-07-07 Sony Corp Information processing apparatus and recording medium
WO2014126966A1 (en) * 2013-02-14 2014-08-21 Qualcomm Incorporated Human-body-gesture-based region and volume selection for hmd

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
入江英嗣、外8名: "AirTarget:光学シースルー方式HMDとマーカレス画像認識による高可搬性実世界志向インタフェー", 情報処理学会論文誌[ONLINE], vol. 55, no. 4, JPN6018028023, 15 April 2014 (2014-04-15), pages 1415 - 1427, ISSN: 0003905314 *
寺田努: "ウェアラブルセンサを用いた行動認識技術の現状と課題", コンピュータソフトウェア, vol. 28, no. 2, JPN6018028020, 26 April 2011 (2011-04-26), pages 43 - 54, ISSN: 0003905313 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018008096A1 (en) * 2016-07-05 2018-01-11 マクセル株式会社 Information display device and program
US10725561B2 (en) 2017-01-30 2020-07-28 Seiko Epson Corporation Display system that switches operation according to movement detected
US11216083B2 (en) 2017-01-30 2022-01-04 Seiko Epson Corporation Display system that switches into an operation acceptable mode according to movement detected
US11226689B2 (en) 2017-01-30 2022-01-18 Seiko Epson Corporation Display system that selects a character string according to movement detected
JP2020021287A (en) * 2018-07-31 2020-02-06 株式会社 情報システムエンジニアリング System and method for providing information
US11409369B2 (en) 2019-02-15 2022-08-09 Hitachi, Ltd. Wearable user interface control system, information processing system using same, and control program

Also Published As

Publication number Publication date
JP6516464B2 (en) 2019-05-22

Similar Documents

Publication Publication Date Title
US10585488B2 (en) System, method, and apparatus for man-machine interaction
US11494000B2 (en) Touch free interface for augmented reality systems
US9160993B1 (en) Using projection for visual recognition
EP3345379B1 (en) Method for electronic device to control object and electronic device
CN106575043B (en) For the system of gesture identification and interaction, device and method
US10169923B2 (en) Wearable display system that displays a workout guide
JP6310556B2 (en) Screen control method and apparatus
CN105027033B (en) Method, device and computer-readable media for selecting Augmented Reality object
CN105306084B (en) Glasses type terminal and its control method
US11812134B2 (en) Eyewear device input mechanism
US10019625B2 (en) Wearable camera for reporting the time based on wrist-related trigger
US9671873B2 (en) Device interaction with spatially aware gestures
CN106610781B (en) Intelligent wearing equipment
US10296105B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
JP6516464B2 (en) Wearable search system
US10908425B2 (en) Transmission-type head mounted display apparatus, display control method, and computer program
JP2015191554A (en) Electronic apparatus
US20220375172A1 (en) Contextual visual and voice search from electronic eyewear device
CN117940878A (en) Establishing social connections through distributed and connected real world objects
US9911237B1 (en) Image processing techniques for self-captured images
CN115997388A (en) Information processing terminal, remote control method, and program
KR20180097031A (en) Augmented reality system including portable terminal device and projection device
US20230410441A1 (en) Generating user interfaces displaying augmented reality graphics
CN117916694A (en) Snapshot message for indicating user status
CN117916693A (en) Scanning-based messaging for electronic eyewear devices

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160823

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170906

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190416

R150 Certificate of patent or registration of utility model

Ref document number: 6516464

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150