WO2019003360A1 - ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム - Google Patents

ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム Download PDF

Info

Publication number
WO2019003360A1
WO2019003360A1 PCT/JP2017/023815 JP2017023815W WO2019003360A1 WO 2019003360 A1 WO2019003360 A1 WO 2019003360A1 JP 2017023815 W JP2017023815 W JP 2017023815W WO 2019003360 A1 WO2019003360 A1 WO 2019003360A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
wearable terminal
display
personal information
image
Prior art date
Application number
PCT/JP2017/023815
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
Original Assignee
株式会社オプティム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム filed Critical 株式会社オプティム
Priority to CN201780092753.1A priority Critical patent/CN110832438A/zh
Priority to PCT/JP2017/023815 priority patent/WO2019003360A1/ja
Priority to US16/623,133 priority patent/US11335044B2/en
Priority to JP2019526045A priority patent/JP6887198B2/ja
Publication of WO2019003360A1 publication Critical patent/WO2019003360A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Definitions

  • the present invention relates to a wearable terminal display system, a wearable terminal display method, and a program for displaying on a display plate of a wearable terminal, person information of a collected person as augmented reality for a person who sees through the display plate.
  • Patent Document 1 a display device which provides necessary information to a person present in front of a mirror at an appropriate timing in consideration of the installation location of the mirror.
  • Patent Document 1 provides information to a person in front of a mirror, and there is a problem that third party information can not be provided.
  • the present invention identifies a person from an image of a field of view of the wearable terminal, and displays wearable terminal personal information collected according to the person on a display plate of the wearable terminal as an augmented reality, wearable terminal display It aims to provide a method and program.
  • the present invention provides the following solutions.
  • the invention according to the first aspect is a wearable terminal display system for displaying personal information of a person on a display plate of the wearable terminal, wherein the image acquisition means acquires an image of a person who has entered the field of view of the wearable terminal; The identification means for analyzing the image to identify the person, the collection means for collecting the person information of the person, and the display plate of the wearable terminal for the person seen through the display plate;
  • a wearable terminal display system comprising: personal information display means for displaying the personal information as augmented reality.
  • the invention according to the first aspect is a wearable terminal display method for displaying personal information of a person on a display board of the wearable terminal, wherein the image acquisition step acquires an image of the person within the field of view of the wearable terminal; Image analysis of the image to identify the person, a collection step of collecting person information of the person, and a display plate of the wearable terminal for the person who looks through the display plate And displaying the personal information as augmented reality.
  • the invention comprises a computer, an image acquisition step of acquiring an image of a person in the field of view of the wearable terminal, an analysis step of the image to identify the person, and a identification step of the person A step of collecting personal information, and causing a display board of the wearable terminal to display the personal information as augmented reality for the human who sees through the display board Provide a program.
  • the person's personal information can be displayed on the display plate of the wearable terminal simply by putting the person in the field of view of the wearable terminal.
  • FIG. 1 is a schematic view of a wearable terminal display system.
  • FIG. 2 shows an example of collecting and displaying person information of a person on a display plate of a wearable terminal.
  • the wearable terminal display system of the present invention is a system for displaying the collected person information as an augmented reality for a person who looks through the display plate on the display plate of the wearable terminal.
  • a wearable terminal is a terminal with a view such as a smart glass or a head mounted display.
  • FIG. 1 is a schematic view of a wearable terminal display system according to a preferred embodiment of the present invention.
  • the wearable terminal display system includes an image acquisition unit, an identification unit, a collection unit, and a person information display unit, which are realized by the control unit reading a predetermined program.
  • determination means, change means, detection means, action result display means, position direction acquisition means, estimation means, guideline display means, selection acceptance means may be provided. These may be application based, cloud based or otherwise.
  • Each means described above may be realized by a single computer or may be realized by two or more computers (for example, in the case of a server and a terminal).
  • the image acquisition means acquires an image of a person who has entered the view of the wearable terminal.
  • An image captured by the camera of the wearable terminal may be acquired. Or even if it is except a wearable terminal, if such an image can be acquired, it does not matter.
  • the image may be a moving image or a still image. In order to display person information in real time, a real time image is preferable.
  • the identification means analyzes the image to identify the person. For example, it is specified whether the person is Taro Yamada, Hanako Sato or Ichiro Suzuki. People can be identified from color, shape, size, features, etc. The person is not limited to these. In addition, if it takes time to identify all the reflected persons, only the person in the center of the view of the wearable terminal may be identified. By identifying only the person in the center of the field of view, the time required for identification can be significantly reduced. Machine learning may improve the accuracy of image analysis. For example, machine learning is performed using a past image of a person as teacher data.
  • the collecting means collects personal information according to the person.
  • Person information includes name, gender, age, address, occupation, job title, family structure, and the like. Person information is not limited to these.
  • the personal information corresponding to the person may be collected with reference to a database in which the personal information is registered in advance. For example, it can be collected by referring to a database in which business card information and the like are registered.
  • personal information may be collected by accessing web content previously linked to a person. For example, it can be collected from Web content by assigning a URL that links a person and person information.
  • personal information may be collected from Web content searched by searching the Internet for a person. For example, since there is a case where personal information is posted on a homepage etc., it can collect from Internet search.
  • personal information may be collected from SNS (social networking service) or word-of-mouth sites.
  • the person information display means displays person information as augmented reality for a person who looks through the display plate on the display plate of the wearable terminal. For example, as shown in FIG. 2, on a display plate of a wearable terminal, person information drawn by a broken line is displayed as augmented reality for a person drawn by a solid line seen through the display plate.
  • solid lines are real and broken lines are augmented reality.
  • the person information to be displayed as the augmented reality may be displayed so as to be superimposed on the person who is seen through the display board, but since it becomes difficult for the person to see, the display ON / OFF of the person information may be switched.
  • the determination means determines whether the displayed personal information has been browsed. By acquiring an image being browsed and analyzing the image, it may be determined whether personal information has been browsed. In addition, it may be determined whether personal information has been browsed from sensor information of the wearable terminal, sensor information worn by a viewer, or the like. For example, a sensor that detects a sight line, a motion sensor, an acceleration sensor, and the like.
  • the change means changes the personal information to already-viewed when it is determined that the information has been browsed, and changes the degree of attention so that the personal information is read when it is determined that the information is not viewed. By doing this, it is possible to visually grasp which person information has been browsed and has not been browsed.
  • the user information may be viewed by putting a check in the check box of the personal information.
  • the information may be viewed by pressing a stamp on personal information.
  • the attention level may be changed by changing the color and size of the person information, or pressing a stamp so that the person information is noticeable.
  • the detection means detects an action on the displayed personal information.
  • the action is, for example, a gesture, hand movement, gaze movement, or the like.
  • an action on personal information can be detected.
  • an action on personal information may be detected from sensor information of the wearable terminal, sensor information attached to a viewer, or the like. For example, a sensor that detects a sight line, a motion sensor, an acceleration sensor, and the like.
  • the action result display means displays the result according to the action as an augmented reality on the display board of the wearable terminal for a person who looks through the display board. For example, when an action to delete personal information is detected, the display of personal information may be turned off. For example, the link may be opened upon detecting an action to open the link attached to the personal information. For example, when an action to turn a page of personal information is detected, the page may be turned. Of course, other actions may be used.
  • the position / direction unit acquires the terminal position and the imaging direction of the wearable terminal.
  • the terminal position can be acquired from the GPS (Global Positioning System) of the wearable terminal.
  • the imaging direction can be acquired from the geomagnetic sensor or the acceleration sensor of the wearable terminal when imaging is performed by the wearable terminal. You may acquire from other than these.
  • the estimation unit estimates the position of the person based on the terminal position and the imaging direction. If the terminal position and the imaging direction are known, the person position of the imaged person can be estimated.
  • the specifying means may specify a person from the position of the person and the image analysis. Specific accuracy can be improved by using location information. For example, if the accuracy of identifying Taro Yamada can be improved by the position information, the reliability of personal information to be displayed can be improved accordingly.
  • the guideline display means displays a guideline for imaging a person as augmented reality on the display board of the wearable terminal.
  • guidelines such as a frame or a cross may be displayed. It will be easier to analyze the image by having the image taken according to the guidelines.
  • the acquisition unit may acquire an image captured along a guideline. It is possible to efficiently identify a person by acquiring and analyzing only the image captured along the guideline.
  • the selection receiving unit receives a selection of a selection target for a person who looks through the display plate of the wearable terminal.
  • the selection of the selection target may be accepted by viewing a person who looks through the display plate of the wearable terminal for a certain period of time.
  • a person who looks through the display plate of the wearable terminal may be touched to receive the selection of the selection target.
  • the selection of the selection target may be received by placing the cursor on a person who looks through the display plate of the wearable terminal.
  • a sensor that detects a sight line For example, a sensor that detects a sight line, a motion sensor, an acceleration sensor, and the like.
  • the personal information display means may display personal information as augmented reality on the display board of the wearable terminal in accordance with only the selection target that is seen through the display board. Since the personal information is displayed as augmented reality in accordance with only the selected selection object, the personal information can be grasped by pinpointing. If the person information is displayed for all the identified persons, the display screen may be bothersome. [Description of operation]
  • the wearable terminal display method of the present invention is a method of displaying collected personal information as augmented reality for a person who looks through the display plate on the display plate of the wearable terminal.
  • the wearable terminal display method includes an image acquisition step, a identification step, a collection step, and a person information display step. Although not shown in the drawings, similarly, a determination step, a change step, a detection step, an action result display step, a position direction acquisition step, an estimation step, a guideline display step, and a selection acceptance step may be provided.
  • the image acquisition step acquires an image of a person who has entered the view of the wearable terminal.
  • An image captured by the camera of the wearable terminal may be acquired. Or even if it is except a wearable terminal, if such an image can be acquired, it does not matter.
  • the image may be a moving image or a still image. In order to display person information in real time, a real time image is preferable.
  • an image is analyzed to identify a person. For example, it is specified whether the person is Taro Yamada, Hanako Sato or Ichiro Suzuki. People can be identified from color, shape, size, features, etc. The person is not limited to these. In addition, if it takes time to identify all the reflected persons, only the person in the center of the view of the wearable terminal may be identified. By identifying only the person in the center of the field of view, the time required for identification can be significantly reduced. Machine learning may improve the accuracy of image analysis. For example, machine learning is performed using a past image of a person as teacher data.
  • the collecting step collects personal information corresponding to the person.
  • Person information includes name, gender, age, address, occupation, job title, family structure, and the like. Person information is not limited to these.
  • the personal information corresponding to the person may be collected with reference to a database in which the personal information is registered in advance. For example, it can be collected by referring to a database in which business card information and the like are registered.
  • personal information may be collected by accessing web content previously linked to a person. For example, it can be collected from Web content by assigning a URL that links a person and person information.
  • personal information may be collected from Web content searched by searching the Internet for a person. For example, since there is a case where personal information is posted on a homepage etc., it can collect from Internet search.
  • personal information may be collected from SNS (social networking service) or word-of-mouth sites.
  • personal information is displayed as augmented reality for a person who looks through the display plate on the display plate of the wearable terminal.
  • person information drawn by a broken line is displayed as augmented reality for a person drawn by a solid line seen through the display plate.
  • solid lines are real and broken lines are augmented reality.
  • the person information to be displayed as the augmented reality may be displayed so as to be superimposed on the person who is seen through the display board, but since it becomes difficult for the person to see, the display ON / OFF of the person information may be switched.
  • the determination step determines whether or not the displayed personal information is browsed. By acquiring an image being browsed and analyzing the image, it may be determined whether personal information has been browsed. In addition, it may be determined whether personal information has been browsed from sensor information of the wearable terminal, sensor information worn by a viewer, or the like. For example, a sensor that detects a sight line, a motion sensor, an acceleration sensor, and the like.
  • the change step changes the personal information to already-browsed if it is determined that it has been browsed, and changes the attention degree so that the personal information is browsed if it is determined that it has not been browsed.
  • the user information may be viewed by putting a check in the check box of the personal information.
  • the information may be viewed by pressing a stamp on personal information.
  • the attention level may be changed by changing the color and size of the person information, or pressing a stamp so that the person information is noticeable.
  • the detection step detects an action on the displayed personal information.
  • the action is, for example, a gesture, hand movement, gaze movement, or the like.
  • an action on personal information can be detected.
  • an action on personal information may be detected from sensor information of the wearable terminal, sensor information attached to a viewer, or the like. For example, a sensor that detects a sight line, a motion sensor, an acceleration sensor, and the like.
  • the action result display step displays the result according to the action as the augmented reality on the display board of the wearable terminal for the person who looks through the display board. For example, when an action to delete personal information is detected, the display of personal information may be turned off. For example, the link may be opened upon detecting an action to open the link attached to the personal information. For example, when an action to turn a page of personal information is detected, the page may be turned. Of course, other actions may be used.
  • the position direction step acquires the terminal position and the imaging direction of the wearable terminal.
  • the terminal position can be acquired from the GPS (Global Positioning System) of the wearable terminal.
  • the imaging direction can be acquired from the geomagnetic sensor or the acceleration sensor of the wearable terminal when imaging is performed by the wearable terminal. You may acquire from other than these.
  • the inferring step infers the person position of the person based on the terminal position and the imaging direction. If the terminal position and the imaging direction are known, the person position of the imaged person can be estimated.
  • the person may be identified from the position of the person and the image analysis. Specific accuracy can be improved by using location information. For example, if the accuracy of identifying Taro Yamada can be improved by the position information, the reliability of personal information to be displayed can be improved accordingly.
  • the guideline display step displays a guideline for imaging a person as augmented reality on a display plate of the wearable terminal.
  • guidelines such as a frame or a cross may be displayed. It will be easier to analyze the image by having the image taken according to the guidelines.
  • the acquisition step may acquire an image captured along a guideline. It is possible to efficiently identify a person by acquiring and analyzing only the image captured along the guideline.
  • the selection receiving step receives the selection of the selection target for the person who looks through the display plate of the wearable terminal.
  • the selection of the selection target may be accepted by viewing a person who looks through the display plate of the wearable terminal for a certain period of time.
  • a person who looks through the display plate of the wearable terminal may be touched to receive the selection of the selection target.
  • the selection of the selection target may be received by placing the cursor on a person who looks through the display plate of the wearable terminal.
  • a sensor that detects a sight line For example, a sensor that detects a sight line, a motion sensor, an acceleration sensor, and the like.
  • personal information may be displayed as augmented reality on the display board of the wearable terminal in accordance with only the selection target that can be seen through the display board. Since the personal information is displayed as augmented reality in accordance with only the selected selection object, the personal information can be grasped by pinpointing. If the person information is displayed for all the identified persons, the display screen may be bothersome.
  • the above-described means and functions are realized by a computer (including a CPU, an information processing device, and various terminals) reading and executing a predetermined program.
  • the program may be, for example, an application installed on a computer, or a SaaS (software as a service) provided from a computer via a network, for example, a flexible disk, a CD It may be provided in the form of being recorded in a computer readable recording medium such as a CD-ROM or the like, a DVD (DVD-ROM, DVD-RAM or the like).
  • the computer reads the program from the recording medium, transfers the program to the internal storage device or the external storage device, stores it, and executes it.
  • the program may be recorded in advance in a storage device (recording medium) such as, for example, a magnetic disk, an optical disk, or a magneto-optical disk, and may be provided from the storage device to the computer via a communication line.
  • nearest neighbor method naive Bayes method
  • decision tree naive Bayes method
  • support vector machine e.g., support vector machine
  • reinforcement learning e.g., reinforcement learning, etc.
  • deep learning may be used in which feature quantities for learning are generated by using a neural network.

Abstract

【課題】ウェアラブル端末の視界の画像から人物を特定して、人物に応じて収集した人物情報をウェアラブル端末の表示板に拡張現実として表示する。 【解決手段】ウェアラブル端末の表示板に、人物の人物情報を表示するウェアラブル端末表示システムであって、ウェアラブル端末の視界に入った人物の画像を取得する画像取得手段と、前記画像を画像解析して、前記人物を特定する特定手段と、前記人物の人物情報を収集する収集手段と、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記人物に対して、前記人物情報を拡張現実として表示する人物情報表示手段と、を備えるウェアラブル端末表示システムを提供する。

Description

ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
 本発明は、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、収集された人物の人物情報を拡張現実として表示するウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラムに関する。
 近年、人物情報のIT化が進んでいる。例えば、鏡の設置場所を考慮し、鏡の前に居る人物に対して必要な情報を適切なタイミングで提供する表示装置が提供されている(特許文献1)。
特開2015-210797号公報
 しかしながら、特許文献1のシステムは、鏡の前にいる人物に対して情報を提供するものであり、第三者の情報を提供できない問題がある。
 本発明は、上記課題に鑑み、ウェアラブル端末の視界の画像から人物を特定して、人物に応じて収集した人物情報をウェアラブル端末の表示板に拡張現実として表示するウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラムを提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 第1の特徴に係る発明は、ウェアラブル端末の表示板に、人物の人物情報を表示するウェアラブル端末表示システムであって、ウェアラブル端末の視界に入った人物の画像を取得する画像取得手段と、前記画像を画像解析して、前記人物を特定する特定手段と、前記人物の人物情報を収集する収集手段と、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記人物に対して、前記人物情報を拡張現実として表示する人物情報表示手段と、を備えるウェアラブル端末表示システムを提供する。
 第1の特徴に係る発明は、ウェアラブル端末の表示板に、人物の人物情報を表示するウェアラブル端末表示方法であって、ウェアラブル端末の視界に入った人物の画像を取得する画像取得ステップと、前記画像を画像解析して、前記人物を特定する特定ステップと、前記人物の人物情報を収集する収集ステップと、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記人物に対して、前記人物情報を拡張現実として表示する人物情報表示ステップと、を備えるウェアラブル端末表示方法を提供する。
 第1の特徴に係る発明は、コンピュータに、ウェアラブル端末の視界に入った人物の画像を取得する画像取得ステップと、前記画像を画像解析して、前記人物を特定する特定ステップと、前記人物の人物情報を収集する収集ステップと、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記人物に対して、前記人物情報を拡張現実として表示する人物情報表示ステップと、をさせるためのプログラムを提供する。
 人物をウェアラブル端末の視界に入れるだけで、ウェアラブル端末の表示板に人物の人物情報を表示できる。
図1は、ウェアラブル端末表示システムの概要図である。 図2は、ウェアラブル端末の表示板に人物の人物情報を収集して表示した一例である。
 以下、本発明を実施するための最良の形態について説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
 本発明のウェアラブル端末表示システムは、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、収集された人物情報を拡張現実として表示するシステムである。ウェアラブル端末とはスマートグラスやヘッドマウントディスプレイなどの視界がある端末のことをいう。
 本発明の好適な実施形態の概要について、図1に基づいて説明する。図1は、本発明の好適な実施形態であるウェアラブル端末表示システムの概要図である。
 図1にあるように、ウェアラブル端末表示システムは、制御部が所定のプログラムを読み込むことで実現される、画像取得手段、特定手段、収集手段、人物情報表示手段、を備える。また図示しないが、同様に、判定手段、変更手段、検出手段、アクション結果表示手段、位置方向取得手段、推測手段、ガイドライン表示手段、選択受付手段、を備えてもよい。これらは、アプリケーション型、クラウド型またはその他であってもよい。上述の各手段が、単独のコンピュータで実現されてもよいし、2台以上のコンピュータ(例えば、サーバと端末のような場合)で実現されてもよい。
 画像取得手段は、ウェアラブル端末の視界に入った人物の画像を取得する。ウェアラブル端末のカメラで撮像された画像を取得してもよい。または、ウェアラブル端末以外であっても、このような画像を取得できるのであれば、それでも構わない。画像とは動画でも静止画でもよい。リアルタイムに人物情報を表示するためには、リアルタイムな画像の方が好ましい。
 特定手段は、画像を画像解析して人物を特定する。例えば、人物が、山田太郎さんであるのか、佐藤花子さんであるのか、鈴木一郎さんであるのか、などを特定する。色、形、大きさ、特徴、などから人物を特定できる。人物はこれらに限らない。また、映った人物の全てを特定してしまうと時間が掛かる場合には、ウェアラブル端末の視界の中央にある人物だけを特定してもよい。視界の中央にある人物だけを特定することで、特定に要する時間を大幅に短縮できる。機械学習によって画像解析の精度を向上させてもよい。例えば、人物の過去画像を教師データとして機械学習を行う。
 収集手段は、人物に応じた人物情報を収集する。人物情報とは、氏名・性別・年齢・住所・職業・役職・家族構成などである。人物情報はこれらに限らない。予め人物情報が登録されたデータベースを参照して人物に応じた人物情報を収集してもよい。例えば、名刺情報などが登録されたデータベースを参照すれば収集できる。また、人物に予め紐付けられたWebコンテンツにアクセスして人物情報を収集してもよい。例えば、人物と人物情報とを紐づけるURLなど割当てることでWebコンテンツから収集できる。また、人物をインターネット検索して検索されたWebコンテンツから人物情報を収集してもよい。例えば、ホームページなどに人物情報が掲載されているケースがあるので、インターネット検索から収集できる。または、SNS(social networking service)や口コミサイトなどから、人物情報を収集できることもある。
 人物情報表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して人物情報を拡張現実として表示する。例えば図2にあるように、ウェアラブル端末の表示板に、表示板を透過して見える実線で描かれた人物に対して、破線で描かれた人物情報を拡張現実として表示している。ここでは理解のために、実線は実物、破線は拡張現実、としている。表示板を透過して見える実線で描かれた人物に対して人物情報を拡張現実で表示することで、人物にどのような人物情報があるのかを視覚的に把握することが出来る。拡張現実として表示する人物情報は、表示板を透過して見える人物に重なるように表示しても良いが、人物が見づらくなるので、人物情報の表示ON/OFFを切り替えられるようにしてもよい。
 判定手段は、表示された人物情報が閲覧されたかどうかを判定する。閲覧中の画像を取得して画像解析をすることで、人物情報が閲覧されたかどうかを判定してもよい。また、ウェアラブル端末のセンサ情報や、閲覧者に装着されたセンサ情報などから、人物情報が閲覧されたかどうかを判定してもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
 変更手段は、閲覧されたと判定された場合は人物情報を閲覧済みに変更し、閲覧されていないと判定された場合は人物情報が閲覧されるように注目度を変更する。このようにすることで、どの人物情報が、閲覧されたのか、閲覧されていないのか、を視覚的に把握できる。例えば、人物情報のチェックボックスにチェックを入れることで閲覧済としてもよい。例えば、人物情報にスタンプを押すことで閲覧済としてもよい。また、注目度の変更は、人物情報の色・サイズを変更したり、人物情報が目立つようにスタンプを押したりしてもよい。
 検出手段は、表示された人物情報に対するアクションを検出する。アクションは、例えば、ジェスチャーや、手の動き、視線の動き、などである。閲覧中の画像を取得して画像解析をすることで、人物情報に対するアクションを検出できる。また、ウェアラブル端末のセンサ情報や、閲覧者に装着されたセンサ情報などから、人物情報に対するアクションを検出してもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
 アクション結果表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、アクションに応じた結果を拡張現実として表示する。例えば、人物情報を消すアクションを検出したら人物情報の表示を消してよい。例えば、人物情報に付けられたリンクを開くアクションを検出したらリンクを開いてもよい。例えば、人物情報のページをめくるアクションを検出したらページをめくってもよい。もちろん他のアクションでもよい。
 位置方向手段は、ウェアラブル端末の端末位置と撮像方向とを取得する。例えば、端末位置は、ウェアラブル端末のGPS(Global Positioning System)から取得できる。例えば、撮像方向は、ウェアラブル端末で撮像する場合は、ウェアラブル端末の地磁気センサや加速度センサから取得できる。これら以外から取得してもよい。
 推測手段は、端末位置と撮像方向とに基づいて、人物の人物位置を推測する。端末位置と撮像方向が分かっていれば、撮像された人物の人物位置を推測することができる。
 また、特定手段は、人物位置と画像解析とから、人物を特定してもよい。位置の情報を利用することで特定の精度を向上することができる。例えば、位置の情報によって、山田太郎さんだと特定する精度が向上できれば、それに対応して表示する人物情報の信頼度も向上する。
 ガイドライン表示手段は、ウェアラブル端末の表示板に、人物を撮像するためのガイドラインを拡張現実として表示する。例えば、枠や十字などのガイドラインを表示してもよい。ガイドラインに沿って撮像してもらうことで画像解析がしやすくなる。
 また、取得手段は、ガイドラインに沿って撮像された画像を取得してもよい。ガイドラインに沿って撮像された画像だけを取得して画像解析することで、効率良く人物を特定できる。
 選択受付手段は、ウェアラブル端末の表示板を透過して見える人物に対して、選択対象の選択を受け付ける。例えば、ウェアラブル端末の表示板を透過して見える人物を一定時間見ることで選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える人物にタッチして選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える人物にカーソルを合わせることで選択対象の選択を受け付けてもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
 また、人物情報表示手段は、ウェアラブル端末の表示板に、表示板を透過して見える選択対象にだけ合わせて、人物情報を拡張現実として表示してもよい。選択された選択対象にだけ合わせて人物情報を拡張現実として表示するので、ピンポイントに人物情報を把握することができる。特定された全ての人物に人物情報を表示すると表示板の画面が煩わしくなることがある。
[動作の説明]
 次に、ウェアラブル端末表示方法について説明する。本発明のウェアラブル端末表示方法は、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、収集された人物情報を拡張現実として表示する方法である。
 ウェアラブル端末表示方法は、画像取得ステップ、特定ステップ、収集ステップ、人物情報表示ステップ、を備える。また図示しないが、同様に、判定ステップ、変更ステップ、検出ステップ、アクション結果表示ステップ、位置方向取得ステップ、推測ステップ、ガイドライン表示ステップ、選択受付ステップ、を備えてもよい。
 画像取得ステップは、ウェアラブル端末の視界に入った人物の画像を取得する。ウェアラブル端末のカメラで撮像された画像を取得してもよい。または、ウェアラブル端末以外であっても、このような画像を取得できるのであれば、それでも構わない。画像とは動画でも静止画でもよい。リアルタイムに人物情報を表示するためには、リアルタイムな画像の方が好ましい。
 特定ステップは、画像を画像解析して人物を特定する。例えば、人物が、山田太郎さんであるのか、佐藤花子さんであるのか、鈴木一郎さんであるのか、などを特定する。色、形、大きさ、特徴、などから人物を特定できる。人物はこれらに限らない。また、映った人物の全てを特定してしまうと時間が掛かる場合には、ウェアラブル端末の視界の中央にある人物だけを特定してもよい。視界の中央にある人物だけを特定することで、特定に要する時間を大幅に短縮できる。機械学習によって画像解析の精度を向上させてもよい。例えば、人物の過去画像を教師データとして機械学習を行う。
 収集ステップは、人物に応じた人物情報を収集する。人物情報とは、氏名・性別・年齢・住所・職業・役職・家族構成などである。人物情報はこれらに限らない。予め人物情報が登録されたデータベースを参照して人物に応じた人物情報を収集してもよい。例えば、名刺情報などが登録されたデータベースを参照すれば収集できる。また、人物に予め紐付けられたWebコンテンツにアクセスして人物情報を収集してもよい。例えば、人物と人物情報とを紐づけるURLなど割当てることでWebコンテンツから収集できる。また、人物をインターネット検索して検索されたWebコンテンツから人物情報を収集してもよい。例えば、ホームページなどに人物情報が掲載されているケースがあるので、インターネット検索から収集できる。または、SNS(social networking service)や口コミサイトなどから、人物情報を収集できることもある。
 人物情報表示ステップは、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して人物情報を拡張現実として表示する。例えば図2にあるように、ウェアラブル端末の表示板に、表示板を透過して見える実線で描かれた人物に対して、破線で描かれた人物情報を拡張現実として表示している。ここでは理解のために、実線は実物、破線は拡張現実、としている。表示板を透過して見える実線で描かれた人物に対して人物情報を拡張現実で表示することで、人物にどのような人物情報があるのかを視覚的に把握することが出来る。拡張現実として表示する人物情報は、表示板を透過して見える人物に重なるように表示しても良いが、人物が見づらくなるので、人物情報の表示ON/OFFを切り替えられるようにしてもよい。
 判定ステップは、表示された人物情報が閲覧されたかどうかを判定する。閲覧中の画像を取得して画像解析をすることで、人物情報が閲覧されたかどうかを判定してもよい。また、ウェアラブル端末のセンサ情報や、閲覧者に装着されたセンサ情報などから、人物情報が閲覧されたかどうかを判定してもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
 変更ステップは、閲覧されたと判定された場合は人物情報を閲覧済みに変更し、閲覧されていないと判定された場合は人物情報が閲覧されるように注目度を変更する。このようにすることで、どの人物情報が、閲覧されたのか、閲覧されていないのか、を視覚的に把握できる。例えば、人物情報のチェックボックスにチェックを入れることで閲覧済としてもよい。例えば、人物情報にスタンプを押すことで閲覧済としてもよい。また、注目度の変更は、人物情報の色・サイズを変更したり、人物情報が目立つようにスタンプを押したりしてもよい。
 検出ステップは、表示された人物情報に対するアクションを検出する。アクションは、例えば、ジェスチャーや、手の動き、視線の動き、などである。閲覧中の画像を取得して画像解析をすることで、人物情報に対するアクションを検出できる。また、ウェアラブル端末のセンサ情報や、閲覧者に装着されたセンサ情報などから、人物情報に対するアクションを検出してもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
 アクション結果表示ステップは、ウェアラブル端末の表示板に、表示板を透過して見える人物に対して、アクションに応じた結果を拡張現実として表示する。例えば、人物情報を消すアクションを検出したら人物情報の表示を消してよい。例えば、人物情報に付けられたリンクを開くアクションを検出したらリンクを開いてもよい。例えば、人物情報のページをめくるアクションを検出したらページをめくってもよい。もちろん他のアクションでもよい。
 位置方向ステップは、ウェアラブル端末の端末位置と撮像方向とを取得する。例えば、端末位置は、ウェアラブル端末のGPS(Global Positioning System)から取得できる。例えば、撮像方向は、ウェアラブル端末で撮像する場合は、ウェアラブル端末の地磁気センサや加速度センサから取得できる。これら以外から取得してもよい。
 推測ステップは、端末位置と撮像方向とに基づいて、人物の人物位置を推測する。端末位置と撮像方向が分かっていれば、撮像された人物の人物位置を推測することができる。
 また、特定ステップは、人物位置と画像解析とから、人物を特定してもよい。位置の情報を利用することで特定の精度を向上することができる。例えば、位置の情報によって、山田太郎さんだと特定する精度が向上できれば、それに対応して表示する人物情報の信頼度も向上する。
 ガイドライン表示ステップは、ウェアラブル端末の表示板に、人物を撮像するためのガイドラインを拡張現実として表示する。例えば、枠や十字などのガイドラインを表示してもよい。ガイドラインに沿って撮像してもらうことで画像解析がしやすくなる。
 また、取得ステップは、ガイドラインに沿って撮像された画像を取得してもよい。ガイドラインに沿って撮像された画像だけを取得して画像解析することで、効率良く人物を特定できる。
 選択受付ステップは、ウェアラブル端末の表示板を透過して見える人物に対して、選択対象の選択を受け付ける。例えば、ウェアラブル端末の表示板を透過して見える人物を一定時間見ることで選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える人物にタッチして選択対象の選択を受け付けてもよい。例えば、ウェアラブル端末の表示板を透過して見える人物にカーソルを合わせることで選択対象の選択を受け付けてもよい。例えば、視線を検知するセンサ、モーションセンサ、加速度センサなど。
 また、人物情報表示ステップは、ウェアラブル端末の表示板に、表示板を透過して見える選択対象にだけ合わせて、人物情報を拡張現実として表示してもよい。選択された選択対象にだけ合わせて人物情報を拡張現実として表示するので、ピンポイントに人物情報を把握することができる。特定された全ての人物に人物情報を表示すると表示板の画面が煩わしくなることがある。
 上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、コンピュータにインストールされるアプリケーションであってもよいし、コンピュータからネットワーク経由で提供されるSaaS(ソフトウェア・アズ・ア・サービス)形態であってもよいし、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供されてもよい。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置または外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
 上述した機械学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシン、強化学習などを利用してよい。また、ニューラルネットワークを利用して、学習するための特徴量を自ら生成する深層学習(ディープラーニング)であってもよい。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。

 

Claims (13)

  1.  ウェアラブル端末の表示板に、人物の人物情報を表示するウェアラブル端末表示システムであって、
     ウェアラブル端末の視界に入った人物の画像を取得する画像取得手段と、
     前記画像を画像解析して、前記人物を特定する特定手段と、
     前記人物の人物情報を収集する収集手段と、
     前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記人物に対して、前記人物情報を拡張現実として表示する人物情報表示手段と、
    を備えるウェアラブル端末表示システム。
  2.  前記特定手段は、前記ウェアラブル端末の視界の中央にある人物だけを特定する
    請求項1に記載のウェアラブル端末表示システム。
  3.  前記収集手段は、予め人物情報が登録されたデータベースを参照して、前記人物の人物情報を収集する
    請求項1に記載のウェアラブル端末表示システム。
  4.  前記収集手段は、前記人物に予め紐付けられたWebコンテンツにアクセスして、前記人物情報を収集する
    請求項1に記載のウェアラブル端末表示システム。
  5.  前記収集手段は、前記人物をインターネット検索して、検索されたWebコンテンツから前記人物情報を収集する
    請求項1に記載のウェアラブル端末表示システム。
  6.  前記表示された人物情報が閲覧されたかどうかを判定する判定手段と、
     前記閲覧されたと判定された場合、人物情報を閲覧済みに変更する変更手段と、
    を備える請求項1に記載のウェアラブル端末表示システム。
  7.  前記表示された人物情報が閲覧されたかどうかを判定する判定手段と、
     前記閲覧されていないと判定された場合、人物情報が閲覧されるように注目度を変更する変更手段と、
    を備える請求項1に記載のウェアラブル端末表示システム。
  8.  前記表示された人物情報に対するアクションを検出する検出手段と、
     前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記人物に対して、前記アクションに応じた結果を拡張現実として表示するアクション結果表示手段と、
    を備える請求項1に記載のウェアラブル端末表示システム。
  9.  前記ウェアラブル端末の、端末位置と撮像方向と、を取得する位置方向取得手段と、
     前記端末位置と前記撮像方向とに基づいて、前記人物の人物位置を推測する推測手段と、
    を備え、
     前記特定手段は、前記人物位置と前記画像解析とから、前記人物を特定する
    請求項1に記載のウェアラブル端末表示システム。
  10.  前記ウェアラブル端末の表示板に、前記人物を撮像するためのガイドラインを拡張現実として表示するガイドライン表示手段を備え、
     前記取得手段は、前記ガイドラインに沿って撮像された前記画像を取得する
    請求項1に記載のウェアラブル端末表示システム。 
  11.  前記ウェアラブル端末の表示板を透過して見える前記人物に対して、選択対象の選択を受け付ける選択受付手段を備え、
     前記人物情報表示手段は、前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記選択対象にだけ合わせて、前記人物情報を拡張現実として表示する
    請求項1に記載のウェアラブル端末表示システム。
  12.  ウェアラブル端末の表示板に、人物の人物情報を表示するウェアラブル端末表示方法であって、
     ウェアラブル端末の視界に入った人物の画像を取得する画像取得ステップと、
     前記画像を画像解析して、前記人物を特定する特定ステップと、
     前記人物の人物情報を収集する収集ステップと、
     前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記人物に対して、前記人物情報を拡張現実として表示する人物情報表示ステップと、
    を備えるウェアラブル端末表示方法。
  13.  コンピュータに、
     ウェアラブル端末の視界に入った人物の画像を取得する画像取得ステップと、
     前記画像を画像解析して、前記人物を特定する特定ステップと、
     前記人物の人物情報を収集する収集ステップと、
     前記ウェアラブル端末の表示板に、前記表示板を透過して見える前記人物に対して、前記人物情報を拡張現実として表示する人物情報表示ステップと、
    を実行させるためのプログラム。
     
PCT/JP2017/023815 2017-06-28 2017-06-28 ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム WO2019003360A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780092753.1A CN110832438A (zh) 2017-06-28 2017-06-28 可穿戴终端显示系统、可穿戴终端显示方法以及程序
PCT/JP2017/023815 WO2019003360A1 (ja) 2017-06-28 2017-06-28 ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
US16/623,133 US11335044B2 (en) 2017-06-28 2017-06-28 Display system of a wearable terminal, display method of the wearable terminal, and program
JP2019526045A JP6887198B2 (ja) 2017-06-28 2017-06-28 ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/023815 WO2019003360A1 (ja) 2017-06-28 2017-06-28 ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2019003360A1 true WO2019003360A1 (ja) 2019-01-03

Family

ID=64740452

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/023815 WO2019003360A1 (ja) 2017-06-28 2017-06-28 ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム

Country Status (4)

Country Link
US (1) US11335044B2 (ja)
JP (1) JP6887198B2 (ja)
CN (1) CN110832438A (ja)
WO (1) WO2019003360A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024043527A1 (ko) * 2022-08-25 2024-02-29 삼성전자 주식회사 가상 현실 장치를 제어하는 방법 및 이를 이용하는 가상 현실 장치
JP7453192B2 (ja) 2021-09-27 2024-03-19 Kddi株式会社 ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020121056A2 (en) * 2018-12-13 2020-06-18 Orcam Technologies Ltd. Wearable apparatus and methods

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149478A (ja) * 2000-08-29 2002-05-24 Fujitsu Ltd 更新情報の自動表示方法、装置、媒体およびプログラム
US8963807B1 (en) * 2014-01-08 2015-02-24 Lg Electronics Inc. Head mounted display and method for controlling the same
JP2015057659A (ja) * 2014-10-24 2015-03-26 ソニー株式会社 表示装置、表示方法、プログラム
JP2015153157A (ja) * 2014-02-14 2015-08-24 Kddi株式会社 仮想情報管理システム
US20160011421A1 (en) * 2014-07-09 2016-01-14 Sk Planet Co., Ltd. Seller glasses, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer
JP2017049763A (ja) * 2015-09-01 2017-03-09 株式会社東芝 電子機器、支援システムおよび支援方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7069292B2 (en) * 2000-08-29 2006-06-27 Fujitsu Limited Automatic display method and apparatus for update information, and medium storing program for the method
JP2008301355A (ja) * 2007-06-01 2008-12-11 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP5651386B2 (ja) * 2010-06-23 2015-01-14 ソフトバンクモバイル株式会社 眼鏡型表示装置
JP2012114755A (ja) * 2010-11-25 2012-06-14 Brother Ind Ltd ヘッドマウントディスプレイ及びコンピュータプログラム
JP5953963B2 (ja) * 2012-06-13 2016-07-20 ソニー株式会社 頭部装着型映像表示装置
US10386637B2 (en) * 2014-01-15 2019-08-20 Maxell, Ltd. Information display terminal, information display system, and information display method
JP2015210580A (ja) 2014-04-24 2015-11-24 エイディシーテクノロジー株式会社 表示システム及びウェアラブル機器
JP2015210797A (ja) 2014-04-30 2015-11-24 シャープ株式会社 表示装置
JP2015219850A (ja) * 2014-05-21 2015-12-07 シャープ株式会社 情報管理システム
KR20160133972A (ko) * 2015-05-14 2016-11-23 엘지전자 주식회사 결제 정보와 관련된 결제 과정의 진행을 디스플레이부에 디스플레이할 수 있는 착용형 디스플레이 디바이스 및 그 제어 방법
US9965269B2 (en) * 2016-04-06 2018-05-08 Orcam Technologies Ltd. Systems and methods for determining and distributing an update to an inference model for wearable apparatuses

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149478A (ja) * 2000-08-29 2002-05-24 Fujitsu Ltd 更新情報の自動表示方法、装置、媒体およびプログラム
US8963807B1 (en) * 2014-01-08 2015-02-24 Lg Electronics Inc. Head mounted display and method for controlling the same
JP2015153157A (ja) * 2014-02-14 2015-08-24 Kddi株式会社 仮想情報管理システム
US20160011421A1 (en) * 2014-07-09 2016-01-14 Sk Planet Co., Ltd. Seller glasses, control method thereof, computer readable medium having computer program recorded therefor and system for providing convenience to customer
JP2015057659A (ja) * 2014-10-24 2015-03-26 ソニー株式会社 表示装置、表示方法、プログラム
JP2017049763A (ja) * 2015-09-01 2017-03-09 株式会社東芝 電子機器、支援システムおよび支援方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7453192B2 (ja) 2021-09-27 2024-03-19 Kddi株式会社 ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法
WO2024043527A1 (ko) * 2022-08-25 2024-02-29 삼성전자 주식회사 가상 현실 장치를 제어하는 방법 및 이를 이용하는 가상 현실 장치

Also Published As

Publication number Publication date
US11335044B2 (en) 2022-05-17
US20200226806A1 (en) 2020-07-16
CN110832438A (zh) 2020-02-21
JPWO2019003360A1 (ja) 2020-04-16
JP6887198B2 (ja) 2021-06-16

Similar Documents

Publication Publication Date Title
US10956007B2 (en) Electronic device and method for providing search result thereof
US9471912B2 (en) Behavioral event measurement system and related method
US20180247361A1 (en) Information processing apparatus, information processing method, wearable terminal, and program
US20130246926A1 (en) Dynamic content updating based on user activity
CN110832477A (zh) 基于传感器的语义对象生成
JP6498900B2 (ja) 広告評価システム、広告評価方法
EP2613495A1 (en) Method for determining digital content preferences of the user
CN117473127A (zh) 计算机实现的方法、系统和非暂时性计算机存储介质
JP6887198B2 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
KR102586170B1 (ko) 전자 장치 및 이의 검색 결과 제공 방법
US20220172276A1 (en) System for shopping mall service using eye tracking technology and computing device for executing same
KR20220037996A (ko) 시각적 검색 쿼리를 위한 지능형 시스템 및 방법
KR101850853B1 (ko) 빅데이터를 이용한 검색 방법 및 장치
Kimura et al. The Reading-Life Log--Technologies to Recognize Texts That We Read
WO2018198320A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
WO2020016861A1 (en) Method and system for conducting electronic commerce and retailing using emotion detection
TWI661351B (zh) 結合地圖服務的數位內容系統與數位內容產生方法
WO2019021446A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
US9911237B1 (en) Image processing techniques for self-captured images
US11514082B1 (en) Dynamic content selection
WO2018216221A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
KR101440385B1 (ko) 인디케이터를 이용한 정보 관리 장치
WO2019003359A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
WO2018216220A1 (ja) ウェアラブル端末表示システム、ウェアラブル端末表示方法およびプログラム
KR100882227B1 (ko) 웹 페이지에 포함된 화상 데이터에 기초하여 인물 정보를제공하기 위한 방법, 시스템, 단말 장치 및 컴퓨터 판독가능한 기록 매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17915534

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019526045

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17915534

Country of ref document: EP

Kind code of ref document: A1