JP7390891B2 - Client device, server, program, and information processing method - Google Patents

Client device, server, program, and information processing method Download PDF

Info

Publication number
JP7390891B2
JP7390891B2 JP2019552691A JP2019552691A JP7390891B2 JP 7390891 B2 JP7390891 B2 JP 7390891B2 JP 2019552691 A JP2019552691 A JP 2019552691A JP 2019552691 A JP2019552691 A JP 2019552691A JP 7390891 B2 JP7390891 B2 JP 7390891B2
Authority
JP
Japan
Prior art keywords
client device
image data
image
server
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019552691A
Other languages
Japanese (ja)
Other versions
JPWO2019093105A1 (en
Inventor
雅人 小助川
和 高橋
重太郎 望月
悠人 公文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Publication of JPWO2019093105A1 publication Critical patent/JPWO2019093105A1/en
Application granted granted Critical
Publication of JP7390891B2 publication Critical patent/JP7390891B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/08Devices or methods enabling eye-patients to replace direct visual perception by another kind of perception
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute

Description

本発明は、クライアント装置、サーバ、及び、プログラムに関する。 The present invention relates to a client device, a server, and a program.

一般に、視覚障害者の行動を補助する方法として、音声案内が知られている。
例えば、特開2004-016578号公報には、目的地に設置された送信機と、視覚障害者が携帯した受信機との間の距離を測定することにより、現在地から目的物までの距離を音声で知らせる技術が開示されている。
Generally speaking, audio guidance is known as a method for assisting the actions of visually impaired people.
For example, Japanese Patent Application Laid-Open No. 2004-016578 discloses that by measuring the distance between a transmitter installed at a destination and a receiver carried by a visually impaired person, the distance from the current location to the destination can be determined by voice. A technology has been disclosed to notify the user.

しかし、特開2004-016578号公報では、送信機が設置されていない場所では、視覚障害者は音声案内を受けることができない。そのため、視覚障害者が音声案内を受けられる範囲が限られる。その結果、視覚障害者が安心して行動できる範囲が狭まってしまう。 However, in Japanese Patent Laid-Open No. 2004-016578, visually impaired people cannot receive voice guidance in places where transmitters are not installed. Therefore, the range in which visually impaired people can receive audio guidance is limited. As a result, the range in which visually impaired people can move with peace of mind becomes narrower.

本発明の目的は、視覚障害者が音声案内を受けられる範囲の制約を解消することである。 An object of the present invention is to eliminate restrictions on the range in which visually impaired people can receive audio guidance.

本発明の一態様は、
画像に含まれるオブジェクトに関する音声出力データを生成可能なサーバと接続されるクライアント装置であって、
ユーザの指に装着された少なくとも1つの装着物と、少なくとも1つのオブジェクトと、を含む画像の画像データを取得する手段を備え、
前記画像データを前記サーバに送信する手段を備え、
前記画像に含まれるオブジェクトに関する音声を出力するための音声出力データを前記サーバから受信する手段を備え、
前記音声出力データに基づく音声を出力する手段を備える、
クライアント装置である。
One aspect of the present invention is
A client device connected to a server capable of generating audio output data regarding an object included in an image, the client device comprising:
comprising means for acquiring image data of an image including at least one attachment worn on a user's finger and at least one object;
comprising means for transmitting the image data to the server,
comprising means for receiving audio output data from the server for outputting audio related to the object included in the image;
comprising means for outputting audio based on the audio output data;
It is a client device.

本発明によれば、視覚障害者が音声案内を受けられる範囲の制約を解消することができる。 According to the present invention, it is possible to eliminate restrictions on the range in which a visually impaired person can receive audio guidance.

本実施形態の情報処理システムの概略図である。FIG. 1 is a schematic diagram of an information processing system according to the present embodiment. 図1の情報処理システムの構成を示すブロック図である。2 is a block diagram showing the configuration of the information processing system in FIG. 1. FIG. 図1のカメラユニット50の構成を示す図である。2 is a diagram showing the configuration of a camera unit 50 in FIG. 1. FIG. 図1のネイルキャップの構成を示す図である。FIG. 2 is a diagram showing the configuration of the nail cap shown in FIG. 1. FIG. 本実施形態の概要の説明図である。It is an explanatory diagram of an outline of this embodiment. 本実施形態の情報処理のシーケンス図である。It is a sequence diagram of information processing of this embodiment. 図6のS500の説明図である。7 is an explanatory diagram of S500 in FIG. 6. FIG. 図6のS100の説明図である。7 is an explanatory diagram of S100 in FIG. 6. FIG. 図6のS502の説明図である。7 is an explanatory diagram of S502 in FIG. 6. FIG. 変形例のジェスチャデータベースのデータ構造を示す図である。It is a figure which shows the data structure of the gesture database of a modification. 変形例の情報処理のシーケンス図である。FIG. 7 is a sequence diagram of information processing in a modified example. 変形例のジェスチャの一例を示す図である。It is a figure which shows an example of the gesture of a modification.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, one embodiment of the present invention will be described in detail based on the drawings. In addition, in the drawings for explaining the embodiments, the same components are generally designated by the same reference numerals, and repeated explanations thereof will be omitted.

(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの概略図である。図2は、図1の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be explained. FIG. 1 is a schematic diagram of an information processing system according to this embodiment. FIG. 2 is a block diagram showing the configuration of the information processing system in FIG. 1.

図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30と、カメラユニット50と、を備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
クライアント装置10及びカメラユニット50は、無線通信を介して接続される。
As shown in FIG. 1, the information processing system 1 includes a client device 10, a server 30, and a camera unit 50.
The client device 10 and the server 30 are connected via a network (eg, the Internet or an intranet) NW.
The client device 10 and camera unit 50 are connected via wireless communication.

クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device that sends a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request transmitted from the client device 10. Server 30 is, for example, a web server.

カメラユニット50は、画像を撮像し、且つ、撮像した画像の画像データを生成するように構成される。 The camera unit 50 is configured to capture an image and generate image data of the captured image.

ユーザ(例えば、視覚障害者)は、自身の指にネイルキャップNC(「装着物」の一例)を装着し、且つ、クライアント装置10を携帯することにより、サーバ30にアクセスする。 A user (for example, a visually impaired person) accesses the server 30 by wearing a nail cap NC (an example of a "wearing item") on his or her finger and carrying the client device 10 with him or her.

(1-1)クライアント装置の構成
クライアント装置10の構成について説明する。
(1-1) Configuration of Client Device The configuration of the client device 10 will be explained.

図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、を備える。 As shown in FIG. 2, the client device 10 includes a storage device 11, a processor 12, an input/output interface 13, and a communication interface 14.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of ROM (Read Only Memory), RAM (Random Access Memory), and storage (for example, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The programs include, for example, the following programs.
・OS (Operating System) program ・Application program that executes information processing (e.g. web browser)

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to implement the functions of the client device 10 by activating a program stored in the storage device 11. Processor 12 is an example of a computer.

入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、マイク、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイ、スピーカ、又は、それらの組合せである。
The input/output interface 13 is configured to obtain user instructions from an input device connected to the client device 10 and output information to an output device connected to the client device 10 .
The input device is, for example, a keyboard, pointing device, touch panel, microphone, or a combination thereof.
The output device is, for example, a display, a speaker, or a combination thereof.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 Communication interface 14 is configured to control communication between client device 10 and server 30.

(1-2)サーバの構成
サーバ30の構成について説明する。
(1-2) Server Configuration The configuration of the server 30 will be explained.

図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 2, the server 30 includes a storage device 31, a processor 32, an input/output interface 33, and a communication interface 34.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of ROM, RAM, and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・画像オブジェクトの特徴量と言語(例えば、オブジェクト名)との関係に関する学習用データセット
The programs include, for example, the following programs.
・OS program ・Application program that executes information processing ・Learning data set regarding the relationship between image object features and language (e.g. object name)

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Databases referenced in information processing ・Execution results of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to implement the functions of the server 30 by activating a program stored in the storage device 31. Processor 32 is an example of a computer.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 33 is configured to obtain user instructions from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, pointing device, touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 Communication interface 34 is configured to control communication between server 30 and client device 10 .

(1-3)カメラユニットの構成
カメラユニット50の構成について説明する。図3は、図1のカメラユニット50の構成を示す図である。
(1-3) Configuration of camera unit The configuration of the camera unit 50 will be explained. FIG. 3 is a diagram showing the configuration of the camera unit 50 of FIG. 1.

図3Aは、カメラユニット50の正面図である。図3Bは、カメラユニット50の上面図である。図3Cは、カメラユニット50の側面図である。 FIG. 3A is a front view of the camera unit 50. FIG. 3B is a top view of the camera unit 50. FIG. 3C is a side view of the camera unit 50.

図3に示すように、カメラユニット50は、レンズ50aと、スピーカ50bと、クリップ50cと、イメージセンサ50dと、カメラコントローラ50eと、を備える、 As shown in FIG. 3, the camera unit 50 includes a lens 50a, a speaker 50b, a clip 50c, an image sensor 50d, and a camera controller 50e.

図3A~図3Cに示すように、レンズ50aは、カメラユニット50の前面(Z-側の面)に配置される。 As shown in FIGS. 3A to 3C, the lens 50a is arranged on the front surface (Z-side surface) of the camera unit 50.

図3B~図3Cに示すように、スピーカ50bは、カメラユニット50の上面(Y+側)に配置される。 As shown in FIGS. 3B to 3C, the speaker 50b is arranged on the top surface (Y+ side) of the camera unit 50.

クリップ50cは、カメラユニット50の背面(Z+側の面)に配置される。つまり、クリップ50cは、レンズ50aと反対側の面に配置される。
ユーザは、クリップ50cを自身の衣服に引っ掛けることにより、レンズ50aが自身の正面(つまり、視線の方向)を向くように、カメラユニット50を装着することができる。
The clip 50c is arranged on the back surface (Z+ side surface) of the camera unit 50. In other words, the clip 50c is placed on the opposite surface from the lens 50a.
By hooking the clip 50c onto his or her clothing, the user can wear the camera unit 50 so that the lens 50a faces in front of the user (that is, the direction of the user's line of sight).

図3A及び図3Cに示すように、イメージセンサ50dは、カメラユニット50の内部に配置される。レンズ50aを通過した光は、イメージセンサ50d上で結像する。イメージセンサ50dは、結像した光を電気信号に変換することにより、レンズ50aを通過した光に基づく画像データを生成するように構成される。 As shown in FIGS. 3A and 3C, the image sensor 50d is arranged inside the camera unit 50. The light that has passed through the lens 50a forms an image on the image sensor 50d. The image sensor 50d is configured to generate image data based on the light that has passed through the lens 50a by converting the imaged light into an electrical signal.

カメラコントローラ50eは、カメラユニット50の内部に配置されている。カメラコントローラ50eは、カメラユニット50の全体を制御するプロセッサである。 The camera controller 50e is arranged inside the camera unit 50. The camera controller 50e is a processor that controls the entire camera unit 50.

(1-4)ネイルキャップの構成
ネイルキャップNCの構成について説明する。図4は、図1のネイルキャップの構成を示す図である。
(1-4) Structure of Nail Cap The structure of the nail cap NC will be explained. FIG. 4 is a diagram showing the structure of the nail cap shown in FIG. 1.

図4Aに示すように、ネイルキャップNCは、5個の右手用ネイルキャップNCR、及び、5個の左手用ネイルキャップ(つまり、10個のネイルキャップ)NCLを含む。10個のネイルキャップNCL及びNCRには、互いに、異なるパターン(例えば、テキスト「L1」~「L5」及び「R1」~「R5」)が形成されている。ネイルキャップNCに形成されたパターンによって、各ネイルキャップNCが区別される。 As shown in FIG. 4A, the nail cap NC includes five right-hand nail caps NCR and five left-hand nail caps (that is, 10 nail caps) NCL. Different patterns (for example, texts "L1" to "L5" and "R1" to "R5") are formed on the ten nail caps NCL and NCR. Each nail cap NC is distinguished by the pattern formed on the nail cap NC.

図4Bに示すように、各ネイルキャップNCは、ユーザの指に装着可能である。 As shown in FIG. 4B, each nail cap NC can be attached to a user's finger.

(2)本実施形態の概要
本実施形態の概要について説明する。図5は、本実施形態の概要の説明図である。
(2) Overview of this embodiment An overview of this embodiment will be explained. FIG. 5 is an explanatory diagram outlining the present embodiment.

図5に示すように、ユーザ(例えば、視覚障害者)の爪に装着されたネイルキャップNCが撮像範囲に入ると、クライアント装置10は、ネイルキャップNCの周辺のオブジェクトOBJ1(リンゴ)及びオブジェクトOBJ2(バナナ)を含む画像IMGの画像データを取得する。
クライアント装置10は、取得した画像データをサーバ30に送信する。
As shown in FIG. 5, when the nail cap NC attached to the nail of a user (for example, a visually impaired person) enters the imaging range, the client device 10 detects an object OBJ1 (apple) and an object OBJ2 around the nail cap NC. Image data of an image IMG containing (banana) is acquired.
The client device 10 transmits the acquired image data to the server 30.

サーバ30は、クライアント装置10から送信された画像データに対して画像解析を実行することにより、画像IMGにおけるネイルキャップNCの位置と、オブジェクトOBJ1~OBJ2の位置と、をする。
サーバ30は、特定した位置に基づいて、オブジェクトOBJ1~OBJ2のうち、ネイルキャップNCに最も近いオブジェクトOBJ1を特定する。
サーバ30は、記憶装置31に記憶された学習用データセットを参照して、特定したオブジェクトOBJ1の特徴量に基づくオブジェクト名(つまり、リンゴ)を推定する。
サーバ30は、推定したオブジェクト名の音声を出力するための音声出力データを生成する。
サーバ30は、生成した音声出力データをクライアント装置10に送信する。
The server 30 determines the position of the nail cap NC and the positions of the objects OBJ1 to OBJ2 in the image IMG by performing image analysis on the image data transmitted from the client device 10.
Based on the specified position, the server 30 specifies the object OBJ1 closest to the nail cap NC among the objects OBJ1 to OBJ2.
The server 30 refers to the learning data set stored in the storage device 31 and estimates the object name (that is, apple) based on the feature amount of the identified object OBJ1.
The server 30 generates audio output data for outputting audio of the estimated object name.
The server 30 transmits the generated audio output data to the client device 10.

クライアント装置10は、サーバ30から送信された音声出力データに基づいて、音声「リンゴ」を出力する。 The client device 10 outputs the voice "apple" based on the voice output data transmitted from the server 30.

ユーザは、クライアント装置10によって出力された音声により、自身の指に対して最も近くにあるオブジェクトOBJ1のオブジェクト名「リンゴ」を知ることができる。 The user can learn the object name "apple" of the object OBJ1 closest to his or her finger from the voice output by the client device 10.

このように、ユーザ(例えば、視覚障害者)は、ネイルキャップNCが装着された指を使って、音声案内を受けることができる。つまり、視覚障害者が音声案内を受けられる範囲の制約を解消することができる。 In this way, the user (for example, a visually impaired person) can receive audio guidance using the finger on which the nail cap NC is attached. In other words, it is possible to eliminate restrictions on the range in which visually impaired people can receive audio guidance.

(3)情報処理
本実施形態の情報処理について説明する。図6は、本実施形態の情報処理のシーケンス図である。図7は、図6のS500の説明図である。図8は、図6のS100の説明図である。図9は、図6のS502の説明図である。
(3) Information processing Information processing of this embodiment will be explained. FIG. 6 is a sequence diagram of information processing according to this embodiment. FIG. 7 is an explanatory diagram of S500 in FIG. 6. FIG. 8 is an explanatory diagram of S100 in FIG. 6. FIG. 9 is an explanatory diagram of S502 in FIG. 6.

カメラユニット50は、撮像(S500)を実行する。
具体的には、イメージセンサ50dは、レンズ50aを通過した光の結像を電気信号に変換することにより、レンズ50aを通過した光に対応する画像データを生成する(図7A)。
カメラコントローラ50eは、イメージセンサ50dによって生成された画像データをクライアント装置10に送信する。
The camera unit 50 performs imaging (S500).
Specifically, the image sensor 50d generates image data corresponding to the light that has passed through the lens 50a by converting the image of the light that has passed through the lens 50a into an electrical signal (FIG. 7A).
The camera controller 50e transmits image data generated by the image sensor 50d to the client device 10.

ステップS500の後、クライアント装置10は、画像解析リクエスト(S100)を実行する。
具体的には、プロセッサ12は、ステップS500で送信された画像データに対応する画像IMGがネイルキャップNCに形成されたパターンを含むか否かを判定する。一例として、図8に示すように、ユーザが、レンズ50aの画角の範囲内で右手の親指を立てるジェスチャを行うと、ステップS500で送信された画像データは、右手の親指に装着されたネイルキャップNCのパターン(例えば、テキスト「R1」)の画像を含む。この場合、プロセッサ12は、ネイルキャップNCに形成されたパターンを含むと判定する。
プロセッサ12は、ネイルキャップNCに形成されたパターンを含むと判定した場合、画像解析リクエストデータをサーバ30に送信する。
画像解析リクエストデータは、ネイルキャップNCに形成されたパターンを含む画像IMGの画像データを含む。
After step S500, the client device 10 executes an image analysis request (S100).
Specifically, the processor 12 determines whether the image IMG corresponding to the image data transmitted in step S500 includes the pattern formed on the nail cap NC. As an example, as shown in FIG. 8, when the user performs a gesture of raising the thumb of the right hand within the field of view of the lens 50a, the image data transmitted in step S500 is displayed on the nail attached to the thumb of the right hand. Contains an image of the pattern of the cap NC (eg, text "R1"). In this case, the processor 12 determines that the pattern formed on the nail cap NC is included.
When the processor 12 determines that the pattern formed on the nail cap NC is included, the processor 12 transmits image analysis request data to the server 30.
The image analysis request data includes image data of an image IMG including a pattern formed on the nail cap NC.

ステップS100の後、サーバ30は、画像解析(S300)を実行する。
具体的には、プロセッサ32は、画像解析リクエストデータに含まれる画像データに対して、特徴量解析を適用することにより、画像IMGに含まれる以下のオブジェクト(ネイルキャップNCの画素、及び、オブジェクトOBJ1~OBJ2の画素)の座標を特定する。
プロセッサ32は、特定した座標に基づいて、画像IMGに含まれるオブジェクトOBJ1~OBJ2のうち、ネイルキャップNCに最も近いオブジェクトOBJ1を特定する。
After step S100, the server 30 performs image analysis (S300).
Specifically, the processor 32 applies feature analysis to the image data included in the image analysis request data, thereby analyzing the following objects included in the image IMG (pixels of the nail cap NC and object OBJ1). ~ OBJ2 pixel) Specify the coordinates.
Based on the identified coordinates, the processor 32 identifies the object OBJ1 closest to the nail cap NC among the objects OBJ1 to OBJ2 included in the image IMG.

ステップS300の後、サーバ30は、オブジェクトの推定(S301)を実行する。
具体的には、プロセッサ32は、記憶装置31に記憶された学習用データセットを参照して、ステップS300で特定したオブジェクトOBJ1の画素の特徴量に対応するオブジェクト名を推定する。
After step S300, the server 30 performs object estimation (S301).
Specifically, the processor 32 refers to the learning data set stored in the storage device 31 and estimates the object name corresponding to the feature amount of the pixel of the object OBJ1 identified in step S300.

ステップS302の後、サーバ30は、テキストデータの生成(S302)を実行する。
具体的には、プロセッサ32は、ステップS301で推定されたオブジェクト名と、所定の語句(例えば、主語及び述語)と、によって構成される文章(例えば、「これはリンゴです。」)のテキストデータを生成する。
After step S302, the server 30 executes text data generation (S302).
Specifically, the processor 32 generates text data of a sentence (for example, "This is an apple.") composed of the object name estimated in step S301 and a predetermined phrase (for example, a subject and a predicate). generate.

ステップS302の後、サーバ30は、画像解析レスポンス(S303)を実行する。
具体的には、プロセッサ32は、画像解析レスポンスデータをクライアント装置10に送信する。
画像解析レスポンスデータは、ステップS302で生成されたテキストデータを含む。
After step S302, the server 30 executes an image analysis response (S303).
Specifically, the processor 32 transmits image analysis response data to the client device 10.
The image analysis response data includes the text data generated in step S302.

ステップS303の後、クライアント装置10は、音声データの生成(S101)を実行する。
具体的には、プロセッサ12は、画像解析レスポンスデータに含まれるテキストデータを、当該テキストデータに対応する音声データに変換する。
プロセッサ12は、変換した音声データをカメラユニット50に送信する。
After step S303, the client device 10 executes audio data generation (S101).
Specifically, the processor 12 converts text data included in the image analysis response data into audio data corresponding to the text data.
Processor 12 transmits the converted audio data to camera unit 50.

ステップS101の後、カメラユニット50は、音声出力(S502)を実行する。
具体的には、カメラコントローラ50eは、ステップS101で送信された音声データに対応する音声を再生する。
図9に示すように、スピーカ50bは、再生された音声(例えば、「これはリンゴです。」)を出力する。
After step S101, the camera unit 50 performs audio output (S502).
Specifically, the camera controller 50e reproduces the audio corresponding to the audio data transmitted in step S101.
As shown in FIG. 9, the speaker 50b outputs the reproduced sound (for example, "This is an apple.").

本実施形態によれば、ステップS500で撮像された画像において、ネイルキャップNCの最も近くにあるオブジェクトOBJ1の名称が読み上げられる。ユーザ(例えば、視覚障害者)は、スピーカ50bから出力された音声を介して、ネイルキャップNCに最も近いオブジェクトOBJ1を認知することができる。 According to this embodiment, the name of the object OBJ1 closest to the nail cap NC is read out in the image captured in step S500. A user (for example, a visually impaired person) can recognize the object OBJ1 closest to the nail cap NC through the sound output from the speaker 50b.

特に、親指の爪は最も大きく、且つ、親指を立てる行為はポジティブな印象を与えるので、親指用のネイルキャップNCに形成されたパターン(例えば、テキスト「R1」)を認識した場合にステップS100を実行することが好ましい。 In particular, the thumb nail is the largest, and the act of holding the thumb up gives a positive impression, so when a pattern (for example, text "R1") formed on the thumb nail cap NC is recognized, step S100 is performed. It is preferable to do so.

(4)変形例
変形例について説明する。変形例は、ユーザのジェスチャに応じた情報処理を実行する例である。
(4) Modification Example A modification example will be explained. A modified example is an example in which information processing is performed according to a user's gesture.

(4-1)データベース
変形例のデータベースについて説明する。図10は、変形例のジェスチャデータベースのデータ構造を示す図である。
(4-1) Database The database of the modified example will be explained. FIG. 10 is a diagram showing a data structure of a gesture database according to a modified example.

図10に示すように、変形例のジェスチャ情報データベースは、「パターン」フィールドと、「ジェスチャ」フィールドと、「アクション」フィールドと、を含む。各フィールドは、互いに関連付けられている。 As shown in FIG. 10, the gesture information database of the modified example includes a "pattern" field, a "gesture" field, and an "action" field. Each field is associated with each other.

「パターン」フィールドには、ネイルキャップNCに形成されたパターンを識別する情報が格される。 The "pattern" field stores information that identifies the pattern formed on the nail cap NC.

「ジェスチャ」フィールドには、単位時間あたりのネイルキャップNCの位置の変位に関する情報(例えば、動きベクトル)が格納される。動きベクトルが0の場合、ネイルキャップNCが静止していることを意味する。動きベクトルが0ではない場合、ネイルキャップNCの動きの方向及び速度を意味する。 The "gesture" field stores information (for example, motion vector) regarding displacement of the position of the nail cap NC per unit time. When the motion vector is 0, it means that the nail cap NC is stationary. If the motion vector is not 0, it means the direction and speed of the movement of the nail cap NC.

「アクション」フィールドには、プロセッサ12が実行する情報処理の内容に関する情報が格納される。情報処理は、例えば、以下を含む。
・ステップS500でカメラユニット50から送信された画像のサーバ30への送信
・ステップS500でカメラユニット50から送信された画像のサーバ30への送信、且つ、当該画像が添付されたメールの送信
・ステップS500でカメラユニット50から送信された画像が添付されたメールの送信
・ステップS500でカメラユニット50から送信された画像の記憶装置11への記憶(つまり、画像の保存)
・所定のアプリケーションの起動
The "action" field stores information regarding the content of information processing executed by the processor 12. Information processing includes, for example, the following.
- Sending the image sent from the camera unit 50 in step S500 to the server 30 - Sending the image sent from the camera unit 50 in step S500 to the server 30, and sending an email with the image attached - Step Sending an email to which the image sent from the camera unit 50 is attached in S500 - Storing the image sent from the camera unit 50 in step S500 in the storage device 11 (that is, saving the image)
・Start the specified application

(4-2)情報処理
変形例の情報処理について説明する。図11は、変形例の情報処理のシーケンス図である。図12は、変形例のジェスチャの一例を示す図である。
(4-2) Information Processing Information processing in a modified example will be explained. FIG. 11 is a sequence diagram of information processing in a modified example. FIG. 12 is a diagram illustrating an example of a modified gesture.

図11に示すように、ステップS500(図6)の後、クライアント装置10は、ジェスチャの特定(S110)を実行する。
具体的には、プロセッサ12は、ステップS500で送信された画像データに対応する画像IMGに含まれるネイルキャップNCに形成されたパターンの動きベクトルを特定する。
As shown in FIG. 11, after step S500 (FIG. 6), the client device 10 executes gesture identification (S110).
Specifically, the processor 12 identifies the motion vector of the pattern formed on the nail cap NC included in the image IMG corresponding to the image data transmitted in step S500.

一例として、図12Aに示すように、ユーザが、レンズ50aの画角の範囲内で右手の人差し指及び中指を立てて静止させるジェスチャを行うと、ステップS500で送信された画像データは、右手の人差し指及び中指のネイルキャップNCに形成されたパターン(例えば、テキスト「R2」及び「R3」)の画像を含み、且つ、動きベクトルは0である。この場合、プロセッサ12は、「右手の人差し指及び中指に装着されたネイルキャップNCのパターンが静止している」と判定する。
図12Bに示すように、ユーザが、レンズ50aの画角の範囲内で右手の人差し指、中指、及び、薬指を立てて静止させるジェスチャを行うと、ステップS500で送信された画像データは、右手の人差し指、中指、及び、薬指のネイルキャップNCに形成されたパターン(例えば、テキスト「R2」~「R4」)の画像を含み、且つ、動きベクトルは0である。この場合、プロセッサ12は、「右手の人差し指、中指、及び、薬指に装着されたネイルキャップNCのパターンが静止している」と判定する。
図12Cに示すように、ユーザが、レンズ50aの画角の範囲内で右手の人差し指及び中指を立てて上から下に移動させるジェスチャを行うと、ステップS500で送信された画像データは、右手の人差し指及び中指のネイルキャップNCに形成されたパターン(例えば、テキスト「R2」及び「R3」)の画像と、当該画像が上から下に移動することを示す動きベクトルと、を含む。この場合、プロセッサ12は、「右手の人差し指及び中指に装着されたネイルキャップNCのパターンが上から下に動いている」と判定する。
図12Dに示すように、ユーザが、レンズ50aの画角の範囲内で右手の人差し指、中指、及び、薬指を立てて下から上に移動させるジェスチャを行うと、ステップS500で送信された画像データは、右手の人差し指、中指、及び、薬指のネイルキャップNCに形成されたパターン(例えば、テキスト「R2」~「R4」)の画像と、当該画像が下から上に移動することを示す動きベクトルと、を含む。この場合、プロセッサ12は、「右手の人差し指、中指、及び、薬指に装着されたネイルキャップNCのパターンが下から上に動いている」と判定する。
As an example, as shown in FIG. 12A, when the user makes a gesture of holding up the index finger and middle finger of the right hand and holding them still within the range of the angle of view of the lens 50a, the image data transmitted in step S500 is and an image of a pattern (for example, text "R2" and "R3") formed on the nail cap NC of the middle finger, and the motion vector is 0. In this case, the processor 12 determines that "the pattern of the nail cap NC attached to the index finger and middle finger of the right hand is stationary."
As shown in FIG. 12B, when the user makes a gesture of holding the index finger, middle finger, and ring finger of the right hand upright within the field of view of the lens 50a, the image data transmitted in step S500 is transmitted to the right hand. It includes images of patterns (for example, text "R2" to "R4") formed on the nail caps NC of the index finger, middle finger, and ring finger, and the motion vector is 0. In this case, the processor 12 determines that "the patterns of the nail caps NC attached to the index finger, middle finger, and ring finger of the right hand are stationary."
As shown in FIG. 12C, when the user makes a gesture of raising the index and middle fingers of the right hand and moving them from top to bottom within the field of view of the lens 50a, the image data transmitted in step S500 is transferred to the right hand. It includes an image of a pattern (for example, text "R2" and "R3") formed on the nail cap NC of the index finger and middle finger, and a motion vector indicating that the image moves from top to bottom. In this case, the processor 12 determines that "the pattern of the nail cap NC attached to the index finger and middle finger of the right hand is moving from top to bottom."
As shown in FIG. 12D, when the user makes a gesture of raising the index finger, middle finger, and ring finger of the right hand and moving them from bottom to top within the field of view of the lens 50a, the image data transmitted in step S500 is an image of a pattern (for example, text "R2" to "R4") formed on the nail cap NC of the index finger, middle finger, and ring finger of the right hand, and a motion vector indicating that the image moves from bottom to top. and, including. In this case, the processor 12 determines that "the pattern of the nail cap NC attached to the index finger, middle finger, and ring finger of the right hand is moving from the bottom to the top."

ステップS110の後、クライアント装置10は、アクションの実行(S111)を実行する。
具体的には、プロセッサ12は、ジェスチャ情報データベース(図10)を参照して、ステップS110で特定した動きベクトルに関連付けられた「アクション」フィールドの情報を特定する。
プロセッサ12は、特定した「アクション」フィールドの情報に対応する処理を実行する。
After step S110, the client device 10 executes an action (S111).
Specifically, the processor 12 refers to the gesture information database (FIG. 10) and identifies information in the "action" field associated with the motion vector identified in step S110.
The processor 12 executes processing corresponding to the information in the specified "action" field.

一例として、ステップS110で図12Aのジェスチャが特定された場合、画像の送信、及び、メールの送信が実行される(図10)。
ステップS110で図12Bのジェスチャが特定された場合、メールの送信が実行される(図10)。
このように、クライアント装置10は、S100で認識されたパターンの組合せに応じた処理を実行する。
As an example, when the gesture shown in FIG. 12A is identified in step S110, image transmission and email transmission are executed (FIG. 10).
If the gesture shown in FIG. 12B is identified in step S110, email transmission is executed (FIG. 10).
In this way, the client device 10 executes processing according to the combination of patterns recognized in S100.

別の例として、ステップS110で図12Cのジェスチャが特定された場合、画像の保存が実行される(図10)。
ステップS110で図12Dのジェスチャが特定された場合、所定のアプリケーションの起動が実行される(図10)。
このように、クライアント装置10は、S100で認識されたパターン、及び、ネイルキャップNCの動きの組合せに応じた処理を実行する。
As another example, if the gesture of FIG. 12C is identified in step S110, image storage is performed (FIG. 10).
If the gesture shown in FIG. 12D is identified in step S110, a predetermined application is activated (FIG. 10).
In this way, the client device 10 executes processing according to the combination of the pattern recognized in S100 and the movement of the nail cap NC.

変形例によれば、クライアント装置10は、ネイルキャップNCが装着された指によるジェスチャに応じたアクションを実行する。これにより、ユーザは、ネイルキャップNCを装着した指だけで、クライアント装置10にユーザ指示を与えることができる。特に、ユーザが視覚障害者である場合、ユーザは、ディスプレイを見なくても、指の動きだけでクライアント装置10に対して様々なユーザ指示を与えることができるので、特に有用である。 According to the modification, the client device 10 performs an action in response to a gesture made by a finger to which the nail cap NC is attached. Thereby, the user can give user instructions to the client device 10 using only the finger wearing the nail cap NC. This is particularly useful when the user is visually impaired, since the user can give various user instructions to the client device 10 just by moving his or her fingers without looking at the display.

(5)本実施形態の小括
本実施形態について小括する。
(5) Summary of this embodiment This embodiment will be summarized.

本実施形態の第1態様は、
画像に含まれるオブジェクトに関する音声出力データを生成可能なサーバ30と接続されるクライアント装置10であって、
ユーザ(例えば、視覚障害者)の指に装着された少なくとも1つの装着物(例えば、ネイルキャップNC)と、少なくとも1つのオブジェクトと、を含む画像IMGの画像データを取得する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
画像データをサーバ30に送信する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
画像IMGに含まれるオブジェクトに関する音声を出力するための音声出力データ(例えば、テキストデータ)をサーバ30から受信する手段(例えば、ステップS101の処理を実行するプロセッサ12)を備え、
音声出力データに基づく音声を出力する手段(例えば、ステップS101の処理を実行するプロセッサ12)を備える、
クライアント装置10である。
The first aspect of this embodiment is
A client device 10 connected to a server 30 capable of generating audio output data regarding an object included in an image, the client device 10 comprising:
A means (for example, step S100) for acquiring image data of an image IMG including at least one attachment (for example, a nail cap NC) attached to a finger of a user (for example, a visually impaired person) and at least one object. a processor 12) that executes the processing of
comprising means for transmitting image data to the server 30 (for example, the processor 12 that executes the process of step S100),
comprising means (for example, the processor 12 that executes the process of step S101) for receiving voice output data (for example, text data) from the server 30 for outputting voice regarding the object included in the image IMG;
comprising means for outputting audio based on the audio output data (for example, a processor 12 that executes the process of step S101);
This is a client device 10.

第1態様によれば、クライアント装置10は、ユーザ(例えば、視覚障害者)の指に装着された装着物(例えば、ネイルキャップNC)及びオブジェクトOBJを含む画像の画像データをサーバ30に送信し、且つ、オブジェクトOBJに関する音声を出力する。これにより、視覚障害者が音声案内を受けられる範囲の制約を解消することができる。 According to the first aspect, the client device 10 transmits to the server 30 image data of an image including an object OBJ and an attachment (e.g., a nail cap NC) attached to a finger of a user (e.g., a visually impaired person). , and outputs audio related to object OBJ. This makes it possible to eliminate restrictions on the range in which visually impaired people can receive audio guidance.

特に、指に装着されたネイルキャップNCを含む画像データを取得するので、ユーザの目線により近い画像の音声案内を提供することができる。 In particular, since image data including the nail cap NC attached to the finger is acquired, it is possible to provide audio guidance of an image closer to the user's line of sight.

本実施形態の第2態様は、
出力される音声は、オブジェクトの名称を含む、
クライアント装置10である。
The second aspect of this embodiment is
The output audio includes the name of the object,
This is a client device 10.

第2態様によれば、ユーザは、出力された音声を介して、ネイルキャップNCの近傍にあるオブジェクトの名称を知ることができる。 According to the second aspect, the user can know the name of the object near the nail cap NC through the output audio.

本実施形態の第3態様は、
画像解析を実行可能なサーバ30と接続されるクライアント装置10であって、
画像データを取得する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
ユーザの指に装着された少なくとも1つの装着物(例えば、ネイルキャップNC)の画像が画像データに含まれているか否かを判定する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
装着物の画像が画像データに含まれている場合、画像データをサーバ30に送信する手段(例えば、ステップS100の処理を実行するプロセッサ12)を備え、
画像データに対する解析結果をサーバ30から受信する手段(例えば、ステップS101の処理を実行するプロセッサ12)を備える、
クライアント装置10である。
The third aspect of this embodiment is
A client device 10 connected to a server 30 capable of executing image analysis,
comprising means for acquiring image data (for example, a processor 12 that executes the process of step S100),
The method includes means (for example, a processor 12 that executes the process of step S100) for determining whether or not the image data includes an image of at least one attachment (for example, a nail cap NC) worn on a user's finger. ,
If the image data includes an image of the wearable object, the device includes means for transmitting the image data to the server 30 (for example, the processor 12 that executes the process of step S100),
comprising means for receiving analysis results for image data from the server 30 (for example, the processor 12 that executes the process in step S101);
This is a client device 10.

第3態様によれば、クライアント装置10は、ユーザ(例えば、視覚障害者)の指に装着された装着物(例えば、ネイルキャップNC)を含む画像を認識した場合、当該画像の画像データをサーバ30に送信する。これにより、ユーザは、画像データをサーバ30に送信するためのユーザ指示を容易に与えることができる。 According to the third aspect, when the client device 10 recognizes an image including an attachment (for example, a nail cap NC) attached to a finger of a user (for example, a visually impaired person), the client device 10 transmits the image data of the image to a server. Send to 30. This allows the user to easily give user instructions for transmitting image data to the server 30.

本実施形態の第4態様は、
取得する手段は、クライアント装置10に接続されたカメラ(例えば、カメラユニット50)、又は、クライアント装置10に配置されたカメラから、画像データを取得する、クライアント装置10である。
The fourth aspect of this embodiment is
The acquiring means is the client device 10 that acquires image data from a camera connected to the client device 10 (for example, the camera unit 50) or a camera placed in the client device 10.

本実施形態の第5態様は、
取得する手段は、装着物を認識したときに、画像データを取得する、
クライアント装置10である。
The fifth aspect of this embodiment is
The acquisition means acquires image data when the worn object is recognized.
This is a client device 10.

第5態様によれば、ユーザは、ネイルキャップNCを装着した指をレンズ50aの画角の範囲内にかざすだけで、画像データを生成させるためのユーザ指示を与えることができる。 According to the fifth aspect, the user can give a user instruction for generating image data simply by holding the finger wearing the nail cap NC within the field of view of the lens 50a.

本実施形態の第6態様は、
取得する手段は、装着物に形成されたパターンを認識したときに、画像データを取得する、
クライアント装置10である。
The sixth aspect of this embodiment is
The acquiring means acquires image data when a pattern formed on the wearable object is recognized.
This is a client device 10.

本実施形態の第7態様は、
認識されたパターンの組合せに応じた処理を実行する手段(例えば、ステップS110~S111を実行するプロセッサ12)を備える、
クライアント装置10である。
The seventh aspect of this embodiment is
comprising means (for example, a processor 12 that executes steps S110 to S111) for executing processing according to the combination of recognized patterns;
This is a client device 10.

第7態様によれば、ユーザは、レンズ50aに写り込む指の組合せによって、クライアント装置10に対するユーザ指示を与えることができる。 According to the seventh aspect, the user can give a user instruction to the client device 10 by a combination of fingers reflected in the lens 50a.

本実施形態の第8態様は、
実行する手段は、前記認識されたパターン、及び、前記装着物の動きの組合せに応じた処理を実行する、
クライアント装置10である。
The eighth aspect of this embodiment is
The executing means executes a process according to a combination of the recognized pattern and the movement of the worn object.
This is a client device 10.

第8態様によれば、ユーザは、レンズ50aに写り込む指の組合せ、及び、指の動きによって、クライアント装置10に対するユーザ指示を与えることができる。 According to the eighth aspect, the user can give a user instruction to the client device 10 by the combination of fingers reflected in the lens 50a and the movement of the fingers.

本実施形態の第9態様は、
クライアント装置10と接続されるサーバ30であって、
クライアント装置10から画像データを取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
取得された画像データに対応する画像に含まれるオブジェクトの名称を推定する手段(例えば、ステップS301の処理を実行するプロセッサ32)を備え、
推定されたオブジェクトの名称を含む音声を出力するための音声出力データを生成する手段(例えば、ステップS302の処理を実行するプロセッサ32)を備え、
生成された音声出力データをクライアント装置10に送信する手段(例えば、ステップS303の処理を実行するプロセッサ32)を備える、
サーバ30である。
The ninth aspect of this embodiment is
A server 30 connected to the client device 10,
comprising means for acquiring image data from the client device 10 (for example, a processor 32 that executes the process of step S300),
comprising means for estimating the name of an object included in an image corresponding to the acquired image data (for example, a processor 32 that executes the process of step S301),
comprising means for generating audio output data for outputting audio including the estimated name of the object (for example, a processor 32 that executes the process of step S302),
comprising means for transmitting the generated audio output data to the client device 10 (for example, the processor 32 that executes the process of step S303);
This is the server 30.

(6)その他の変形例 (6) Other variations

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。 Each step of the above information processing can be executed by either the client device 10 or the server 30.

カメラユニット50は、クライアント装置10に内蔵されても良い。 The camera unit 50 may be built into the client device 10.

各ネイルキャップNCに形成されるパターンは、文字に限られない。当該パターンは、以下を含む。特に、美観性の高いパターンをネイルキャップNCに形成することにより、ネイルキャップNCを装着させ、且つ、本実施形態の音声案内を利用することの動機付けをユーザに与えることができる。
・図形
・幾何学模様
・凹凸
・カラーバリエーション
The pattern formed on each nail cap NC is not limited to letters. The pattern includes: In particular, by forming a highly aesthetically pleasing pattern on the nail cap NC, it is possible to motivate the user to wear the nail cap NC and use the audio guidance of this embodiment.
・Shapes, geometric patterns, unevenness, color variations

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Moreover, various improvements and changes can be made to the embodiments described above without departing from the spirit of the present invention. Furthermore, the above embodiments and modifications can be combined.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
50 :カメラユニット
50a :レンズ
50b :スピーカ
50c :クリップ
50d :イメージセンサ
50e :カメラコントローラ
1 : Information processing system 10 : Client device 11 : Storage device 12 : Processor 13 : Input/output interface 14 : Communication interface 30 : Server 31 : Storage device 32 : Processor 33 : Input/output interface 34 : Communication interface 50 : Camera unit 50a : Lens 50b: Speaker 50c: Clip 50d: Image sensor 50e: Camera controller

Claims (16)

画像に含まれるオブジェクトに関する音声出力データを生成するように構成されたサーバと接続されるクライアント装置であって、
前記オブジェクトを含む画像の画像データを取得する手段を備え、
ユーザの指に装着された少なくとも1つの装着物の画像が前記画像データに含まれているか否かを判定する手段を備え、
前記装着物の画像が前記画像データに含まれている場合、前記画像データを前記サーバに送信する手段を備え、
前記画像に含まれるオブジェクトに関する音声出力データを前記サーバから受信する手段を備える、
クライアント装置。
A client device connected to a server configured to generate audio output data regarding an object included in an image, the client device comprising:
comprising means for acquiring image data of an image including the object ,
comprising means for determining whether the image data includes an image of at least one attachment worn on a user's finger;
If an image of the wearable object is included in the image data, comprising means for transmitting the image data to the server,
comprising means for receiving audio output data regarding an object included in the image from the server;
Client device.
前記取得する手段は、前記クライアント装置に接続されたカメラ、又は、前記クライアント装置に配置されたカメラから、前記画像データを取得する、請求項1に記載のクライアント装置。 The client device according to claim 1, wherein the acquiring means acquires the image data from a camera connected to the client device or a camera located at the client device. 前記送信する手段は、前記装着物を認識したときに、前記画像データを送信する、
請求項1又は請求項2に記載のクライアント装置。
The transmitting means transmits the image data when the wearable object is recognized.
The client device according to claim 1 or claim 2.
前記送信する手段は、前記装着物に形成されたパターンを認識したときに、前記画像データを送信する、請求項3に記載のクライアント装置。 4. The client device according to claim 3, wherein the transmitting means transmits the image data when recognizing a pattern formed on the wearable object. 前記装着物に形成されたパターンを認識したときに、前記認識されたパターンの組合せに応じた処理を実行する手段を備える、請求項1~請求項4の何れかに記載のクライアント装置。 5. The client device according to claim 1, further comprising means for executing processing according to a combination of the recognized patterns when the patterns formed on the wearable object are recognized. 前記実行する手段は、前記認識されたパターン、及び、前記装着物の動きの組合せに応じた処理を実行する、請求項5に記載のクライアント装置。 6. The client device according to claim 5, wherein the executing means executes processing according to a combination of the recognized pattern and the movement of the wearable object. 前記取得する手段は、前記ユーザの各指に装着された複数の装着物の画像データを取得する、
請求項1~請求項6の何れかに記載のクライアント装置。
The acquiring means acquires image data of a plurality of attachments attached to each finger of the user,
A client device according to any one of claims 1 to 6.
前記取得する手段は、前記ユーザの右手及び左手に装着された装着物の画像データを取得する、
請求項7に記載のクライアント装置。
The acquiring means acquires image data of wearable items worn on the right and left hands of the user,
The client device according to claim 7.
前記取得する手段は、前記ユーザの右手の各指及び左手の各指に装着された装着物の画像データを取得する、
請求項8に記載のクライアント装置。
The acquiring means acquires image data of an attachment attached to each finger of the right hand and each finger of the left hand of the user,
The client device according to claim 8.
前記複数の装着物は、互いに異なるパターンが形成されており、
前記取得する手段は、前記パターンを含む画像データを取得する、
請求項7~請求項9の何れかに記載のクライアント装置。
The plurality of attachments are formed with mutually different patterns,
The acquiring means acquires image data including the pattern,
The client device according to any one of claims 7 to 9.
前記取得する手段は、特定の指に装着された装着物の画像データを取得する、
請求項7~請求項10の何れかに記載のクライアント装置。
The acquiring means acquires image data of an attachment worn on a specific finger.
The client device according to any one of claims 7 to 10.
前記ユーザは、視覚障害者である、
請求項1~請求項11の何れかに記載のクライアント装置。
the user is visually impaired;
A client device according to any one of claims 1 to 11.
画像データを取得する手段と、ユーザの指に装着された少なくとも1つの装着物の画像が前記画像データに含まれているか否かを判定する手段と、前記装着物の画像が前記画像データに含まれている場合、前記画像データを前記サーバに送信する手段と、画像データに対する解析結果を前記サーバから受信する手段と、を備えるクライアント装置と接続されるサーバであって、
前記クライアント装置から前記画像データを取得する手段を備え、
前記取得された画像データに対応する画像に含まれるオブジェクトの名称を推定する手段を備え、
前記推定されたオブジェクトの名称を含む音声を出力するための音声出力データを生成する手段を備え、
前記生成された音声出力データを前記クライアント装置に送信する手段を備える、
サーバ。
means for acquiring image data; means for determining whether an image of at least one wearable item attached to a user's finger is included in the image data; and an image of the wearable item is included in the image data. If the server is connected to a client device, the server includes means for transmitting the image data to the server and means for receiving analysis results for the image data from the server ,
comprising means for acquiring the image data from the client device,
comprising means for estimating the name of an object included in an image corresponding to the acquired image data,
comprising means for generating audio output data for outputting audio including the estimated name of the object,
comprising means for transmitting the generated audio output data to the client device;
server.
前記画像における前記装着物の位置及び前記オブジェクトの位置を特定する手段を備え、
前記推定する手段は、前記装着物に最も近いオブジェクトの名称を推定する、
請求項13に記載のサーバ。
comprising means for specifying the position of the wearing object and the position of the object in the image,
The estimating means estimates the name of an object closest to the attached object.
The server according to claim 13.
コンピュータを、請求項1~請求項14の何れかに記載の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means according to any one of claims 1 to 14. コンピュータを用いて、画像に含まれるオブジェクトに関する音声出力データを生成する情報処理方法であって、
ユーザの指に装着された複数のネイルキャップと、少なくとも1つのオブジェクトと、を含む画像の画像データを取得するステップを備え、
前記画像データをサーバに送信するステップを備え、
前記画像に含まれるオブジェクトに関する音声を出力するための音声出力データを前記サーバから受信するステップを備え、
前記音声出力データに基づく音声を出力するステップを備え、
前記複数のネイルキャップに形成されたパターンを認識したときに、前記認識されたパターンの組合せに応じた処理を実行する手段を備える、
情報処理方法。
An information processing method for generating audio output data regarding an object included in an image using a computer, the method comprising:
Obtaining image data of an image including a plurality of nail caps attached to a user's fingers and at least one object,
comprising the step of transmitting the image data to a server,
comprising the step of receiving audio output data from the server for outputting audio related to the object included in the image;
comprising the step of outputting audio based on the audio output data,
comprising means for, when recognizing the patterns formed on the plurality of nail caps, executing processing according to the combination of the recognized patterns ;
Information processing method.
JP2019552691A 2017-11-07 2018-10-22 Client device, server, program, and information processing method Active JP7390891B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017214461 2017-11-07
JP2017214461 2017-11-07
PCT/JP2018/039170 WO2019093105A1 (en) 2017-11-07 2018-10-22 Client device, server, and program

Publications (2)

Publication Number Publication Date
JPWO2019093105A1 JPWO2019093105A1 (en) 2020-12-17
JP7390891B2 true JP7390891B2 (en) 2023-12-04

Family

ID=66439157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019552691A Active JP7390891B2 (en) 2017-11-07 2018-10-22 Client device, server, program, and information processing method

Country Status (3)

Country Link
JP (1) JP7390891B2 (en)
TW (1) TW201922186A (en)
WO (1) WO2019093105A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293661A (en) 1999-04-12 2000-10-20 Nippon Signal Co Ltd:The Image recognizing device
JP2010267220A (en) 2009-05-18 2010-11-25 Nara Institute Of Science & Technology Ring type interface used for wearable computer, interface device and interface method
JP2010537302A (en) 2007-08-19 2010-12-02 リングボウ エルティディ. Device worn on a finger and method of use thereof
JP2011209787A (en) 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program
US20140253701A1 (en) 2013-03-10 2014-09-11 Orcam Technologies Ltd. Apparatus and method for analyzing images
JP2016119092A (en) 2014-12-19 2016-06-30 イマージョン コーポレーションImmersion Corporation Systems and methods for haptically enabled interactions with objects
JP2016194612A (en) 2015-03-31 2016-11-17 株式会社ニデック Visual recognition support device and visual recognition support program
WO2016199248A1 (en) 2015-06-10 2016-12-15 日立マクセル株式会社 Information presentation system and information presentation method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11284895A (en) * 1998-03-31 1999-10-15 Canon Inc Server, system, client, control method and storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293661A (en) 1999-04-12 2000-10-20 Nippon Signal Co Ltd:The Image recognizing device
JP2010537302A (en) 2007-08-19 2010-12-02 リングボウ エルティディ. Device worn on a finger and method of use thereof
JP2010267220A (en) 2009-05-18 2010-11-25 Nara Institute Of Science & Technology Ring type interface used for wearable computer, interface device and interface method
JP2011209787A (en) 2010-03-29 2011-10-20 Sony Corp Information processor, information processing method, and program
US20140253701A1 (en) 2013-03-10 2014-09-11 Orcam Technologies Ltd. Apparatus and method for analyzing images
JP2016119092A (en) 2014-12-19 2016-06-30 イマージョン コーポレーションImmersion Corporation Systems and methods for haptically enabled interactions with objects
JP2016194612A (en) 2015-03-31 2016-11-17 株式会社ニデック Visual recognition support device and visual recognition support program
WO2016199248A1 (en) 2015-06-10 2016-12-15 日立マクセル株式会社 Information presentation system and information presentation method

Also Published As

Publication number Publication date
WO2019093105A1 (en) 2019-05-16
JPWO2019093105A1 (en) 2020-12-17
TW201922186A (en) 2019-06-16

Similar Documents

Publication Publication Date Title
US11567573B2 (en) Neuromuscular text entry, writing and drawing in augmented reality systems
JP2010108500A (en) User interface device for wearable computing environmental base, and method therefor
JP2012252437A (en) Image processing apparatus, image processing method, and program
KR20160080109A (en) Systems and techniques for user interface control
US20180275766A1 (en) System, method and apparatus for providing a user interface
WO2009075433A1 (en) Data input apparatus and data processing method therefor
WO2012119371A1 (en) User interaction system and method
CN104023802A (en) Control of electronic device using nerve analysis
JP2022111142A (en) Computer program, server device and method
JP2018119833A (en) Information processing device, system, estimation method, computer program, and storage medium
CN110549353B (en) Force vision device, robot, and computer-readable medium storing force vision program
US20220291753A1 (en) Spatial Gesture Recognition using Inputs from Different Devices to Control a Computing Device
US20220253146A1 (en) Combine Inputs from Different Devices to Control a Computing Device
JP2015181314A (en) Image processing system, image processing method and program
CN112927259A (en) Multi-camera-based bare hand tracking display method, device and system
US11656723B2 (en) Systems and methods for providing on-screen virtual keyboards
JP7390891B2 (en) Client device, server, program, and information processing method
KR101775080B1 (en) Drawing image processing apparatus and method based on natural user interface and natural user experience
CA3151265A1 (en) Language teaching machine
WO2021106552A1 (en) Information processing device, information processing method, and program
US20230027320A1 (en) Movement Disorder Diagnostics from Video Data Using Body Landmark Tracking
WO2021246134A1 (en) Device, control method, and program
JP7427937B2 (en) Image processing device, image processing method, and program
WO2021131950A1 (en) Information processing device, information processing method, and program
CN110083226B (en) Virtual space positioning method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231121

R150 Certificate of patent or registration of utility model

Ref document number: 7390891

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150