JP2020013594A - 情報処理方法、プログラム、及び情報処理装置 - Google Patents

情報処理方法、プログラム、及び情報処理装置 Download PDF

Info

Publication number
JP2020013594A
JP2020013594A JP2019160506A JP2019160506A JP2020013594A JP 2020013594 A JP2020013594 A JP 2020013594A JP 2019160506 A JP2019160506 A JP 2019160506A JP 2019160506 A JP2019160506 A JP 2019160506A JP 2020013594 A JP2020013594 A JP 2020013594A
Authority
JP
Japan
Prior art keywords
data
image
information processing
search
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019160506A
Other languages
English (en)
Inventor
慧 ▲柳▼澤
慧 ▲柳▼澤
Kei Yanagisawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercari Inc
Original Assignee
Mercari Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercari Inc filed Critical Mercari Inc
Priority to JP2019160506A priority Critical patent/JP2020013594A/ja
Publication of JP2020013594A publication Critical patent/JP2020013594A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】画像からユーザ所望の物体を特定しつつ、その物体を用いて画像検索を行う情報処理方法、プログラム及び情報処理装置を提供する。【解決手段】情報処理装置において情報処理方法は、情報処理装置(ユーザ端末10A、10B、サーバ20A〜20D)に含まれる1又は複数のプロセッサが、テキストデータを自然言語処理して解析された1又は複数の単語を含む単語データを取得することと、単語データに基づいて特定された物体画像であって、画像内の所定物体を含む物体画像を取得することと、物体画像に類似する類似画像を検索すること、を実行する。【選択図】図1

Description

本開示は、情報処理方法、プログラム、及び情報処理装置に関する。
画像データに含まれる物体を検出する技術は様々な方法により実現されている。例えば、映像データに含まれる領域のうち対象領域に存在する対象の物体を特定し、特定された物体についての指定情報を特定する技術が知られている(例えば、特許文献1参照)。
特許第6534715号
しかしながら、従来技術では、物体が画像データに含まれるときに、ユーザ所望の物体を特定しつつ、その物体画像を用いて画像検索を行うことができなかった。
本開示は、画像データからユーザ所望の物体を特定しつつ、その物体を用いて画像検索を行うことが可能な情報処理方法、プログラム、及び情報処理装置を提供することを目的の一つとする。
本開示の一実施形態に係る情報処理方法は情報処理装置に含まれる1又は複数のプロセッサが、テキストデータを自然言語処理して解析された1又は複数の単語を含む単語データを取得することと、前記単語データに基づいて特定された物体画像であって、画像内の所定物体を含む物体画像を取得することと、前記物体画像に類似する類似画像を検索すること、を実行する。
開示の技術によれば、画像データからユーザ所望の物体を特定しつつ、その物体を用いて画像検索を行うことが可能となる。
実施形態における情報処理システム1の各構成例を示す図である。 実施形態に係るユーザ端末10の一例を示すブロック図である。 実施形態に係るサーバ20の一例を示すブロック図である。 実施形態に係る画像関連データ133の一例を示す図である。 実施形態に係るテキスト関連データ134の一例を示す図である。 実施形態に係る物体データ233の一例を示す図である。 実施形態に係る情報処理システム1の処理の一例を示すシーケンス図である。 実施形態に係るユーザ端末10における画面遷移の一例を示す図である。
以下、本開示の実施形態について図面を参照しつつ詳細に説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略する。
[実施形態]
実施形態では、物体を撮像した画像データから、ユーザ所望の物体を特定し、この特定された物体を用いて画像検索する装置又はシステムについて説明する。実施形態では、ユーザは検索対象の物体に関する情報を発話し、この音声について音声認識及び自然言語の処理が実行される。また、構文解析された単語データが用いられ、画像内の物体が特定される。さらに、構文解析された単語データは、特定された物体とともに、画像検索に用いられてもよい。これにより、画像からユーザ所望の物体を特定しつつ、その物体画像を用いて画像検索を行うことができる。なお、取得される単語データは、ユーザにより入力されたテキストデータから自然言語処理が行われて取得されてもよい。
<システムの適用例>
図1は、実施形態における情報処理システム1の各構成例を示す図である。図1に示す例では、各ユーザが利用する各情報処理装置10A、10B・・・と、音声認識処理を実行するサーバ20Aと、自然言語解析(又は構文解析)を実行するサーバ20Bと、画像から物体を検出するサーバ20Cと、電子商取引プラットフォームを管理するサーバ20Dとが、ネットワークNを介して接続される。なお、各サーバ20A〜Dの少なくとも2つは、一つのサーバに統合されてもよい。
情報処理装置10Aは、例えば、スマートフォン、携帯電話(フィーチャーフォン)、コンピュータ、PDA(Personal Digital Assistant)などであり、内蔵又は外付けて撮像装置を有する。
情報処理装置10Bは、例えば、ウェアラブル端末(限定でなく例として、メガネ型デバイスなど)である。ウェアラブル端末は、ユーザが装着する電子デバイスである。ウェアラブル端末は、例えば、メガネ型端末(スマートグラス)、コンタクトレンズ型端末(スマートコンタクトレンズ)、拡張現実(AR: Augmented Reality)技術を用いたヘッドマウントディスプレイ、義眼、ブレイン・マシン・インタフェース等であってもよい。また、ウェアラブル端末はスマートスピーカー、ロボット等、ユーザが装着できない端末でもよい。本実施形態においては、ウェアラブル端末がメガネ型端末(スマートグラス)である場合を例に説明する。なお、情報処理装置10A及び10Bを区別しないときは、情報処理装置10と表記する。情報処理装置10は、ユーザが利用する端末であるため、ユーザ端末10とも表記する。情報処理装置10は、マイクや撮像装置と接続可能な処理装置であればよい。
情報処理装置20Aは、例えばサーバであり、1又は複数の装置により構成されてもよい。また、情報処理装置20Aは、音声認識を行うサーバであり、情報処理装置20Bは、自然言語処理を行うサーバであり、情報処理装置20Cは、物体検出を行うサーバであり、情報処理装置20Dは、電子商取引プラットフォームを管理するサーバである。以下、情報処理装置20A〜Dを区別しないときは、情報処理装置20又はサーバ20とも表記する。
図1に示す例では、ユーザ端末10Aは、カメラを起動し、シャツG1を撮影し、ユーザの音声を入力する。例えば、ユーザは、「襟付きの白い長袖シャツ」と発話したとする。このとき、ユーザ端末10Aは、音声データをサーバ20Aに送信し、この音声データのテキストデータを受信する。ユーザ端末10Aは、テキストデータをサーバ20Bに送信し、自然言語処理が実行され、構文解析された単語データを受信する。ユーザ端末10Aは、単語データと画像データとをサーバ20Cに送信し、物体検出が行われる。
ユーザ端末10Aは、特定された物体(G1)を少なくとも用いて、画像検索を行うよう制御する。また、ユーザ端末10Aは、取得していた単語データを画像検索に用いてもよい。このとき、ユーザ端末10Aは、物体画像と単語データとをサーバ20Dに送信し、検索結果を受信するようにしてもよい。
上記例で、最初の発話の音声データ(例えば、Hey,○○、検索アプリを使って、襟付きの〜)により、「Hey,○○」で、音声処理アプリケーションが起動され、音声認識、自然言語処理後の単語データ「検索アプリ」により、検索アプリケーションが起動されてもよい。検索アプリケーションが起動されると、撮影中の一画像データ内の物体と、「襟付きの〜」に含まれる単語データとを用いて、画像検索が実行されてもよい。なお、音声処理アプリケーションの起動中は、「Hey,○○」と発言しなくても検索アプリケーションが機能する構成でもよい。
なお、ユーザがユーザ端末10Bを用いて靴G2を画像検索する場合も、ユーザ端末10Bは、ユーザ端末10Aと同様に、上述した処理を実行する。
これにより、画像データからユーザ所望の物体を特定しつつ、その物体画像を用いて画像検索を行うことが可能となる。また、物体の特定に用いた単語データを、特定された物体に対する画像検索時にも用いることにより、単語データにより検索対象の絞り込みが可能になり、検索精度、検索速度を向上させることが可能になる。また、単語データを再利用することにより、絞り込み用のデータをユーザに選択させたり入力させたりしなくてもよく、サーバ20はこれらの処理をしなくて済むため、サーバ20の処理負荷を軽減させることも可能である。
<構成の一例>
図2は、実施形態に係るユーザ端末10の一例を示すブロック図である。ユーザ端末10は典型的には、1つ又は複数の処理装置(CPU)110、1つ又は複数のネットワーク又は他の通信インタフェース120、メモリ130、ユーザインタフェース150、撮像装置160、及びこれらの構成要素を相互接続するための1つ又は複数の通信バス170を含む。
ユーザインタフェース150は、例えば、ディスプレイ装置151及び入力装置(キーボード及び/又はマウス、又は他の何らかのポインティングデバイス、音を入力可能なマイク等)152を備えるユーザインタフェース150である。また、ユーザインタフェース150は、タッチパネルでもよい。また、ユーザ端末10がウェアラブル端末10Bの場合、ディスプレイ措置151はレンズ、入力装置152はマイク等でもよい。
撮像装置160は、画像(静止画像及び動画像を含む)を撮像するためのデバイスである。例えば、撮像装置160は、CCDイメージセンサ、CMOSイメージセンサ、レンズ等の撮像素子を含んでいてもよい。
メモリ130は、例えば、DRAM、SRAM、DDR RAM又は他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよい。
また、メモリ130の他の例として、CPU110から遠隔に設置される1つ又は複数の記憶装置でもよい。ある実施形態において、メモリ130は次のプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。
オペレーティングシステム131は、例えば、様々な基本的なシステムサービスを処理するとともにハードウェアを用いてタスクを実行するためのプロシージャを含む。
ネットワーク通信モジュール132は、例えば、ユーザ端末10を他のコンピュータに、1つ又は複数のネットワーク通信インタフェース120及び、インターネット、他の広域ネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ又は複数の通信ネットワークを介して接続するために使用される。
画像関連データ133は、撮影中に撮像された画像データに関連して取得可能なデータである。例えば、画像関連データ133は、画像データを識別するための画像ID、ブランド名、物体のカテゴリ、画像データ内の物体の位置、物体の色、物体の材質(テクスチャ)などを含む(例えば図4参照)。これらのデータは、画像データから物体検出をする際に取得可能である。
テキスト関連データ134は、ユーザにより入力されたテキストデータに関連して取得可能なデータである。例えば、テキストデータは、ユーザの音声データを音声認識して取得されたり、ユーザにより入力装置152を操作されることで取得されたりする。例えば、テキスト関連データ134は、音声データを識別するための音声ID、音声データ、音声データが音声認識されたテキストデータ、テキストデータが構文解析された1又は複数の単語データなどを含む(例えば図5参照)。
検索制御モジュール135は、テキスト関連データ134に基づいて、撮像装置160により撮像された画像データ内の所定物体を特定し、その所定物体に類似する類似物体を含む類似画像を検索することを制御する。例えば、検索制御モジュール135は、検索手順を表示制御モジュール136に指示して画面に表示させ、検索結果をユーザに通知する。
表示制御モジュール136は、物体検索に関する画面を表示制御する(例えば図8参照)。例えば、表示制御モジュール136は、検索結果として、類似物体に関する情報を画面に表示制御する。一例として、表示制御モジュール136は、撮影中の画面に対し、物体に関する情報を、AR技術を用いて重畳表示するよう制御してもよい。これにより、検索結果をユーザに知らせることができる。
また、取引制御モジュール137は、電子商取引プラットフォームにおいて商品の売買を制御し、例えば、出品や購入の手続き処理を制御する。なお、画像検索は、電子商取引プラットフォームにおける商品データベースに格納されている商品画像を検索してもよい。これにより、電子商取引プラットフォームとデータ連携して検索処理を効率化することができる。
なお、1つ又は複数の処理装置(CPU)110は、メモリ130から、必要に応じて各モジュールを読み出して実行する。例えば、1つ又は複数の処理装置(CPU)110は、メモリ130に格納されているネットワーク通信モジュール132を実行することで、通信部(送信部、受信部を含む)を構成してもよい。また、1つ又は複数の処理装置(CPU)110は、メモリ130に格納されている検索制御モジュール135、表示制御モジュール136、取引制御モジュール137をそれぞれ実行することで、検索制御部、表示制御部、取引制御部を構成してもよい。
他の実施形態において、検索制御モジュール135、表示制御モジュール136、取引制御モジュール137は、ユーザ端末10のメモリ130に格納されるスタンドアロンアプリケーションであってもよい。スタンドアロンアプリケーションとしては、限定はされないが、検索制御アプリケーション、表示制御アプリケーション、取引制御アプリケーションが挙げられる。さらに他の実施形態において、検索制御モジュール135、表示制御モジュール136、取引制御モジュール137は別のアプリケーションへのアドオン又はプラグインであってもよい。
上記に示した要素の各々は、先述の記憶装置の1つ又は複数に格納され得る。上記に示したモジュールの各々は、上述される機能を実行するための命令のセットに対応する。上記に示したモジュール又はプログラム(すなわち、命令のセット)は別個のソフトウェアプログラム、プロシージャ又はモジュールとして実装される必要はないとともに、従ってこれらのモジュールの様々なサブセットは様々な実施形態で組み合わされるか、或いは再構成されてもよい。ある実施形態において、メモリ130は上記に示されるモジュール及びデータ構造のサブセットを格納し得る。さらには、メモリ130は上述されない追加的なモジュール及びデータ構造を格納し得る。
図3は、実施形態に係るサーバ20の一例を示すブロック図である。サーバ20は典型的には、1つ又は複数の処理装置(CPU)210、1つ又は複数のネットワーク又は他の通信インタフェース220、メモリ230、及びこれらの構成要素を相互接続するための1つ又は複数の通信バス270を含む。図3に示すサーバ20は、図1に示すサーバA〜Dを含むサーバとして説明するが、少なくとも1つの機能を有する別個のサーバとして構成されてもよい。
サーバ20は、場合によりユーザインタフェース250を含んでもよく、これとしては、ディスプレイ装置(図示せず)、及びキーボード及び/又はマウス(又は他の何らかのポインティングデバイス等の入力装置。図示せず)を挙げることができる。
メモリ230は、例えば、DRAM、SRAM、DDR RAM又は他のランダムアクセス固体記憶装置などの高速ランダムアクセスメモリであり、また、1つ又は複数の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリデバイス、又は他の不揮発性固体記憶装置などの不揮発性メモリでもよい。
また、メモリ230の他の例は、CPU210から遠隔に設置される1つ又は複数の記憶装置を挙げることができる。ある実施形態において、メモリ230は次のプログラム、モジュール及びデータ構造、又はそれらのサブセットを格納する。
オペレーティングシステム231は、例えば、様々な基本的なシステムサービスを処理するとともにハードウェアを用いてタスクを実行するためのプロシージャを含む。
ネットワーク通信モジュール232は、例えば、サーバ20を他のコンピュータに、1つ又は複数の通信ネットワークインタフェース220及びインターネット、他の広域ネットワーク、ローカルエリアネットワーク、メトロポリタンエリアネットワークなどの1つ又は複数の通信ネットワークを介して接続するために使用される。
物体データ233は、検索先となり得る物体の情報が格納される。例えば、物体データ233は、物体を特定するための物体ID、物体を含む画像データ、物体の名称、物体の属性、金額等を含む(例えば、図6参照)。
音声認識モジュール234は、各ユーザ端末10から送信された音声データを音声認識API(Application Programming Interface)を介して取得し、この音声データに対して音声認識し、認識結果のテキストデータを、音声データの送信元のユーザ端末10に送信する。
自然言語処理モジュール235は、各ユーザ端末10から送信されたテキストデータを自然言語処理APIを介して取得し、このテキストデータに対して自然言語処理を実行し、構文解析された1又は複数の単語を含む単語データを、テキストデータの送信元のユーザ端末10に送信する。自然言語処理は、例えば、Google Natural Language、Microsoft Text Analytics、又はIBM Natural Language Classifierなどを適用可能である。
物体検出モジュール236は、各ユーザ端末10から送信された画像データを物体検出APIを介して取得し、この画像データに対し、物体検出処理を実行し、物体検出の結果データを、画像データの送信元のユーザ端末10に送信する。結果データには、検出された物体の物体名、カテゴリ、素材、色等の少なくとも1つが含まれてもよい。
検出処理モジュール237は、各ユーザ端末10から物体画像を取得し、物体データ233に格納される物体の中から、取得した物体画像に含まれる物体に類似する物体を含む画像データを検索し、検索結果データを、物体画像を送信したユーザ端末10に送信する。
検出処理モジュール237は、テキストデータを自然言語処理して解析された1又は複数の単語を含む単語データを取得する。また、検出処理モジュール237は、取得された単語データに基づいて特定された物体画像であって、画像内の所定物体を含む物体画像を取得する。次に、検出処理モジュール237は、所定物体に類似する類似物体を含む類似画像を検索する。
例えば、検出処理モジュール237は、取得された画像内に複数の物体が含まれる場合などに、ユーザにより入力されたテキストデータ(例えばブランド名や商品カテゴリ等)を用いて、ユーザ所望の物体を特定する。ユーザ所望の物体は、1つに限られず、複数の物体やこれらの組み合わせ(例えば応接セット)でもよい。
特定された物体は、矩形抽出されてもよい。物体を特定するのに用いられる単語データには、位置(例えば一番手前等)、素材(例えばストライプ)、色、サイズ(例えば、〜より大きい等)などのデータを含んでもよい。なお、上述の物体特定処理や検索処理は、サーバ20Dが行ってもよいし、ユーザ端末10が行ってもよい。
これにより、取得された画像からユーザ所望の物体を特定しつつ、その物体画像を用いて画像検索を行うことが可能になる。例えば、ユーザは、画像内の位置や、色等を音声又はテキストで入力することにより、検索対象の物体を、画像データ内から特定し、この物体画像を用いて検索を行うことが可能になる。
また、検出処理モジュール237は、入力された音声を音声認識処理してテキストデータを取得してもよい。例えば、入力装置152に含まれるマイクは、ユーザの発話を音声データに変換して入力する。この音声データが、サーバ20Aなどにより音声認識されてテキストデータに変換される。
これにより、ユーザは、音声を用いることで、物体を特定するためのデータを容易にユーザ端末10に入力することができる。
また、検出処理モジュール237は、単語データにさらに基づいて、類似物体を含む類似画像を検索してもよい。例えば、検出処理モジュール237は、物体特定に用いた単語データを、類似画像を検索するときにも用いてもよい。
これにより、取得された画像からユーザ所望の物体を特定し、特定された物体画像以外にもユーザ所望のデータを用いて画像検索を行うことが可能となる。また、物体の特定に用いた単語データを、特定された物体に対する画像検索時にも用いることにより、単語データにより検索対象の絞り込みが可能になり、検索精度、検索速度を向上させることが可能になる。また、単語データを再利用することにより、絞り込み用のデータをユーザに選択させたり入力させたりしなくてもよく、サーバ20はこれらの処理をしなくて済むため、サーバ20の処理負荷を軽減させることも可能である。
また、検出処理モジュール237は、画像内で検出された物体に関する物体関連データを取得してもよい。物体関連データは、例えば、物体検出時に取得可能な物体名、カテゴリ、素材、色等を含む。また、検出処理モジュール237は、単語データ及び物体関連データの少なくとも1つに基づいて、類似物体を検索してもよい。例えば、検出処理モジュール237は、構文解析により取得された単語データと、物体検出時に取得された物体関連データとを用いて、検索対象をフィルタリングして検索する。
これにより、画像からユーザ所望の物体を特定し、特定された物体画像以外にもユーザ所望のデータ及び/又は物体に関するデータを用いて画像検索を行うことが可能となる。また、物体の特定に用いた単語データと、物体検出時に取得されるデータとを、特定された物体に対する画像検索時にも用いることにより、さらなる検索対象の絞り込みが可能になり、検索精度、検索速度をさらに向上させることが可能になる。また、単語データや物体に関するデータを検索に利用することにより、絞り込み用のデータをユーザに選択させたり入力させたりしなくてもよく、サーバ20はこれらの処理をしなくて済むため、サーバ20の処理負荷を軽減させることも可能である。
また、検出処理モジュール237は、所定項目において、単語データに含まれるデータと、物体関連データに含まれるデータとが異なる場合、両データとも検索に使用しない、又はいずれかのデータを検索に使用すると決定してもよい。例えば、検出処理モジュール237は、ユーザの音声データにより取得された単語データが「赤」を示し、物体検出時に取得された単語データが「青」を示す場合、両者とも検索に用いない、又はいずれか一方を検索に用いると決定してもよい。また、検出処理モジュール237は、より詳細な情報(例えば修飾語が付与された情報)を有する方を用いるように決定しておいてもよい。例えば、「赤」と「濃い赤」では「濃い赤」が用いられる。
なお、いずれか一方が用いられる場合、所定項目ごとにどちらを用いるかが決定されていればよい。例えば、所定項目が色の場合、画像認識の精度の信頼性が高いため、物体関連データを用い、所定項目が素材の場合、テクスチャ認識の精度を考慮して、単語データを用いることが設定される。
これにより、所定項目において不一致のデータがある場合の処理を規定しておくことで、スムースな検索処理を実現することが可能になる。
また、類似物体は、電子商取引プラットフォームにおける商品データベースに登録された商品を含んでもよい。例えば、特定された物体を用いて、電子商取引プラットフォームに出品中の商品画像が検索されてもよい。
これにより、電子商取引プラットフォームと連携することで、ユーザに検索の付加価値を与えることが可能になる。また、電子商取引プラットフォームが既に保有している商品データベースを用いることで、サーバで管理するデータ量を軽減することが可能にあり、メモリ量削減に寄与することが可能になる。
また、検出処理モジュール237は、単語データに基づいて、電子商取引プラットフォームにおける処理を実行してもよい。例えば、単語データに、出品する又は購入するなどの電子商取引に関する単語が含まれていれば、検出処理モジュール237は、電子商取引モジュール238に、単語データにより特定された処理を依頼する。
これにより、電子商取引プラットフォームにおける商取引の処理を実行することが可能になり、ユーザの利便性が向上する。
また、検出処理モジュール237は、ユーザが所有する物体を含むリストがメモリに格納されている場合、リスト内の物体に関するデータに基づいて、単語データに含まれる単語を修正してもよい。例えば、検出処理モジュール237は、電子商取引プラットフォームにおいてユーザ保有の物品のリスト(例えば持ち物リスト)がユーザごとに存在する場合、このリスト内の物品の情報を解析する。検出処理モジュール237は、解析結果、このユーザは、スニーカーを多く保有していると把握できた場合は、単語データが「靴」であっても、「スニーカー」に修正してもよい。
これにより、ユーザの趣向に合わせて単語データを修正することで、ユーザの趣向により合わせて検索を行うことが可能になる。
また、検出処理モジュール237は、持ち物リスト内の商品と比較することで、画像データ内の物体を特定してもよい。例えば、ユーザにが、「先月購入した財布と同じくらいの大きさ」などと発話することで、音声認識、自然言語処理が行われ、持ち物リスト内の財布を特定することが可能になる。検索制御モジュール135は、特定した持ち物リスト内の財布のサイズデータを取得し、このサイズデータを用いて画像データ内の物体検出された財布を特定してもよい。また、検索制御モジュール135は、ものを計測するアプリケーション(例えば、Apple(登録商標) Store等により取得可能なAR Measureアプリケーション)を用いて物体のサイズを計測して、このサイズを物体特定に用いてもよい。
また、検出処理モジュール237は、画像内に同じ物体を含む領域が複数含まれる場合は、単語データに含まれる数で物体を特定してもよい、例えば同じ椅子が3つ画像内に含まれる場合、検出処理モジュール237は、単語データが示す数「3」に基づいて、この椅子を特定する。また、検索制御モジュール135は、3つの椅子のいずれかを用いて画像検索してもよく、また、それぞれの椅子を用いて画像検索してもよい。これにより、物体特定のバリエーションを増やすことができる。
また、検出処理モジュール237は、物体画像に加え、単語データ及び/又は物体関連データを取得した場合、これらのデータを用いて検索対象をフィルタリングし、検索効率を向上させる。例えば、検出処理モジュール237は、単語データ及び/又は物体関連データからカテゴリやブランドを取得できれば、カテゴリやブランドで物体を絞り込んでから、画像検索を行ってもよい。これにより、物体の絞り込みを実行し、検索精度及び検索時間の向上を図ることができる。
電子商取引モジュール238は、商品やサービスの売買処理を実行する。例えば、電子商取引モジュール238は、商品やサービスの出品処理を実行したり、販売処理を実行したりする。
上記に示した要素の各々は先述される記憶装置の1つ又は複数に格納され得る。上記に示したモジュールの各々は、上述される機能を実行するための命令のセットに対応する。上記に示したモジュール又はプログラム(すなわち、命令のセット)は別個のソフトウェアプログラム、プロシージャ又はモジュールとして実装される必要はないとともに、従ってこれらのモジュールの様々なサブセットが様々な実施形態で組み合わされるか、或いは再構成され得る。ある実施形態において、メモリ230は上記に示されるモジュール及びデータ構造のサブセットを格納し得る。さらには、メモリ230は上述されない追加的なモジュール及びデータ構造を格納し得る。
なお、1つ又は複数の処理装置(CPU)210は、メモリ230から、必要に応じて各モジュールを読み出して実行する。例えば、1つ又は複数の処理装置(CPU)210は、メモリ230に格納されているネットワーク通信モジュール232を実行することで、通信部(送信部、受信部を含む)を構成してもよい。また、1つ又は複数の処理装置(CPU)210は、メモリ230に格納されている音声認識モジュール234、自然言語処理モジュール235、物体検出モジュール236、検索処理モジュール237、電子商取引モジュール238をそれぞれ実行することで、音声認識部、自然言語処理部、物体検出部、検索処理部、電子商取引部を構成してもよい。
図3は「サーバ」を示すが、図3は、本明細書に記載される実施形態の構造的な概略としてよりも、サーバのセットに存在し得る様々な特徴についての説明が意図されている。実際には、当業者により認識されるとおり、別個に示される項目が組み合わされ得るであろうとともに、ある項目が別個にされ得るであろう。例えば、図3において別個に示される項目は単一サーバ上に実装され得るであろうとともに、単一の項目が1台又は複数のサーバにより実装され得るであろう。
<データ構造の一例>
図4は、実施形態に係る画像関連データ133の一例を示す図である。図4に示す例では、画像関連データ133は、画像IDに関連付けて、画像データ、ブランド、カテゴリ、位置、色、・・・などを含む。画像関連データ133の一例として、画像ID「T−000100」には、画像データ「D1」、ブランド「AAA」、カテゴリ「シャツ」、位置「(x1、y1)」、色「白」などのデータが関連付けられる。なお、他にも、素材などのデータが画像関連データに関連付けられてもよい。
図5は、実施形態に係るテキスト関連データ134の一例を示す図である。図5に示す例では、テキスト関連データ134は、音声IDに関連付けて、音声データ、テキストデータ、単語1、単語2、・・・などのデータを含む。テキスト関連データ134の一例として、音声ID「S−000100」には、音声データ「D2」、テキストデータ「あかいくつを・・・」、単語1「あかい」、単語「くつ」などが関連付けられる。
図6は、実施形態に係る物体データ233の一例を示す図である。図6に示す例では、物体データ233は、電子商取引における商品データであり、商品を登録したユーザのユーザIDごとに、商品に関する情報が関連付けられる。例えば、ユーザIDごとに、商品ID、画像、ブランド、金額、カテゴリ、色などが関連付けられる。物体データ233の一例として、ユーザID「U10」に、商品ID「00001」、画像「D10」、ブランド「AAA」、金額「¥5,000」、カテゴリ「シャツ」、色「白」などが関連付けられる。
上述したデータ構造は、あくまでも一例であって、この例に限られない。例えば図6に示す物体データ233は、画像IDがあれば物体画像を特定できるため、物体画像は別のデータベースに記憶しておけばよく、ユーザIDなどを不要としてもよい。
<動作説明>
次に、実施形態に係る情報処理システム1の動作について説明する。図7は、実施形態に係る情報処理システム1の処理の一例を示すシーケンス図である。図7に示す例では、サーバ20Aが音声認識モジュール234、サーバ20Bが自然言語処理モジュール235、サーバ20Cが物体検出モジュール236、サーバ20Dが検索処理モジュール237、電子商取引モジュール238を有するとする。
(ステップS102)
ユーザは、ユーザ端末10に向かって、「Hey ○○、検索アプリであの赤いメ社の靴はいくら?」と発話する。
(ステップS104)
ユーザ端末10は、マイクから、「Hey ○○、検索アプリであの赤いメ社の靴はいくら?」を音声データで取得する。
(ステップS106)
ユーザ端末10のネットワーク通信モジュール(送信部)132は、マイクから取得された音声データをサーバ20Aに送信する。
(ステップS108)
サーバ20Aのネットワーク通信モジュール(受信部)232は、音声データを受信し、音声認識モジュール234は、音声データの「Hey ○○、検索アプリであの赤いメ社の靴はいくら?」をテキストデータに変換する。
(ステップS110)
サーバ20Aのネットワーク通信モジュール(送信部)232は、「Hey ○○、検索アプリであの赤いメ社の靴はいくら?」のテキストデータをユーザ端末10に送信する。
(ステップS112)
ユーザ端末10のネットワーク通信モジュール(受信部)132は、テキストデータを受信し、ユーザ端末10は、テキストデータの一部「Hey ○○」をウェイクワードとして、取得したテキストデータを表示する。
(ステップS114)
ユーザは、ユーザ端末10の画面に表示されたテキストデータを確認し、例えば、OKボタンなどの確認結果を入力する。
(ステップS116)
ユーザ端末10のネットワーク通信モジュール(送信部)132は、テキストデータをサーバ20Bに送信する。
(ステップS118)
サーバ20Bのネットワーク通信モジュール(受信部)232は、テキストデータを受信し、自然言語処理モジュール235は、テキストデータを構文解析する。ここで、起動するアプリ「検索」、色「赤い」、キーワード「メ社」、カテゴリ「靴」、使用するUI「いくら?」が単語データとして取得される。
(ステップS120)
サーバ20Bのネットワーク通信モジュール(送信部)232は、解析済みのテキストデータである単語データを、ユーザ端末10に送信する。
(ステップS122)
ユーザ端末10のネットワーク通信モジュール132(受信部)は、解析済みのテキストデータを受信し、ユーザ端末10の検索制御モジュール135は、検索アプリが「検索」であるため、検索アプリケーションを起動する。
(ステップS124)
ユーザ端末10の検索制御モジュール135は、解析済みのテキストデータを、起動中の検索アプリケーションに渡す。
(ステップS126)
ユーザ端末10は、解析済みのテキストデータを表示する。
(ステップS128)
ユーザは、ユーザ端末10の画面に表示された解析済みのテキストデータを確認し、例えば、OKボタンなどの確認結果を入力する。なお、ステップS126及びステップS128はオプションの処理である。
(ステップS130)
ユーザ端末10は、カメラ(撮像装置160)やWebページ、端末内のメディアから画像データを取得する。なお、物体を撮影中にステップS102の音声が入力されてもよい。また、取得された画像データは、画面に表示されてもよい。
(ステップS132)
ユーザ端末10のネットワーク通信モジュール(送信部)132は、解析済みテキストデータ、画像データをサーバ20Cに送信する。
(ステップS134)
サーバ20Cのネットワーク通信モジュール(受信部)232は、解析済みテキストデータと画像データとを受信し、物体検出モジュール236は、画像データにより示される画像内の1又は複数の物体を検出する。
(ステップS136)
サーバ20Cの物体検出モジュール236は、検出した複数の物体に対し、カテゴリ「靴」に基づいてカテゴリ検索を行って検索対象を絞る。
(ステップS138)
サーバ20Cの物体検出モジュール236は、色「赤い」をもとに色推定を行い、赤い靴のみの矩形領域を取得する。
(ステップS140)
サーバ20Cの物体検出モジュール236は、画像データに対し、取得された矩形領域を切り取る。この矩形領域が物体画像になり得る。
(ステップS142)
サーバ20Cの物体検出モジュール236は、矩形領域(物体画像)と、解析済みテキストデータの一部である色「赤い」、キーワード「メ社」、カテゴリ「靴」をもとに、データベース内から類似商品を検索させ、商品情報を取得するようサーバ20Dに要求する。なお、ステップS134〜142の処理は、ユーザ端末10が実行してもよい。
(ステップS144)
サーバ20Dのネットワーク通信モジュール(受信部)232は、矩形領域と解析済みテキストデータとを受信し、検索処理モジュール237は、取得された矩形領域と解析済みテキストデータとを用いて、類似商品を検索する。
(ステップS146)
サーバ20Dの検索処理モジュール237は、検索された類似商品の商品情報(価格、色、素材、サイズなど)を、サーバ20Cに送信するよう制御する。
(ステップS148)
サーバ20Cのネットワーク通信モジュール(送信部)232は、取得された商品情報をユーザ端末10に送信する。
(ステップS150)
ユーザ端末10の表示制御モジュール136は、使用するUIについて、「いくら」に基づいて価格表示に最適化されたUIを取得する。
(ステップS152)
ユーザ端末10の表示制御モジュール136は、取得したUIを用いて商品情報を表示するよう制御する。例えば、表示制御モジュール136は、類似商品の平均価格を表示し、残りのデータ項目はオプションとして表示するよう制御してもよい。
(ステップS154)
ユーザは、ユーザ端末10の画面を見ることで、赤い靴の価格(平均価格等)を把握することができる。
以上、本開示技術は、取得された画像からユーザ所望の物体を特定しつつ、その物体画像を用いて画像検索を行うことが可能となる。また、物体の特定に用いた単語データを、特定された物体に対する画像検索時にも用いることにより、単語データにより検索対象の絞り込みが可能になり、検索精度、検索速度を向上させることが可能になる。また、単語データを再利用することにより、絞り込み用のデータをユーザに選択させたり入力させたりしなくてもよく、サーバ20はこれらの処理をしなくて済むため、サーバ20の処理負荷を軽減させることも可能である。また、音声で検索対象を特定できるため、アクセシビリティをより向上させることが可能である。また、AIアシスタントやボイスコマンドのウェイクワードと組み合わせることで、利便性が高く、ホームや他のアプリからでも起動させることが可能である。
<画面例>
次に、ユーザ端末10の画面に表示される例について説明する。図8は、実施形態に係るユーザ端末10における画面遷移の一例を示す図である。図8に示す左上の画面例では、画面内の靴G2が撮像されている。なお、図8に示す画面は表示制御モジュール136により表示制御される。
次に、ユーザが、「あの赤いメ社の靴はいくら?」と発話したとする。ユーザ端末10のマイクは、この音声を入力し、音声データとして取得する。さらに、この音声データが音声認識されてテキストデータに変換され、図8に示す右上画面にテキストデータが表示される。このとき、ユーザが発話した内容が適切か否かを確認するために、画面上に「OK」ボタン、もう一度発話させるための「もう一度」ボタンが表示される。
次に、ユーザ端末10の画面では、靴G2に基づいて商品検索が行われた結果を示す金額情報が表示される。図8に示す右下画面には、靴G2に対する検索結果として「¥5,000」が表示される。なお、本実施形態では、図8に示す例以外にも、例えば、「あの赤いメ社の靴の素材は?」とユーザが発話すれば、赤い靴に類似する靴に関連付けられた素材に関する情報が画面に表示され、「あの赤いメ社の靴のブランドは?」とユーザが発話すれば、赤い靴に類似する靴に関連付けられたブランドに関する情報が画面に表示される。
なお、開示技術は、上述した各実施形態に限定されるものではなく、開示技術の要旨を逸脱しない範囲内において、他の様々な形で実施することができる。このため、上記各実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されるものではない。例えば、上述した各処理ステップは処理内容に矛盾を生じない範囲で任意に順番を変更し、または並列に実行することができる。
本開示の各実施形態のプログラムは、コンピュータに読み取り可能な記憶媒体に記憶された状態で提供されてもよい。 記憶媒体は、「一時的でない有形の媒体」に、プログラムを記憶可能である。プログラムは、限定でなく例として、ソフトウェアプログラムやコンピュータプログラムを含む。
[変形例]
また、上述した各実施形態における変形例を以下に示す。
<変形例1>
変形例1では、ユーザのジェスチャや物体を指定する操作(例えばタップ操作)を認識し、これらにより画像内の物体を特定する処理を、上述した実施形態に組み合わせる。これにより、より高度な類似物体の検索を行うことを可能にする。ジェスチャ認識については、所定のジェスチャに対し、ユーザ端末10で実行されるコマンドや、サーバ20で実行されるコマンドを割り当てておけばよい。例えば、親指を立てるジェスチャを、検索処理を実行するコマンドに割り当てるなどである。
<変形例2>
変形例2では、電子商取引プラットフォームと連携する場合、類似商品の検索だけではなく、電子商取引に関する処理にも応用してもよい。例えば、ユーザは、「この赤いスニーカーはいくらで売れる?」と発話すれば、検索処理モジュール237は、類似商品の販売実績に基づいて売却価格帯を分析し、ユーザ端末10に分析結果を表示させたりすることが可能である。
また、ユーザが「この赤いスニーカーを買いたい」と発話すれば、検索処理モジュール237は、電子商取引の購入完了前までの処理に進むことが可能である。また、ユーザが「この赤いスニーカーを売りたい」と発話すれば、検索処理モジュール237は、電子商取引の出品時に必要な情報を、類似商品の商品情報を用いて自動で入力し、出品処理に進むことが可能である。この場合、ユーザは続けて、「概要は〇〇〇、価格は〇〇〇、以上、出品」と発話することで、検索処理モジュール237は、出品処理を完了させることができる。
また、ユーザは、「この赤いスニーカーのコーディネートを知りたい」と発話すれば、検索処理モジュール237は、赤いスニーカーのコーディネートを検索して、ユーザ端末10に表示させることができる。また、ユーザは、「この赤いスニーカーのサイズは?」と発話すれば、検索処理モジュール237は、類似商品のスニーカーの商品情報に基づいて、スニーカーのサイズ情報を取得し、ユーザ端末10に表示させることができる。すなわち、ユーザが発話する動詞に基づいて、ユーザ端末10はユーザインタフェースを変更してもよい。
<変形例3>
変形例3では、自然言語処理モジュール235においてユーザの感情を推定し、ユーザの感情データを、単語データに付与することも可能である。この場合、検索処理モジュール237は、ユーザの感情データを用いて検索処理を実行してもよい。例えば、ユーザが食べ物の画像から加盟店を探したい場合、感情が「元気」な場合は、検索処理モジュール237は、賑やかな場所(レストラン)を検索し、感情が「元気がない」場合は、落ち着いた雰囲気の飲食店を検索するようにする。
<変形例4>
変形例4では、ユーザ端末10は、撮影中に撮像された画像データだけではなく、過去に撮像され保存されている画像データ(静止画像や動画像)、又は他のアプリケーションが保有している画像データを用いて、それらの画像データにより示される画像内にある所定物体を特定してもよい。また、検索元の物体がデジタルコンテンツに含まれる場合でも、ユーザ端末10がスクリーンショットで静止画像を取得し、画像検索を行うことも可能である。ただし、デジタルコンテンツが物体に関する情報を充分に持っていた場合は、テキストデータを入力させたり、音声を入力させたりしなくてもよい。
<変形例5>
変形例5では、音声データを自動翻訳し、外国でも使用可能にする。例えば、ユーザ端末10は、GPS機能等により取得した現在の位置情報やユーザにより入力された国情報等を音声データとともに音声認識モジュール234を含むサーバ20に送信する。音声認識モジュール234は、取得した位置情報や国情報に応じた言語で音声データを自動翻訳し、翻訳後のテキストデータを用いて後段の処理を実行させることが可能である。また、位置情報が取得可能な場合、検索処理モジュール237は、位置情報から特定の加盟店などを絞り込んでもよい。例えば、画像内に複数の店舗が含まれている場合に、所定の加盟店のみを絞り込むことが可能になる。
<変形例6>
変形例6では、物体検出モジュール236は、画像内の特徴点群から物体を推定するだけではなく、3次元空間内の特徴点群から物体を推定する方法でもよい。すなわち、物体検出の方法は、二次元画像でも三次元画像でもよい。
<変形例7>
変形例7では、サーバ20の各機能モジュールの少なくとも1つをユーザ端末10に有するように実装してもよい。例えば、ユーザ端末10が、音声認識モジュール234を有するようにしたり、物体検出モジュール236を有するようにしたり、検索処理モジュール237を有するようにしたりすることも可能である。
1 情報処理システム
10、10A、10B 情報処理装置(ユーザ端末)
20、20A、20B、20C、20D 情報処理装置(サーバ)
110、210 処理装置(CPU)
120、220 ネットワーク通信インタフェース
130、230 メモリ
131、231 オペレーティングシステム
132、232 ネットワーク通信モジュール
133 画像関連データ
134 テキスト関連データ
135 検索制御制御モジュール
136 表示制御モジュール
137 取引制御モジュール
150 ユーザインタフェース
160 撮像装置
170、270 通信バス
233 物体データ
234 音声認識モジュール
235 自然言語処理モジュール
236 物体検出モジュール
237 検索処理モジュール
238 電子商取引モジュール

Claims (10)

  1. 情報処理装置に含まれる1又は複数のプロセッサが、
    テキストデータを自然言語処理して解析された1又は複数の単語を含む単語データを取得することと、
    前記単語データに基づいて特定された物体画像であって、画像内の所定物体を含む物体画像を取得することと、
    前記物体画像に類似する類似画像を検索すること、を実行する情報処理方法。
  2. 前記1又は複数のプロセッサが、
    入力された音声を音声認識処理して前記テキストデータを取得すること、をさらに実行する請求項1に記載の情報処理方法。
  3. 前記類似画像を検索することは、
    前記単語データにさらに基づいて、前記類似画像を検索することを含む、請求項1又は2に記載の情報処理方法。
  4. 前記1又は複数のプロセッサが、
    前記画像内で検出された前記所定物体に関する物体関連データを取得すること、をさらに実行し、
    前記類似画像を検索することは、
    前記単語データ及び前記物体関連データの少なくとも1つに基づいて、前記類似画像を検索することを含む、請求項1又は2に記載の情報処理方法。
  5. 前記類似画像を検索することは、
    所定項目において、前記単語データに含まれるデータと、前記物体関連データに含まれるデータとが異なる場合、両データとも検索に使用しない、又はいずれかのデータを検索に使用することを含む、請求項4に記載の情報処理方法。
  6. 前記類似画像は、電子商取引プラットフォームにおける商品データベースに登録された商品を示す画像を含む、請求項1乃至5いずれか一項に記載の情報処理方法。
  7. 前記1又は複数のプロセッサが、
    前記単語データに基づいて、前記電子商取引プラットフォームにおける処理を実行すること、をさらに実行する、請求項6に記載の情報処理方法。
  8. 前記単語データを取得することは、
    前記テキストデータを与えるユーザが所有する物体を含むリストがメモリに格納されている場合、前記リスト内の物体に関するデータに基づいて、前記単語データに含まれる単語を修正することを含む、請求項1乃至7いずれか一項に記載の情報処理方法。
  9. 情報処理装置に含まれる1又は複数のプロセッサに、
    テキストデータを自然言語処理して解析された1又は複数の単語を含む単語データを取得することと、
    前記単語データに基づいて特定された物体画像であって、画像内の所定物体を含む物体画像を取得することと、
    前記物体画像に類似する類似画像を検索すること、を実行させるプログラム。
  10. 1又は複数のプロセッサを含む情報処理装置であって、
    前記1又は複数のプロセッサが、
    テキストデータを自然言語処理して解析された1又は複数の単語を含む単語データを取得することと、
    前記単語データに基づいて特定された物体画像であって、画像内の所定物体を含む物体画像を取得することと、
    前記物体画像に類似する類似画像を検索すること、を実行する情報処理装置。
JP2019160506A 2019-09-03 2019-09-03 情報処理方法、プログラム、及び情報処理装置 Pending JP2020013594A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019160506A JP2020013594A (ja) 2019-09-03 2019-09-03 情報処理方法、プログラム、及び情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019160506A JP2020013594A (ja) 2019-09-03 2019-09-03 情報処理方法、プログラム、及び情報処理装置

Publications (1)

Publication Number Publication Date
JP2020013594A true JP2020013594A (ja) 2020-01-23

Family

ID=69170657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019160506A Pending JP2020013594A (ja) 2019-09-03 2019-09-03 情報処理方法、プログラム、及び情報処理装置

Country Status (1)

Country Link
JP (1) JP2020013594A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113312927A (zh) * 2020-02-10 2021-08-27 丰田自动车株式会社 信息处理装置、信息处理方法以及记录介质
US20230350940A1 (en) * 2021-09-28 2023-11-02 Beijing Baidu Netcom Science Technology Co., Ltd. Object recommendation

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113312927A (zh) * 2020-02-10 2021-08-27 丰田自动车株式会社 信息处理装置、信息处理方法以及记录介质
JP2021124709A (ja) * 2020-02-10 2021-08-30 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム
US11626100B2 (en) 2020-02-10 2023-04-11 Toyota Jidosha Kabushiki Kaisha Information processing apparatus, information processing method, and recording medium
JP7434978B2 (ja) 2020-02-10 2024-02-21 トヨタ自動車株式会社 情報処理装置、情報処理方法、及び、プログラム
CN113312927B (zh) * 2020-02-10 2024-04-16 丰田自动车株式会社 信息处理装置、信息处理方法以及记录介质
US20230350940A1 (en) * 2021-09-28 2023-11-02 Beijing Baidu Netcom Science Technology Co., Ltd. Object recommendation

Similar Documents

Publication Publication Date Title
US11636524B2 (en) Computer vision, user segment, and missing item determination
US11694427B2 (en) Identification of items depicted in images
US10891671B2 (en) Image recognition result culling
US9332189B2 (en) User-guided object identification
US10846327B2 (en) Visual attribute determination for content selection
US20190258683A1 (en) Image Directed Search
US11604820B2 (en) Method for providing information related to goods on basis of priority and electronic device therefor
US20190295151A1 (en) Recommendations based on object detected in an image
US9881084B1 (en) Image match based video search
JP5395920B2 (ja) 検索装置、検索方法、検索プログラム、及びそのプログラムを記憶するコンピュータ読取可能な記録媒体
US9639532B2 (en) Context-based analysis of multimedia content items using signatures of multimedia elements and matching concepts
US20240095490A1 (en) Aspect Pre-selection using Machine Learning
JP6185216B1 (ja) 情報提供システム、情報提供装置、情報提供方法、及びプログラム
US20190325497A1 (en) Server apparatus, terminal apparatus, and information processing method
KR20220164625A (ko) 사진 또는 비디오에서 잠재적 목록에 대한 관심 수집
US9600720B1 (en) Using available data to assist in object recognition
JP2020013594A (ja) 情報処理方法、プログラム、及び情報処理装置
CN113596496A (zh) 虚拟直播间的交互控制方法、装置、介质及电子设备
JP5946315B2 (ja) 画像検索システム
US11403697B1 (en) Three-dimensional object identification using two-dimensional image data
WO2015100070A1 (en) Presenting information based on a video
JP7382847B2 (ja) 情報処理方法、プログラム、及び情報処理装置
KR102334626B1 (ko) 비대면으로 결혼 정보 상담 서비스를 제공하는 화상 시스템
US20240073518A1 (en) Systems and methods to supplement digital assistant queries and filter results
KR20220135227A (ko) 사용자 보유 의류 및 미보유 의류를 포함하여 의류 추천 정보를 제공하는 방법, 이를 이용하는 서버 및 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230925

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231211